JP5824896B2 - Image processing apparatus and method, and program - Google Patents

Image processing apparatus and method, and program Download PDF

Info

Publication number
JP5824896B2
JP5824896B2 JP2011135622A JP2011135622A JP5824896B2 JP 5824896 B2 JP5824896 B2 JP 5824896B2 JP 2011135622 A JP2011135622 A JP 2011135622A JP 2011135622 A JP2011135622 A JP 2011135622A JP 5824896 B2 JP5824896 B2 JP 5824896B2
Authority
JP
Japan
Prior art keywords
image
pixel
depth
unit
depth image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2011135622A
Other languages
Japanese (ja)
Other versions
JP2013005289A (en
Inventor
紳太郎 岡田
紳太郎 岡田
剛也 小林
剛也 小林
青司 木村
青司 木村
西堀 一彦
一彦 西堀
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2011135622A priority Critical patent/JP5824896B2/en
Publication of JP2013005289A publication Critical patent/JP2013005289A/en
Application granted granted Critical
Publication of JP5824896B2 publication Critical patent/JP5824896B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Description

本技術は、画像処理装置および方法、並びにプログラムに関し、特に、簡易な方法で、2次元画像からなる入力画像から、3次元立体視を実現できる左眼用画像、および右眼用画像からなるステレオ画像の生成を実現できるようにした画像処理装置および方法、並びにプログラムに関する。   The present technology relates to an image processing apparatus, method, and program, and in particular, a stereo image composed of a left-eye image and a right-eye image capable of realizing a three-dimensional stereoscopic view from an input image composed of a two-dimensional image by a simple method. The present invention relates to an image processing apparatus and method capable of realizing image generation, and a program.

2次元画像から3次元画像へと変換する処理(2Dto3D変換処理)が一般に存在する。   There is generally a process (2D to 3D conversion process) for converting a 2D image into a 3D image.

2Dto3D変換処理は、2次元画像内における被写体の奥行値を画素単位で求め、その奥行値に基づいて設定される画素数分だけ、2次元画像の各画素を左および右にシフトさせて、右眼用画像および左眼用画像からなる3次元画像を作成する処理が知られている。   In the 2D to 3D conversion process, the depth value of the subject in the two-dimensional image is obtained in units of pixels, and each pixel of the two-dimensional image is shifted to the left and right by the number of pixels set based on the depth value. Processing for creating a three-dimensional image composed of an eye image and a left eye image is known.

上記の画素をシフトさせて3次元画像を生成する方式は、一般的には、奥行画像から生成した視差量だけ注目画素を左右方向にシフトさせる方式が用いられる(非特許文献1)。   As a method of generating a three-dimensional image by shifting the above pixels, a method of shifting a target pixel in the left-right direction by a parallax amount generated from a depth image is generally used (Non-Patent Document 1).

2Dto3Dコンテンツ変換技術(2010年映像情報メディア学会年次大会):東芝:三田雄志2Dto3D content conversion technology (2010 Annual Conference of the Institute of Image Information and Television Engineers): Toshiba: Yuji Mita

この画素シフト方式を用いると原理的には正しい動作することが確認されている。   In principle, it has been confirmed that this pixel shift method operates correctly.

しかしながら、射影される画素が存在しない領域(陰面領域)が原理的に発生してしまう。また、この陰面領域を埋めるために、例えば、インペインティングなどの処理が後段で必要となるため、処理コストが大きくなってしまう。   However, a region where there is no pixel to be projected (hidden region) is generated in principle. Further, in order to fill this hidden surface area, for example, processing such as in-painting is required at a later stage, which increases the processing cost.

本技術はこのような状況に鑑みてなされたものであり、特に、簡易な手法で2次元画像からなる入力画像から3次元立体視可能な右眼用画像、および左眼用画像からなるステレオ画像を適切に生成できるようにするものである。   The present technology has been made in view of such a situation, and in particular, a stereo image composed of a right-eye image and a left-eye image that can be three-dimensionally viewed from an input image composed of a two-dimensional image by a simple method. Can be generated appropriately.

本技術の一側面の画像処理装置は、2次元画像信号からなる入力画像信号より、奥行画像を生成する奥行画像生成部と、前記奥行画像をぼかし処理するぼかし処理部と、前記ぼかし処理部によりぼかし処理された奥行画像の各画素について、前記各画素の奥行値に基づいて設定されるシフト量を計算するシフト量計算部と、前記入力画像信号における各画素について、前記シフト量計算部により計算された前記奥行画像の各画素に対応するシフト量だけ右方向、または左方向にシフトした位置の画素を射影することで、3次元画像信号における右眼用画像または左眼用画像を生成するシフト部とを含み、前記ぼかし処理部は、前記奥行画像よりエッジを検出するエッジ検出部と、前記エッジ検出部により検出されたエッジと、その近傍の領域をLPF処理するLPFとを含み、前記奥行画像のエッジを前記エッジ検出部により検出させ、前記LPFにより検出されたエッジと、その近傍の領域を、対応する前記奥行画像の奥行値の変化量に応じた強さでLPF処理させることでぼかし処理するAn image processing apparatus according to an aspect of the present technology includes a depth image generation unit that generates a depth image from an input image signal including a two-dimensional image signal, a blur processing unit that blurs the depth image, and the blur processing unit. A shift amount calculation unit that calculates a shift amount that is set based on a depth value of each pixel for each pixel of the depth image that has been subjected to the blurring process, and a calculation that is performed by the shift amount calculation unit for each pixel in the input image signal A shift for generating a right-eye image or a left-eye image in a three-dimensional image signal by projecting a pixel at a position shifted to the right or left by a shift amount corresponding to each pixel of the depth image a Department seen including, the blurring processing unit includes an edge detection unit for detecting an edge from the depth image, a detected edge by the edge detecting section, a region in the vicinity thereof LPF to be subjected to LPF processing, the edge of the depth image is detected by the edge detection unit, and the edge detected by the LPF and the area in the vicinity thereof are determined according to the amount of change in the depth value of the corresponding depth image. Blur is processed by LPF processing with high strength .

本発明の一側面の画像処理方法は、2次元画像信号からなる入力画像信号より、奥行画像を生成する奥行画像生成部における、前記2次元画像信号からなる入力画像信号より、奥行画像を生成する奥行画像生成ステップと、前記奥行画像をぼかし処理するぼかし処理部における、前記奥行画像をぼかし処理するぼかし処理ステップと、前記ぼかし処理部によりぼかし処理された奥行画像の各画素について、前記各画素の奥行値に基づいて設定されるシフト量を計算するシフト量計算部における、前記ぼかし処理部によりぼかし処理された奥行画像の各画素について、前記各画素の奥行値に基づいて設定されるシフト量を計算するシフト量計算ステップと、前記入力画像信号における各画素について、前記シフト量計算部により計算された前記奥行画像の各画素に対応するシフト量だけ右方向、または左方向にシフトした位置の画素を射影することで、3次元画像信号における右眼用画像または左眼用画像を生成するシフト部における、前記入力画像信号における各画素について、前記シフト量計算ステップの処理により計算された前記奥行画像の各画素に対応するシフト量だけ右方向、または左方向にシフトした位置の画素を射影することで、3次元画像信号における右眼用画像または左眼用画像を生成するシフトステップとを含み、前記ぼかし処理ステップの処理は、前記奥行画像よりエッジを検出するエッジ検出ステップと、前記エッジ検出ステップの処理により検出されたエッジと、その近傍の領域にLPFを掛けるLPF処理ステップとを含み、前記奥行画像のエッジを前記エッジ検出ステップの処理により検出させ、前記LPFにより検出されたエッジと、その近傍の領域を、対応する前記奥行画像の奥行値の変化量に応じた強さでLPF処理させることでぼかし処理するAccording to an image processing method of one aspect of the present invention, a depth image is generated from an input image signal including a two-dimensional image signal in a depth image generation unit that generates a depth image from an input image signal including a two-dimensional image signal. A depth image generation step, a blur processing step for blurring the depth image in a blur processing unit that blurs the depth image, and each pixel of the depth image subjected to the blur processing by the blur processing unit. In the shift amount calculation unit that calculates the shift amount set based on the depth value, for each pixel of the depth image blurred by the blur processing unit, the shift amount set based on the depth value of each pixel A shift amount calculating step to calculate, and for each pixel in the input image signal, the shift amount calculation unit calculates the shift amount In the shift unit that generates the image for the right eye or the image for the left eye in the three-dimensional image signal by projecting the pixel at the position shifted to the right or left by the shift amount corresponding to each pixel of the row image, For each pixel in the input image signal, by projecting a pixel at a position shifted rightward or leftward by the shift amount corresponding to each pixel of the depth image calculated by the processing of the shift amount calculation step, look including a shift step of generating an image for the right eye or the left eye image in the three-dimensional image signal, processing of the blurring processing step, an edge detection step of detecting an edge from the depth image, the edge detection step An edge detected by the processing, and an LPF processing step of applying an LPF to a region in the vicinity thereof, and the edge of the depth image is the edge Is detected by the processing of the outgoing step, the edge detected by the LPF, the region in the vicinity thereof, to the blurring process by which the LPF processing in intensity in accordance with the change amount of the depth value of the corresponding depth image.

本発明の一側面のプログラムは、2次元画像信号からなる入力画像信号より、奥行画像を生成する奥行画像生成部と、前記奥行画像をぼかし処理するぼかし処理部と、前記ぼかし処理部によりぼかし処理された奥行画像の各画素について、前記各画素の奥行値に基づいて設定されるシフト量を計算するシフト量計算部と、前記入力画像信号における各画素について、前記シフト量計算部により計算された前記奥行画像の各画素に対応するシフト量だけ右方向、または左方向にシフトした位置の画素を射影することで、3次元画像信号における右眼用画像または左眼用画像を生成するシフト部とを含み、前記ぼかし処理部は、前記奥行画像よりエッジを検出するエッジ検出部と、前記エッジ検出部により検出されたエッジと、その近傍の領域をLPF処理するLPFとを含み、前記奥行画像のエッジを前記エッジ検出部により検出させ、前記LPFにより検出されたエッジと、その近傍の領域を、対応する前記奥行画像の奥行値の変化量に応じた強さでLPF処理させることでぼかし処理する画像処理装置を制御するコンピュータに前記奥行画像生成部における、2次元画像信号からなる入力画像信号より、奥行画像を生成する奥行画像生成ステップと、前記ぼかし処理部における、前記奥行画像をぼかし処理するぼかし処理ステップと、前記シフト量計算部における、前記ぼかし処理ステップの処理によりぼかし処理された奥行画像の各画素について、前記各画素の奥行値に基づいて設定されるシフト量を計算するシフト量計算ステップと、前記シフト部における、前記入力画像信号における各画素について、前記シフト量計算ステップの処理により計算された前記奥行画像の各画素に対応するシフト量だけ右方向、または左方向にシフトした位置の画素を射影することで、3次元画像信号における右眼用画像または左眼用画像を生成するシフト部とを含む処理を実行させ、前記ぼかし処理ステップの処理は、前記奥行画像よりエッジを検出するエッジ検出ステップと、前記エッジ検出ステップの処理により検出されたエッジと、その近傍の領域にLPFを掛けるLPF処理ステップとを含み、前記奥行画像のエッジを前記エッジ検出ステップの処理により検出させ、前記LPFにより検出されたエッジと、その近傍の領域を、対応する前記奥行画像の奥行値の変化量に応じた強さでLPF処理させることでぼかし処理するA program according to one aspect of the present invention includes a depth image generation unit that generates a depth image from an input image signal including a two-dimensional image signal, a blur processing unit that blurs the depth image, and a blur process performed by the blur processing unit. A shift amount calculation unit that calculates a shift amount that is set based on a depth value of each pixel for each pixel of the depth image that has been calculated, and a shift amount calculation unit that calculates each pixel in the input image signal A shift unit that generates a right-eye image or a left-eye image in a three-dimensional image signal by projecting a pixel at a position shifted rightward or leftward by a shift amount corresponding to each pixel of the depth image; only including, the blurring processing unit includes an edge detection unit for detecting an edge from the depth image, and edge detected by the edge detecting section, a region in the vicinity thereof LPF LPF to be processed, the edge of the depth image is detected by the edge detection unit, the edge detected by the LPF and the area in the vicinity thereof according to the amount of change in the depth value of the corresponding depth image Depth image generation step of generating a depth image from an input image signal consisting of a two-dimensional image signal in the depth image generation unit in the depth image generation unit in the computer that controls the image processing apparatus that performs the blur process by performing LPF processing with intensity, and the blur A blur processing step for blurring the depth image in the processing unit, and each pixel of the depth image subjected to the blur processing by the processing of the blur processing step in the shift amount calculation unit, based on the depth value of each pixel. A shift amount calculating step for calculating a set shift amount; and for each pixel in the input image signal in the shift unit. The right eye in the three-dimensional image signal is projected by projecting a pixel at a position shifted rightward or leftward by a shift amount corresponding to each pixel of the depth image calculated by the processing of the shift amount calculation step. A process including a shift unit that generates an image for use or an image for the left eye, and the process of the blur processing step is detected by an edge detection step of detecting an edge from the depth image and a process of the edge detection step. And an LPF processing step for applying an LPF to an area in the vicinity thereof, the edge of the depth image is detected by the processing in the edge detection step, the edge detected by the LPF, and an area in the vicinity thereof, Blur processing is performed by performing LPF processing with strength corresponding to the amount of change in the depth value of the corresponding depth image .

本技術の一側面においては、2次元画像信号からなる入力画像信号より、奥行画像が生成され、前記奥行画像がぼかし処理され、ぼかし処理された奥行画像の各画素について、前記各画素の奥行値に基づいて設定されるシフト量が計算され、前記入力画像信号における各画素について、計算された前記奥行画像の各画素に対応するシフト量だけ右方向、または左方向にシフトした位置の画素が射影されることで、3次元画像信号における右眼用画像または左眼用画像が生成され、前記奥行画像よりエッジが検出され、検出されたエッジと、その近傍の領域がLPFによりLPF処理され、前記奥行画像のエッジが検出され、前記LPFにより検出されたエッジと、その近傍の領域が、対応する前記奥行画像の奥行値の変化量に応じた強さでLPF処理させることでぼかし処理される。 In one aspect of the present technology, a depth image is generated from an input image signal including a two-dimensional image signal, the depth image is subjected to a blurring process, and the depth value of each pixel is determined for each pixel of the blurred depth image. A shift amount set based on the image is calculated, and for each pixel in the input image signal, a pixel at a position shifted rightward or leftward by the shift amount corresponding to each pixel of the calculated depth image is projected. As a result, an image for the right eye or an image for the left eye in the three-dimensional image signal is generated , an edge is detected from the depth image, and the detected edge and an area in the vicinity thereof are LPF processed by LPF, The edge of the depth image is detected, and the edge detected by the LPF and the area in the vicinity thereof are subjected to LPF processing with a strength corresponding to the amount of change in the depth value of the corresponding depth image. In Ru is blurring.

本技術の画像処理装置は、独立した装置であっても良いし、画像処理を行うブロックであっても良い。   The image processing apparatus of the present technology may be an independent apparatus or a block that performs image processing.

本技術によれば、2次元の入力画像より3次元立体視可能な左眼用画像、および右眼用画像を簡易な手法で生成することが可能となる。   According to the present technology, a left-eye image and a right-eye image that can be three-dimensionally viewed from a two-dimensional input image can be generated by a simple method.

本技術である画像処理装置を適用した画像変換装置の第1の実施の形態の構成例を示すブロック図である。It is a block diagram which shows the structural example of 1st Embodiment of the image conversion apparatus to which the image processing apparatus which is this technique is applied. 図1の画像変換装置による画像変換処理を説明するフローチャートである。3 is a flowchart illustrating image conversion processing by the image conversion apparatus in FIG. 1. 入力画像の例を説明する図である。It is a figure explaining the example of an input image. 図3の入力画像に対する奥行画像の例を説明する図である。It is a figure explaining the example of the depth image with respect to the input image of FIG. 図4の奥行画像にLPFを掛けたときの画像を説明する図である。It is a figure explaining the image when LPF is applied to the depth image of FIG. 画素のシフト方法を説明するフローチャートである。It is a flowchart explaining the shift method of a pixel. 左眼用画像および右眼用画像を説明する図である。It is a figure explaining the image for left eyes, and the image for right eyes. 陰面領域が発生する例を説明する図である。It is a figure explaining the example which a hidden surface area | region generate | occur | produces. 陰面領域が発生する例を説明する図である。It is a figure explaining the example which a hidden surface area | region generate | occur | produces. 飛地領域が発生する例を説明する図である。It is a figure explaining the example which a flying area generate | occur | produces. 飛地領域が発生する例を説明する図である。It is a figure explaining the example which a flying area generate | occur | produces. 陰面領域および飛地領域が発生しない例を説明する図である。It is a figure explaining the example which a hidden surface area | region and a flying field area | region do not generate | occur | produce. 飛地領域が発生しないときの条件を説明する図である。It is a figure explaining conditions when an enclave area does not occur. 奥行画像を縮小してから拡大するようにした画像変換装置の第2の実施の形態の構成例を示す図である。It is a figure which shows the structural example of 2nd Embodiment of the image conversion apparatus made to expand after reducing a depth image. 図14の画像変換装置による画像変換処理を説明するフローチャートである。It is a flowchart explaining the image conversion process by the image conversion apparatus of FIG. 奥行画像にエッジ検出処理を施し、検出されたエッジと、その近傍にLPFを掛けるようにした画像変換装置の第3の実施の形態の構成例を示す図である。It is a figure which shows the structural example of 3rd Embodiment of the image converter which performed the edge detection process to the depth image, and applied the LPF to the detected edge and its vicinity. 図16の画像変換装置による画像変換処理を説明するフローチャートである。It is a flowchart explaining the image conversion process by the image conversion apparatus of FIG. 汎用のパーソナルコンピュータの構成例を説明する図である。And FIG. 11 is a diagram illustrating a configuration example of a general-purpose personal computer.

以下、本技術を実施するための形態(以下実施の形態とする)について説明する。なお、説明は以下の順序で行なう。
1.第1の実施の形態
2.第2の実施の形態(LPFに代えて縮小部および拡大部とする例)
3.第3の実施の形態(エッジ検出部を設けて、エッジと、その近傍の領域のみにLPF処理を施す例)
Hereinafter, modes for carrying out the present technology (hereinafter referred to as embodiments) will be described. The description will be given in the following order.
1. 1. First embodiment Second embodiment (an example where a reduction unit and an enlargement unit are used instead of LPF)
3. Third embodiment (an example in which an edge detection unit is provided and LPF processing is performed only on the edge and its neighboring area)

<1.第1の実施の形態>
[画像変換装置の構成例]
図1は、2次元画像からなる入力画像から3次元立体視が可能となる左眼用画像、および右眼用画像からなるステレオ画像を生成する画像変換装置の構成例を示している。
<1. First Embodiment>
[Configuration example of image conversion apparatus]
FIG. 1 illustrates a configuration example of an image conversion apparatus that generates a left-eye image and a right-eye image that enable three-dimensional stereoscopic viewing from an input image that includes a two-dimensional image.

画像変換装置11は、奥行画像生成部21、LPF22、シフト量計算部23、シフト量バッファ24、右眼用画像シフト部25−1、左眼用画像シフト部25−2、右眼用画像バッファ26−1、および左眼用画像バッファ26−2を備えている。奥行画像生成部21は、2次元画像からなる入力画像より、入力画像内の被写体までの距離、すなわち、奥行情報を、画素単位で求める。そして、奥行画像生成部21は、画素単位で奥行情報に対応する画素値を設定することで奥行画像を生成し、LPF22に供給する。LPF(Low Pass Filter)22は、奥行画像をLPF処理し、画像全体を平滑化することで、ぼかし処理を加えてシフト量補正部23に供給する。シフト量計算部23は、ぼかし処理された奥行画像の各画素について、奥行値(視差)に対応してシフト量を計算し、シフト量バッファ24に画素の位置に対応付けてバッファリングさせる。   The image conversion apparatus 11 includes a depth image generation unit 21, an LPF 22, a shift amount calculation unit 23, a shift amount buffer 24, a right eye image shift unit 25-1, a left eye image shift unit 25-2, and a right eye image buffer. 26-1 and a left-eye image buffer 26-2. The depth image generation unit 21 obtains the distance to the subject in the input image, that is, the depth information from the input image composed of the two-dimensional image, in units of pixels. Then, the depth image generation unit 21 generates a depth image by setting a pixel value corresponding to the depth information in units of pixels, and supplies the depth image to the LPF 22. An LPF (Low Pass Filter) 22 performs an LPF process on the depth image, smoothes the entire image, adds a blurring process, and supplies the result to the shift amount correction unit 23. The shift amount calculation unit 23 calculates a shift amount corresponding to the depth value (parallax) for each pixel of the depth image subjected to the blurring process, and causes the shift amount buffer 24 to buffer the pixel image in association with the pixel position.

右眼用画像シフト部25−1、および左眼用画像シフト部25−2は、それぞれ2次元画像からなる入力画像の各画素について、シフト量バッファ24にバッファリングされているシフト量を読み出す。右眼用画像シフト部25−1、および左眼用画像シフト部25−2は、それぞれ、入力画像の各画素を、読み出したシフト量に対応する画素数分だけ、左方向または右方向にシフトした位置に存在する画素で射影変換する。右眼用画像シフト部25−1、および左眼用画像シフト部25−2は、各画素を、シフト量分だけ左右に存在する画素で射影変換することにより、それぞれ右眼用画像、および左眼用画像を生成する。右眼用画像シフト部25−1、および左眼用画像シフト部25−2は、生成した右眼用画像、および左眼用画像を右眼用画像バッファ26−1、および左眼用画像26−2にバッファリングする。右眼用画像バッファ26−1、および左眼用画像26−2は、全ての画素について射影による変換が終了した後、右眼用画像、および左眼用画像をそれぞれ出力する。   The right-eye image shift unit 25-1 and the left-eye image shift unit 25-2 each read out the shift amount buffered in the shift amount buffer 24 for each pixel of the input image composed of a two-dimensional image. The right-eye image shift unit 25-1 and the left-eye image shift unit 25-2 respectively shift each pixel of the input image leftward or rightward by the number of pixels corresponding to the read shift amount. Projective transformation is performed with the pixels present at the specified position. The right-eye image shift unit 25-1 and the left-eye image shift unit 25-2 perform projective transformation on each pixel with pixels that are present on the left and right by the shift amount, whereby the right-eye image and the left-eye image shift unit 25-1, respectively. An ophthalmic image is generated. The right-eye image shift unit 25-1 and the left-eye image shift unit 25-2 convert the generated right-eye image and left-eye image into the right-eye image buffer 26-1 and the left-eye image 26, respectively. -2 to buffer. The right-eye image buffer 26-1 and the left-eye image 26-2 output the right-eye image and the left-eye image, respectively, after conversion by projection is completed for all pixels.

[図1の画像変換装置による画像変換処理]
次に、図2のフローチャートを参照して、図1の画像変換装置11による画像変換処理について説明する。
[Image Conversion Processing by Image Conversion Device in FIG. 1]
Next, image conversion processing by the image conversion apparatus 11 in FIG. 1 will be described with reference to the flowchart in FIG.

ステップS1において、奥行画像生成部21は、2次元画像からなる入力画像が供給されると、入力画像における各画素単位で、画像内の被写体における撮像位置からの距離、すなわち、奥行値を求める。そして、奥行画像生成部21は、各画素に対して奥行値に対応する画素値を設定することで奥行画像を生成し、LPF22に供給する。この奥行値は、例えば、入力画像を撮像する際に、TOF(Time of Flight)法や、ステレオ撮像などにより三角測量の原理を利用して予め求められている値を用いるようにしてもよいし、入力画像の撮像後に実測した値を用いるようにしてもよい。   In step S <b> 1, when an input image composed of a two-dimensional image is supplied, the depth image generation unit 21 obtains a distance from the imaging position of the subject in the image, that is, a depth value for each pixel in the input image. Then, the depth image generation unit 21 generates a depth image by setting a pixel value corresponding to the depth value for each pixel, and supplies the depth image to the LPF 22. As the depth value, for example, when an input image is captured, a value obtained in advance using the principle of triangulation by the TOF (Time of Flight) method or stereo imaging may be used. Alternatively, a value measured after the input image is captured may be used.

例えば、入力画像が図3の上段で示されるような画像である場合、奥行画像は、図4で示されるような画像となる。すなわち、図3の上段で示される画像は、図3の下段の側面図で示されるような高さからなるオブジェクトが上面から撮像された画像である。換言すれば、図3の下段で示されるように、側面から見ると、階段状の台のようなオブジェクトが上面から撮像された画像が、図3の上段の画像となる。また、図4の奥行画像は、奥行値が手前であるほど高い輝度、すなわち、白色に近い画素値が設定されており、奥行値が遠い位置であるほど低い輝度、すなわち、黒色に近い画素値が設定されている。図4の奥行画像で示されるように、図3における右上がりの斜線部に対応する領域が、白色に設定されており、最も手前側であることが示されている。また、図3における右下がりの斜線部に対応する領域が、グレーに設定されており、図3の右上がりの斜線部の次に手前側であることが示されている。さらに、図3における格子状の部位に対応する領域が、黒色に設定されており、最も遠い領域であることが示されている。   For example, when the input image is an image as shown in the upper part of FIG. 3, the depth image is an image as shown in FIG. That is, the image shown in the upper part of FIG. 3 is an image in which an object having a height as shown in the side view of the lower part of FIG. In other words, as shown in the lower part of FIG. 3, when viewed from the side, an image obtained by capturing an object such as a stepped platform from the upper surface becomes the upper part of FIG. In the depth image of FIG. 4, the higher the depth value is, the higher the brightness, that is, the pixel value close to white, and the lower the depth value, the lower the brightness, that is, the pixel value close to black. Is set. As shown in the depth image of FIG. 4, the area corresponding to the upward-sloping hatched portion in FIG. 3 is set to white, indicating that it is the frontmost side. In addition, the region corresponding to the downward slanting line portion in FIG. 3 is set to gray, which indicates that it is the front side next to the right sloping line portion in FIG. Furthermore, the area corresponding to the lattice-shaped part in FIG. 3 is set to black, indicating that it is the farthest area.

ステップS2において、LPF22は、供給されてきた奥行画像を平滑化して、画像全体をぼやかしてシフト量計算部23に供給する。すなわち、図4で示されるような奥行画像の場合、LPF22により、ぼかし処理がなされて図5で示されるような画像が生成される。すなわち、図5の画像においては、図4の画像の全体にぼかし処理が施されているが、特に、画素値が大きく変化する境界付近において顕著にボケが生じている。   In step S <b> 2, the LPF 22 smoothes the supplied depth image, blurs the entire image, and supplies it to the shift amount calculation unit 23. That is, in the case of a depth image as shown in FIG. 4, the LPF 22 performs blurring processing to generate an image as shown in FIG. That is, in the image of FIG. 5, the entire image of FIG. 4 is subjected to the blurring process, but the blurring is particularly noticeable near the boundary where the pixel value changes greatly.

ステップS3において、シフト量計算部23は、ぼかし処理された奥行画像の画素のうち、未処理の画素を注目画素に設定する。   In step S <b> 3, the shift amount calculation unit 23 sets an unprocessed pixel among the pixels of the depth image subjected to the blurring process as a target pixel.

ステップS4において、シフト量計算部23は、ぼかし処理された奥行画像の注目画素の奥行値に基づいて、シフト量を計算する。   In step S4, the shift amount calculation unit 23 calculates the shift amount based on the depth value of the target pixel of the depth image subjected to the blurring process.

ところで、シフト量は、従来、図6の右部で示されるようになされていた。すなわち、位置Xpとなる画素については、図中の最上段で示される現実空間Dにおける注目位置rを、右眼Rが観測するときの視線を視線RBと設定し、左眼ELが観測するときの視線を視線LBと設定する。そして、右眼ERが、現実空間D上の注目位置rを観測したとき、視線RBを通して画像I上で観測される画素RIを、視線RBを通して右眼用画像Rを観測するときの右眼用画像R上の画素位置にシフトさせる。同様に、左眼ELが、現実空間D上の注目位置rを観測したとき、視線RLを通して画像I上で観測される画素LIを、視線LBを通して左眼用画像Lを観測するときの右眼用画像R上の画素位置にシフトさせる。このようにシフトさせることで右眼用画像および左眼用画像からなるステレオ画像を生成していた。   By the way, the shift amount has conventionally been as shown in the right part of FIG. That is, for the pixel at the position Xp, when the right eye R observes the target position r in the real space D shown in the uppermost stage in the drawing as the line of sight RB and the left eye EL observes it. Is set as the line of sight LB. Then, when the right eye ER observes the target position r in the real space D, the pixel RI observed on the image I through the line of sight RB, and the right eye image when observing the right eye image R through the line of sight RB. Shift to a pixel position on the image R. Similarly, when the left eye EL observes the target position r in the real space D, the right eye when the pixel LI observed on the image I through the line of sight RL and the left eye image L through the line of sight LB are observed. The pixel position on the image R is shifted. By shifting in this way, a stereo image composed of a right-eye image and a left-eye image has been generated.

一方、シフト量計算部23が計算するシフト量は、図6の左部で示されるシフト量dである。すなわち、後述する右眼用画像シフト部25−1、および左眼用画像シフト部25−2は、図6の左部で示されるように、現実空間Dにおける注目位置rに対して、画像Iの位置Xpの画素について、現実空間Dまでの距離、すなわち、奥行値に対応して設定される所定のシフト量dだけ左右にシフトした画素を、右眼用画像R、および左眼用画像Lにおける位置Xp上の画素としてそれぞれ射影変換することで、右眼用画像、および左眼用画像を生成する。このシフト量dは、各画素の奥行値に対応して線形的に設定される値である。尚、シフト量dの設定方法については、詳細を後述する。   On the other hand, the shift amount calculated by the shift amount calculation unit 23 is the shift amount d shown on the left side of FIG. That is, the right-eye image shift unit 25-1 and the left-eye image shift unit 25-2, which will be described later, perform the image I with respect to the target position r in the real space D, as shown in the left part of FIG. For the pixel at the position Xp, the right-eye image R and the left-eye image L are obtained by shifting a pixel shifted left and right by a predetermined shift amount d corresponding to the distance to the real space D, that is, the depth value. The right eye image and the left eye image are generated by projective transformation as pixels on the position Xp at. This shift amount d is a value set linearly corresponding to the depth value of each pixel. The method for setting the shift amount d will be described later in detail.

ステップS4において、シフト量計算部23は、計算した注目画素のシフト量をシフト量バッファ24に画素位置の情報に対応付けてバッファリングさせる。   In step S4, the shift amount calculation unit 23 causes the shift amount buffer 24 to buffer the calculated shift amount of the target pixel in association with the pixel position information.

ステップS5において、シフト量計算部23は、ぼかし処理された奥行画像のうち、未処理の画素が存在するか否かを判定し、未処理の画素が存在する場合、処理は、ステップS3に戻る。すなわち、未処理の画素がなくなり、全画素についてシフト量が計算されるまで、ステップS3乃至S5の処理が繰り返される。そして、ステップS5において、未処理の画素がなく、全ての画素についてシフト量が計算されたとみなされた場合、処理は、ステップS6に進む。   In step S5, the shift amount calculation unit 23 determines whether or not there is an unprocessed pixel in the blurred depth image. If there is an unprocessed pixel, the process returns to step S3. . That is, the processes in steps S3 to S5 are repeated until there is no unprocessed pixel and the shift amount is calculated for all pixels. If it is determined in step S5 that there is no unprocessed pixel and the shift amount is calculated for all pixels, the process proceeds to step S6.

ステップS6において、右眼用画像シフト部25−1、および左眼用画像シフト部25−2は、それぞれ入力画像の画素のうち、未処理の画素を注目画素に設定する。   In step S6, the right-eye image shift unit 25-1 and the left-eye image shift unit 25-2 each set an unprocessed pixel among the pixels of the input image as a target pixel.

ステップS7において、右眼用画像シフト部25−1、および左眼用画像シフト部25−2は、それぞれ注目画素のシフト量をシフト量バッファ24より読み出す。   In step S <b> 7, the right-eye image shift unit 25-1 and the left-eye image shift unit 25-2 read the shift amount of the target pixel from the shift amount buffer 24.

ステップS8において、右眼用画像シフト部25−1、および左眼用画像シフト部25−2は、それぞれ読み出した注目画素のシフト量に基づいて、入力画像における注目画素周辺の画素のうち、右方向、または左方向にだけシフト量に応じた位置に存在する画素を注目画素として射影変換して、画素位置に対応付けて、右眼用画像バッファ26−1、および左眼用画像バッファ26−2にバッファリングさせる。すなわち、図6の左部を参照して説明したように、右眼用画像シフト部25−1、および左眼用画像シフト部25−2は、シフト量に基づいて、入力画像における注目画素から右方向、または左方向にシフト量だけ移動した位置に存在する画素を、注目画素に射影変換(シフト)する。   In step S8, the right-eye image shift unit 25-1 and the left-eye image shift unit 25-2 right out of the pixels around the target pixel in the input image based on the read shift amounts of the target pixel, respectively. A pixel existing at a position corresponding to the shift amount only in the direction or the left direction is subjected to projective transformation as a target pixel, and is associated with the pixel position, and the image buffer for right eye 26-1 and the image buffer for left eye 26- 2 to buffer. That is, as described with reference to the left part of FIG. 6, the right-eye image shift unit 25-1 and the left-eye image shift unit 25-2 start from the target pixel in the input image based on the shift amount. Projection conversion (shift) is performed on a pixel existing at a position shifted by the shift amount in the right direction or the left direction to the target pixel.

ステップS9において、右眼用画像シフト部25−1、および左眼用画像シフト部25−2は、それぞれ入力画像上に未処理の画素があるか否かを判定し、未処理の画素がある場合、処理は、ステップS6に戻る。すなわち、右眼用画像シフト部25−1、および左眼用画像シフト部25−2により全ての画素が、注目画素に設定されて射影変換によるシフト処理が終了するまで、ステップS6乃至S9の処理が繰り返される。そして、ステップS9において、未処理の画素が存在しないとみなされた場合、処理は、ステップS10に進む。   In step S9, the right-eye image shift unit 25-1 and the left-eye image shift unit 25-2 each determine whether or not there is an unprocessed pixel on the input image, and there is an unprocessed pixel. If so, the process returns to step S6. That is, the processes in steps S6 to S9 are performed until all the pixels are set as the target pixel by the right-eye image shift unit 25-1 and the left-eye image shift unit 25-2 and the shift process by the projective transformation ends. Is repeated. If it is determined in step S9 that there is no unprocessed pixel, the process proceeds to step S10.

ステップS10において、右眼用画像バッファ26−1、および左眼用画像バッファ26−2は、それぞれバッファリングしていた右眼用画像、および左眼用画像を出力する。今の場合、例えば、図7で示されるような、右眼用画像R、および左眼用画像Lが出力されることになる。図7においては、右眼用画像は、入力画像に対して、全体として奥行値が小さいほど左側にシフトしたような画像となり、逆に、左眼用画像は、入力画像に対して、全体として奥行値が小さいほど右側にシフトしたような画像となる。   In step S10, the right eye image buffer 26-1 and the left eye image buffer 26-2 output the buffered right eye image and left eye image, respectively. In this case, for example, a right-eye image R and a left-eye image L as shown in FIG. 7 are output. In FIG. 7, the right-eye image is an image that shifts to the left as the depth value is smaller as a whole with respect to the input image, and conversely, the left-eye image is as a whole with respect to the input image. The smaller the depth value, the more the image is shifted to the right.

ステップS11において、奥行画像生成部21は、次のフレームとなる入力画像が存在するか否かを判定し、存在する場合、処理は、ステップS1に戻り、それ以降の処理が繰り返される。一方、ステップS11において、次のフレームとなる入力画像が存在しない場合、処理は、終了する。   In step S11, the depth image generation unit 21 determines whether or not there is an input image to be the next frame. If there is, the process returns to step S1, and the subsequent processes are repeated. On the other hand, if there is no input image to be the next frame in step S11, the process ends.

[右眼用画像シフト部、および左眼用画像シフト部における射影]
ここで、右眼用画像シフト部25−1、および左眼用画像シフト部25−2における射影(シフト)について説明する。
[Projection in right-eye image shift unit and left-eye image shift unit]
Here, the projection (shift) in the right-eye image shift unit 25-1 and the left-eye image shift unit 25-2 will be described.

図6の右部で示される、従来のシフト方法を採用する場合、図3の上段で示される入力画像のとき、例えば、左眼用画像は、図8のような画像として生成される。図8においては、オブジェクトの段差部分に陰面領域BL1,BL2が発生する。ここで、陰面領域とは、いずれの画素も射影、すなわち、シフトされることがない、画素が存在しない領域である。   When the conventional shift method shown in the right part of FIG. 6 is adopted, in the case of the input image shown in the upper part of FIG. 3, for example, the left-eye image is generated as an image as shown in FIG. In FIG. 8, hidden surface areas BL1 and BL2 are generated in the step portion of the object. Here, the hidden surface region is a region where no pixel is projected, that is, not shifted, and there is no pixel.

これは、以下の理由により生じる。   This occurs for the following reasons.

図9の上段には、中央部に凸部があり、それ以外の領域が凹部となる急峻な段差を持ったオブジェクトの側面図が示されており、図9の中段には、図9の上段で示される側面図からなるオブジェクトを上面から撮像した入力画像の水平側面断面上の画素配列が示されており、下段には、中段で示される画像が左眼用画像として射影変換処理、すなわち、シフト処理された後の画素配列が示されている。また、図9の中段、および下段においては、各マス目が画素であり、右下がりの斜線部の画素が撮像位置から手前のオブジェクト領域の画素を示しており、左下がり斜線の画素が奥側のオブジェクト(背景)の領域の画素を示しており、格子状に塗りつぶされた画素が射影により2画素が射影されてしまう領域の画素を示している。この図9で示されるように、仮想的に設定されるディスプレイ面に対して飛び出している凸部領域、すなわち、入力画像におけるオブジェクト領域の画素は、所定のシフト量分だけ右側にシフトし、逆に凹部、すなわち、入力画像における背景領域の画素は、所定のシフト量分だけ左にシフトすることで左眼用画像が構成される。この結果、視点位置からの距離に段差が生じる近傍の領域付近で、図中の楕円状の領域Z0で示されるような射影画素が存在しない白色で示された画素からなる陰面領域が発生する。尚、入力画像におけるオブジェクト領域は、図9中の位置P2乃至L1である。さらに、左眼用画像における、オブジェクト領域は、位置L0乃至L1であり、陰面領域は、位置P1乃至L0である。   The upper part of FIG. 9 shows a side view of an object having a steep step with a convex part at the center and a concave part in the other area. The middle part of FIG. 9 shows the upper part of FIG. The pixel arrangement on the horizontal side cross-section of the input image obtained by imaging the object consisting of the side view shown in FIG. 4 from the upper surface is shown, and in the lower stage, the image shown in the middle stage is a projective transformation process, i.e. A pixel array after the shift processing is shown. In the middle and lower parts of FIG. 9, each square is a pixel, the pixel in the hatched portion with the lower right indicates the pixel in the object area in front of the imaging position, and the pixel with the lower left oblique is the back side. The pixels in the object (background) area are shown, and the pixels painted in a grid pattern are pixels in the area where two pixels are projected by projection. As shown in FIG. 9, the convex region protruding from the virtually set display surface, that is, the pixel in the object region in the input image is shifted to the right by a predetermined shift amount and vice versa. The left eye image is formed by shifting the recesses, that is, the pixels in the background area in the input image to the left by a predetermined shift amount. As a result, a hidden surface area composed of pixels shown in white and having no projected pixels as shown by an elliptical area Z0 in the figure is generated in the vicinity of a nearby area where a level difference occurs from the viewpoint position. Note that the object areas in the input image are positions P2 to L1 in FIG. Furthermore, in the left-eye image, the object areas are positions L0 to L1, and the hidden surface areas are positions P1 to L0.

このように陰面領域が発生することになるため、従来の手法を用いる場合、生成された左眼用画像、および右眼用画像に生じた陰面領域を埋めるような画像を生成して、埋める処理をする必要がある。このため、従来の手法では、後段にこのよう陰面領域を埋める処理をする必要があるので、処理コストが掛かることになる。   Since the hidden surface area is generated in this way, when the conventional method is used, processing for generating and filling the generated image for the left eye and the image for filling the hidden surface area generated in the right eye image is performed. It is necessary to do. For this reason, in the conventional method, since it is necessary to perform the process of filling the hidden surface area in the subsequent stage, processing cost is increased.

これに対して、図6の左部で示される、右眼用画像シフト部25−1、および左眼用画像シフト部25−2における射影(シフト)方法の場合、陰面領域は生じないが、図3の上段で示される入力画像のとき、左眼用画像は、図10のような画像として生成される。図10においては、オブジェクトの段差部分に飛地領域BL11,BL12が発生する。ここで、飛地領域とは、本来は位置されるべき隣接する画素が、入替って射影、すなわち、シフトされてしまう領域である。   On the other hand, in the case of the projection (shift) method in the right-eye image shift unit 25-1 and the left-eye image shift unit 25-2 shown in the left part of FIG. In the case of the input image shown in the upper part of FIG. 3, the image for the left eye is generated as an image as shown in FIG. In FIG. 10, flying areas BL11 and BL12 are generated at the step portion of the object. Here, the enclave region is a region where adjacent pixels that should originally be positioned are replaced and projected, that is, shifted.

これは、以下の理由により生じる。   This occurs for the following reasons.

すなわち、図11の上段、および中段は、図9と同様であり、図11の下段は、図11の中段における画素に対して、図6の左部で示される処理を施すことにより、生成される左眼用画像を示している。図11の場合、左眼用画像における仮想的に設定されるディスプレイ面に対して飛び出している凸部、すなわち、オブジェクト領域に入力画像の画素が一律右方向に所定のシフト量分だけシフトし、逆に凹部、すなわち、左眼用画像における奥側のオブジェクト(背景)の領域に入力画像の画素が一律左方向に所定のシフト量分だけシフトする。この結果、視点位置からの距離に段差が生じる近傍の領域付近で、図中の楕円状領域Z1で示されるような射影画素が入替ってしまう飛地領域が発生する。また、入力画像におけるオブジェクト領域は、位置P12乃至L1である。一方、左眼用画像における、オブジェクト領域は、位置L0乃至L1であり、飛地領域は、位置P11乃至P12、および位置P12乃至L0である。   That is, the upper and middle stages in FIG. 11 are the same as those in FIG. 9, and the lower stage in FIG. 11 is generated by performing the processing shown in the left part of FIG. 6 on the pixels in the middle stage in FIG. The left-eye image is shown. In the case of FIG. 11, the convex portion protruding from the virtually set display surface in the image for the left eye, that is, the pixels of the input image are uniformly shifted in the right direction by a predetermined shift amount, On the contrary, the pixels of the input image are uniformly shifted leftward by a predetermined shift amount into the concave portion, that is, the region of the object (background) on the back side in the image for the left eye. As a result, an enclave area in which projected pixels are replaced as shown by an elliptical area Z1 in the figure is generated in the vicinity of an adjacent area where a step is generated in the distance from the viewpoint position. Further, the object areas in the input image are positions P12 to L1. On the other hand, the object areas in the left-eye image are positions L0 to L1, and the flying areas are positions P11 to P12 and positions P12 to L0.

ところで、この飛地領域は、入力画像が急峻な凹凸部の境界近傍で発生することがわかっている。すなわち、図12で示されるように、オブジェクトとなる凸部と凹部との境界が緩やかな場合、奥行値に応じてシフト量が設定されることにより、飛地領域の発生は抑制することができる。すなわち、図12においては、図12の最上段で示されるように、位置P31から徐々に奥行値が小さくなり、位置P32においてディスプレイ面の位置を越えると、位置L0において凸部の先端部となり奥行値が最小となる。そして、位置P33から徐々に奥行値が大きくなり、位置L1においてディスプレイ面の位置より低くなると、位置P34において奥行値が最大となる。   By the way, it is known that this flying region occurs in the vicinity of the boundary of the uneven portion where the input image is steep. That is, as shown in FIG. 12, when the boundary between the convex portion and the concave portion that is an object is gentle, the shift amount is set according to the depth value, thereby suppressing the occurrence of the flying region. That is, in FIG. 12, as shown in the uppermost stage of FIG. 12, the depth value gradually decreases from the position P31, and when the position of the display surface is exceeded at the position P32, the depth becomes the tip of the convex portion at the position L0. The value is minimized. Then, when the depth value gradually increases from the position P33 and becomes lower than the position of the display surface at the position L1, the depth value becomes maximum at the position P34.

すなわち、図12で示されるように奥行値が設定されると、左眼用画像における、ディスプレイとして仮想的に設定されている位置よりも凸部領域に含まれる画素については、いずれも入力画像におけるオブジェクト領域内の画素へとシフトされる。また、同様に、左眼用画像における、ディスプレイとして仮想的に設定されている位置よりも凹部領域に含まれる画素については、いずれも入力画像における奥側のオブジェクト(背景)領域内の画素にシフトされる。この結果、図11で示されるような飛地領域が発生しない。   That is, when the depth value is set as shown in FIG. 12, all the pixels included in the convex region rather than the position virtually set as the display in the image for the left eye are all in the input image. Shifted to pixels in the object area. Similarly, in the image for the left eye, all the pixels included in the recessed area from the position virtually set as the display are shifted to the pixels in the object (background) area on the back side in the input image. Is done. As a result, an enclave area as shown in FIG. 11 does not occur.

より詳細には、図13で示されるように、奥行値Depth(視差)の変化量(=傾き)|α|≦1であるときには、飛地領域が発生しない。換言すれば、奥行値Depth(視差)に応じて設定される奥行画像の画素値の諧調Hが0乃至255であって、最大の視差量(奥行値)が10である場合については、変化量(=傾き)|β|≦25.5であるとき飛地領域が発生しない。尚、図12においては、奥行値Depthの変化量α(=傾き)が|α|≦1である。   More specifically, as shown in FIG. 13, when the amount of change in the depth value Depth (parallax) (= slope) | α | ≦ 1, no flying area is generated. In other words, when the gradation H of the pixel value of the depth image set according to the depth value Depth (parallax) is 0 to 255 and the maximum amount of parallax (depth value) is 10, the amount of change When (= slope) | β | ≦ 25.5, no flying area is generated. In FIG. 12, the change amount α (= slope) of the depth value Depth is | α | ≦ 1.

図1の画像変換装置11においては、LPF22により、奥行画像は、図4で示される画像から、図5で示される画像へと平滑化されており、これにより、奥行値の急峻な変化が生じる領域が、緩やかに変化する領域に変換される。この結果、図1の画像変換装置11における画像変換処理においては、飛地領域の発生が抑制されている。したがって、LPF22の平滑化の強度についても、最も急峻な変化が生じる領域が発生した場合に、上述した変化量(傾き)|α|≦1といった変化量に設定できるようなものとすることが理想的である。   In the image conversion apparatus 11 of FIG. 1, the depth image is smoothed from the image shown in FIG. 4 to the image shown in FIG. 5 by the LPF 22, thereby causing a sharp change in the depth value. The area is converted into a slowly changing area. As a result, in the image conversion process in the image conversion apparatus 11 of FIG. Therefore, it is ideal that the smoothing intensity of the LPF 22 can be set to the above-described change amount (slope) | α | ≦ 1 when a region where the steepest change occurs is generated. Is.

以上の処理により、簡易な手法により、陰面領域および飛地領域の発生を抑制しつつ、2次元画像からなる入力画像を3次元立体視が可能な左眼用画像、および右眼用画像といったステレオ画像の生成が可能となる。   Through the above processing, a stereo image such as a left-eye image and a right-eye image capable of three-dimensional stereoscopic viewing of an input image made up of a two-dimensional image while suppressing the occurrence of hidden surface areas and flying areas by a simple method. Can be generated.

<2.第2の実施の形態>
[画像変換装置のその他の構成例]
以上においては、奥行値の急峻な変化を抑制するため、奥行画像にLPF22を施してぼかし処理する例について説明してきたが、奥行値が急峻に変化する領域については、奥行値の変化が緩やかになるようにできればよいので、例えば、奥行画像を一旦縮小した後、拡大処理することにより、低解像度化するようにして奥行値が急峻に変化する領域を、奥行値が緩やかに変化する領域にするようにしてもよい。
<2. Second Embodiment>
[Other configuration examples of image conversion apparatus]
In the above, an example in which the depth image is subjected to the blurring process by applying LPF 22 to suppress a sharp change in the depth value has been described. However, in a region where the depth value changes sharply, the change in the depth value is moderate. For example, after the depth image is once reduced and then enlarged, an area in which the depth value changes sharply so as to reduce the resolution is changed to an area in which the depth value changes gradually. You may do it.

図14は、奥行画像を縮小した後、拡大することで、奥行値が急峻に変化する領域をなくし、奥行値の変化を緩やかにするようにした画像変換装置11の構成例を示している。尚、図14の画像変換装置11において、図1の画像変換装置と同一の機能を備えた構成については、同一の名称、および同一の符号を付しており、その説明は適宜省略するものとする。   FIG. 14 shows a configuration example of the image conversion apparatus 11 in which the depth image is reduced and then enlarged to eliminate a region where the depth value changes sharply, and the change in the depth value is moderated. In the image conversion apparatus 11 of FIG. 14, configurations having the same functions as those of the image conversion apparatus of FIG. 1 are denoted by the same names and the same reference numerals, and description thereof will be omitted as appropriate. To do.

すなわち、図14の画像変換装置11において、図1の画像変換装置11と異なる点は、LPF22に代えて、縮小部51、および拡大部52を備えている点である。縮小部51は、奥行画像生成部21により生成された奥行画像を縮小して、拡大部52に供給する。拡大部51は、縮小された画像を拡大して、元の奥行画像のサイズに戻して、シフト量計算部23に供給する。すなわち、縮小部51により奥行画像は一旦低解像度化された後、拡大部52により拡大されることになるので、解像度は元の状態に戻っても、一旦縮小されて低解像度化されることにより、隣接する画素間での奥行値の平均的な変化量は小さくなり、奥行値の変化量が緩やかになる。   That is, the image conversion apparatus 11 in FIG. 14 is different from the image conversion apparatus 11 in FIG. 1 in that a reduction unit 51 and an enlargement unit 52 are provided instead of the LPF 22. The reduction unit 51 reduces the depth image generated by the depth image generation unit 21 and supplies the reduced depth image to the enlargement unit 52. The enlargement unit 51 enlarges the reduced image, returns it to the size of the original depth image, and supplies it to the shift amount calculation unit 23. That is, the depth image is once reduced in resolution by the reduction unit 51 and then enlarged by the enlargement unit 52. Therefore, even if the resolution is restored to the original state, the resolution is once reduced and the resolution is reduced. The average change amount of the depth value between adjacent pixels becomes small, and the change amount of the depth value becomes gentle.

[図14の画像変換装置による画像変換処理]
次に、図15のフローチャートを参照して、画像変換処理について説明する。尚、図15のフローチャートにおけるステップS31,S34乃至S42の処理は、図2のフローチャートを参照して説明したステップS1,S3乃至S11の処理と同様であるので、その説明は省略するものとする。
[Image Conversion Processing by Image Conversion Device in FIG. 14]
Next, image conversion processing will be described with reference to the flowchart of FIG. Note that the processing of steps S31, S34 to S42 in the flowchart of FIG. 15 is the same as the processing of steps S1, S3 to S11 described with reference to the flowchart of FIG.

すなわち、ステップS31において、奥行画像が生成されると、ステップS32において、縮小部51は、奥行画像生成部21より供給されてきた奥行画像を、行単位、または列単位で間引くなどして縮小し、拡大部52に供給する。   That is, when a depth image is generated in step S31, in step S32, the reduction unit 51 reduces the depth image supplied from the depth image generation unit 21 by thinning out the line image or the column unit. To the enlargement unit 52.

ステップS33において、拡大部52は、縮小部51より供給されてくる縮小された奥行画像を行単位、および列単位で複製挿入するなどにより、生成された奥行画像と同一のサイズに戻すように拡大し、シフト量計算部23に供給する。すなわち、この場合、間引き処理により縮小された後、複製挿入により拡大されることで、元のサイズに戻された奥行画像は、生成された状態よりも、低解像度化された状態となり、実質的にぼかし処理されることになる。結果として、奥行値が急峻に変化する領域については、その変化量が小さくなるので、図6の左部で示される処理により画素がシフトされても、陰面領域および飛地領域の発生を抑制することが可能となる。   In step S33, the enlargement unit 52 enlarges the reduced depth image supplied from the reduction unit 51 so as to return to the same size as the generated depth image by duplicating and inserting the reduced depth image in units of rows and columns. And supplied to the shift amount calculator 23. That is, in this case, the depth image that has been reduced by the thinning process and then enlarged by copying and inserting is restored to the original size, and the resolution is lower than the generated state. Will be blurred. As a result, since the amount of change is small for the region where the depth value changes sharply, even if the pixel is shifted by the processing shown in the left part of FIG. 6, the generation of the hidden surface region and the flying region is suppressed. Is possible.

以上の処理により奥行画像が縮小した後、拡大してから処理するようにしたことで、奥行画像がぼかし処理されるので、奥行値の変化が急峻な領域における奥行値の変化量が小さくされて、緩やかに変化するようになるので、簡易な方法で、陰面領域および飛地領域の発生を抑制しつつ、2次元画像からなる入力画像を3次元立体視可能な右眼用画像および左眼用画像からなるステレオ画像に変換することが可能となる。   Since the depth image is reduced by the above processing and then processed after being enlarged, the depth image is blurred, so that the amount of change in the depth value in the region where the change in the depth value is steep is reduced. Therefore, the image for the right eye and the image for the left eye capable of three-dimensionally viewing the input image composed of the two-dimensional image while suppressing the generation of the hidden surface area and the flying area by a simple method. It becomes possible to convert into the stereo image which consists of.

<3.第3の実施の形態>
[画像変換装置のさらにその他の構成例]
以上においては、奥行値の急峻な変化を抑制するため、奥行画像に縮小部51および拡大部52により縮小化して低解像度化した後、元のサイズに拡大してぼかし処理する例について説明してきたが、奥行値が急峻に変化する領域だけが、問題となるので、奥行値が急峻に変化する領域だけにぼかし処理を施すようにしてもよい。
<3. Third Embodiment>
[Another configuration example of the image conversion apparatus]
In the above, in order to suppress a sharp change in the depth value, the depth image is reduced by the reduction unit 51 and the enlargement unit 52 to reduce the resolution, and then is enlarged to the original size and subjected to the blurring process. However, since only the region where the depth value changes sharply becomes a problem, the blurring process may be performed only on the region where the depth value changes sharply.

図16は、奥行画像のうち、奥行値が急峻に変化する領域を検出して、その領域のみにぼかし処理としてLPFを掛けるようにした画像変換装置11の構成例を示している。奥行値が急峻に変化する画像内の領域は、エッジ部であると考えることができる。そこで、図16の画像変換装置11においては、奥行画像に対してエッジ検出処理を施し、検出したエッジと、その近傍の領域のみをぼかし処理する。尚、図16の画像変換装置11において、図1の画像変換装置と同一の機能を備えた構成については、同一の名称、および同一の符号を付しており、その説明は適宜省略するものとする。   FIG. 16 shows a configuration example of the image conversion apparatus 11 in which an area where the depth value changes sharply in the depth image is detected, and LPF is applied only to that area as a blurring process. A region in the image where the depth value changes sharply can be considered as an edge portion. Therefore, in the image conversion apparatus 11 in FIG. 16, edge detection processing is performed on the depth image, and only the detected edge and a region in the vicinity thereof are blurred. In the image conversion apparatus 11 of FIG. 16, configurations having the same functions as those of the image conversion apparatus of FIG. 1 are denoted by the same names and the same reference numerals, and description thereof will be omitted as appropriate. To do.

すなわち、図16の画像変換装置11において、図1の画像変換装置11と異なる点は、LPF22に代えて、エッジ検出部71、およびエッジ近傍領域LPF72を備えている点である。エッジ検出部71は、例えば、ラプラシアンフィルタなどであり、エッジとなる画素を検出し、エッジ近傍領域LPF72に供給する。   That is, the image conversion apparatus 11 in FIG. 16 differs from the image conversion apparatus 11 in FIG. 1 in that an edge detection unit 71 and an edge vicinity region LPF 72 are provided instead of the LPF 22. The edge detection unit 71 is, for example, a Laplacian filter, and detects a pixel that becomes an edge and supplies the detected pixel to the edge vicinity region LPF 72.

エッジ近傍領域LPF72は、奥行画像生成部21より供給されてくる奥行画像のうち、エッジ検出部71より供給されてくるエッジとなる画素の情報に基づいて、エッジ領域、および、エッジの近傍の画素に対してのみLPFを掛けてシフト量計算部23に出力する。尚、このエッジ領域、およびエッジ近傍の領域の設定と、LPFを掛ける強さについては、上述した奥行値の変化量(傾き)|α|≦1となるように設定される。   The edge vicinity region LPF 72 is based on the information on the pixel serving as the edge supplied from the edge detection unit 71 in the depth image supplied from the depth image generation unit 21, and the pixels near the edge. Only LP is multiplied by LPF and output to the shift amount calculation unit 23. It should be noted that the setting of the edge region and the vicinity of the edge and the strength to apply the LPF are set so that the above-described depth value change amount (slope) | α | ≦ 1.

[図16の画像変換装置による画像変換処理]
次に、図17のフローチャートを参照して、画像変換処理について説明する。尚、図15のフローチャートにおけるステップS61,S64乃至S62の処理は、図2のフローチャートを参照して説明したステップS1,S3乃至S11の処理と同様であるので、その説明は省略するものとする。
[Image Conversion Processing by Image Conversion Device in FIG. 16]
Next, image conversion processing will be described with reference to the flowchart of FIG. Note that the processing of steps S61, S64 to S62 in the flowchart of FIG. 15 is the same as the processing of steps S1, S3 to S11 described with reference to the flowchart of FIG.

すなわち、ステップS61において、奥行画像が生成されると、ステップS62において、エッジ検出部71は、奥行画像生成部21より供給されてきた奥行画像に対して、例えば、ラプラシアンフィルタを掛けるなどして、エッジを検出し、エッジ検出画像をエッジ近傍領域LPF72に供給する。   That is, when a depth image is generated in step S61, in step S62, the edge detection unit 71 applies a Laplacian filter to the depth image supplied from the depth image generation unit 21, for example. The edge is detected, and the edge detection image is supplied to the edge vicinity region LPF 72.

ステップS63において、エッジ近傍領域LPF72は、奥行画像生成部21より供給されてきた奥行画像のうち、供給されてきたエッジ検出画像のうち、エッジ領域と、その近傍領域の画素に対応する画素に対してLPFを掛けて、奥行値が急峻に変化する領域についてのみ、その変化を緩やかな状態にする。   In step S <b> 63, the edge vicinity region LPF 72 determines the edge region and the pixels corresponding to the pixels in the vicinity region of the edge detection image supplied from the depth image supplied from the depth image generation unit 21. By applying the LPF, only the region where the depth value changes abruptly is made a gradual change.

以上の処理により奥行画像からエッジを検出し、検出したエッジ領域と、その近傍領域に対してのみLPFをかけるようにしたことで、奥行画像の中でも飛地領域が発生しやすい、奥行値の変化が急峻となる領域のみがぼかし処理されるので、奥行値の変化が急峻な領域における奥行値の変化量が小さくされて、緩やかに変化するようになるので、簡易な方法で、陰面領域、および飛地領域の発生を抑制しつつ、2次元画像からなる入力画像を3次元立体視可能な右眼用画像および左眼用画像からなるステレオ画像に変換することが可能となる。   By detecting the edge from the depth image by the above process and applying LPF only to the detected edge area and its neighboring area, the depth value change is likely to occur in the depth image even in the depth image. Since only the steep areas are blurred, the amount of change in the depth values in the areas where the change in the depth values is steep is reduced and gradually changes. It is possible to convert an input image made up of a two-dimensional image into a stereo image made up of a right-eye image and a left-eye image that can be three-dimensionally viewed while suppressing the generation of a region.

ところで、上述した一連の処理は、ハードウェアにより実行させることもできるが、ソフトウェアにより実行させることもできる。一連の処理をソフトウェアにより実行させる場合には、そのソフトウェアを構成するプログラムが、専用のハードウェアに組み込まれているコンピュータ、または、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば汎用のパーソナルコンピュータなどに、記録媒体からインストールされる。   By the way, the series of processes described above can be executed by hardware, but can also be executed by software. When a series of processing is executed by software, a program constituting the software may execute various functions by installing a computer incorporated in dedicated hardware or various programs. For example, it is installed from a recording medium in a general-purpose personal computer or the like.

図18は、汎用のパーソナルコンピュータの構成例を示している。このパーソナルコンピュータは、CPU(Central Processing Unit)1001を内蔵している。CPU1001にはバス1004を介して、入出力インタフェイス1005が接続されている。バス1004には、ROM(Read Only Memory)1002およびRAM(Random Access Memory)1003が接続されている。   FIG. 18 shows a configuration example of a general-purpose personal computer. This personal computer incorporates a CPU (Central Processing Unit) 1001. An input / output interface 1005 is connected to the CPU 1001 via a bus 1004. A ROM (Read Only Memory) 1002 and a RAM (Random Access Memory) 1003 are connected to the bus 1004.

入出力インタフェイス1005には、ユーザが操作コマンドを入力するキーボード、マウスなどの入力デバイスよりなる入力部1006、処理操作画面や処理結果の画像を表示デバイスに出力する出力部1007、プログラムや各種データを格納するハードディスクドライブなどよりなる記憶部1008、LAN(Local Area Network)アダプタなどよりなり、インターネットに代表されるネットワークを介した通信処理を実行する通信部1009が接続されている。また、磁気ディスク(フレキシブルディスクを含む)、光ディスク(CD-ROM(Compact Disc-Read Only Memory)、DVD(Digital Versatile Disc)を含む)、光磁気ディスク(MD(Mini Disc)を含む)、もしくは半導体メモリなどのリムーバブルメディア1011に対してデータを読み書きするドライブ1010が接続されている。   An input / output interface 1005 includes an input unit 1006 including an input device such as a keyboard and a mouse for a user to input an operation command, an output unit 1007 for outputting a processing operation screen and an image of a processing result to a display device, a program, and various data. Are connected to a storage unit 1008 including a hard disk drive and the like, and a local area network (LAN) adapter and the like, and a communication unit 1009 that executes communication processing via a network represented by the Internet. Also, a magnetic disk (including a flexible disk), an optical disk (including a CD-ROM (Compact Disc-Read Only Memory), a DVD (Digital Versatile Disc)), a magneto-optical disk (including an MD (Mini Disc)), or a semiconductor A drive 1010 for reading / writing data from / to a removable medium 1011 such as a memory is connected.

CPU1001は、ROM1002に記憶されているプログラム、または磁気ディスク、光ディスク、光磁気ディスク、もしくは半導体メモリ等のリムーバブルメディア1011から読み出されて記憶部1008にインストールされ、記憶部1008からRAM1003にロードされたプログラムに従って各種の処理を実行する。RAM1003にはまた、CPU1001が各種の処理を実行する上において必要なデータなども適宜記憶される。   The CPU 1001 is read from a program stored in the ROM 1002 or a removable medium 1011 such as a magnetic disk, an optical disk, a magneto-optical disk, or a semiconductor memory, installed in the storage unit 1008, and loaded from the storage unit 1008 to the RAM 1003. Various processes are executed according to the program. The RAM 1003 also appropriately stores data necessary for the CPU 1001 to execute various processes.

尚、本明細書において、記録媒体に記録されるプログラムを記述するステップは、記載された順序に沿って時系列的に行われる処理は、もちろん、必ずしも時系列的に処理されなくとも、並列的あるいは個別に実行される処理を含むものである。   In this specification, the step of describing the program recorded on the recording medium is not limited to the processing performed in time series in the order described, but of course, it is not necessarily performed in time series. Or the process performed separately is included.

11 画像変換装置, 21 奥行画像生成部, 22 LPF, 23 シフト量計算部, 24 シフト量バッファ, 25−1 右眼用画像シフト部, 25−2 左眼用画像シフト部, 26−1 右眼用画像バッファ, 26−2 左眼用バッファ, 51 縮小部, 52 拡大部, 71 エッジ検出部, 72 エッジ近傍領域LPF   DESCRIPTION OF SYMBOLS 11 Image converter, 21 Depth image generation part, 22 LPF, 23 Shift amount calculation part, 24 Shift amount buffer, 25-1 Image shift part for right eyes, 25-2 Image shift part for left eyes, 26-1 Right eye Image buffer, 26-2 left-eye buffer, 51 reduction unit, 52 enlargement unit, 71 edge detection unit, 72 edge vicinity region LPF

Claims (3)

2次元画像信号からなる入力画像信号より、奥行画像を生成する奥行画像生成部と、
前記奥行画像をぼかし処理するぼかし処理部と、
前記ぼかし処理部によりぼかし処理された奥行画像の各画素について、前記各画素の奥行値に基づいて設定されるシフト量を計算するシフト量計算部と、
前記入力画像信号における各画素について、前記シフト量計算部により計算された前記奥行画像の各画素に対応するシフト量だけ右方向、または左方向にシフトした位置の画素を射影することで、3次元画像信号における右眼用画像または左眼用画像を生成するシフト部とを含み、
前記ぼかし処理部は、
前記奥行画像よりエッジを検出するエッジ検出部と、
前記エッジ検出部により検出されたエッジと、その近傍の領域をLPF処理するLPFとを含み、
前記奥行画像のエッジを前記エッジ検出部により検出させ、前記LPFにより検出されたエッジと、その近傍の領域を、対応する前記奥行画像の奥行値の変化量に応じた強さでLPF処理させることでぼかし処理する
画像処理装置。
A depth image generating unit that generates a depth image from an input image signal composed of a two-dimensional image signal;
A blur processing unit that blurs the depth image;
A shift amount calculation unit that calculates a shift amount set based on a depth value of each pixel for each pixel of the depth image subjected to the blur processing by the blur processing unit;
For each pixel in the input image signal, three-dimensional projection is performed by projecting a pixel at a position shifted rightward or leftward by a shift amount corresponding to each pixel of the depth image calculated by the shift amount calculation unit. look including a shift unit that generates an image for the right eye or the left eye image in the image signal,
The blur processing unit
An edge detection unit for detecting an edge from the depth image;
Including an edge detected by the edge detection unit, and an LPF for LPF processing the area in the vicinity thereof,
The edge of the depth image is detected by the edge detection unit, and the edge detected by the LPF and an area in the vicinity thereof are subjected to LPF processing with intensity corresponding to the amount of change in the depth value of the corresponding depth image. An image processing device that performs blurring processing .
2次元画像信号からなる入力画像信号より、奥行画像を生成する奥行画像生成部における、前記2次元画像信号からなる入力画像信号より、奥行画像を生成する奥行画像生成ステップと、
前記奥行画像をぼかし処理するぼかし処理部における、前記奥行画像をぼかし処理するぼかし処理ステップと、
前記ぼかし処理部によりぼかし処理された奥行画像の各画素について、前記各画素の奥行値に基づいて設定されるシフト量を計算するシフト量計算部における、前記ぼかし処理部によりぼかし処理された奥行画像の各画素について、前記各画素の奥行値に基づいて設定されるシフト量を計算するシフト量計算ステップと、
前記入力画像信号における各画素について、前記シフト量計算部により計算された前記奥行画像の各画素に対応するシフト量だけ右方向、または左方向にシフトした位置の画素を射影することで、3次元画像信号における右眼用画像または左眼用画像を生成するシフト部における、前記入力画像信号における各画素について、前記シフト量計算ステップの処理により計算された前記奥行画像の各画素に対応するシフト量だけ右方向、または左方向にシフトした位置の画素を射影することで、3次元画像信号における右眼用画像または左眼用画像を生成するシフトステップとを含み、
前記ぼかし処理ステップの処理は、
前記奥行画像よりエッジを検出するエッジ検出ステップと、
前記エッジ検出ステップの処理により検出されたエッジと、その近傍の領域にLPFを掛けるLPF処理ステップとを含み、
前記奥行画像のエッジを前記エッジ検出ステップの処理により検出させ、前記LPFにより検出されたエッジと、その近傍の領域を、対応する前記奥行画像の奥行値の変化量に応じた強さでLPF処理させることでぼかし処理する
画像処理方法。
A depth image generating step for generating a depth image from the input image signal consisting of the two-dimensional image signal in a depth image generating unit for generating a depth image from the input image signal consisting of the two-dimensional image signal;
In a blur processing unit that blurs the depth image, a blur processing step that blurs the depth image;
The depth image blurred by the blur processing unit in the shift amount calculation unit that calculates the shift amount set based on the depth value of each pixel for each pixel of the depth image blurred by the blur processing unit. A shift amount calculating step for calculating a shift amount set based on the depth value of each pixel for each of the pixels;
For each pixel in the input image signal, three-dimensional projection is performed by projecting a pixel at a position shifted rightward or leftward by a shift amount corresponding to each pixel of the depth image calculated by the shift amount calculation unit. The shift amount corresponding to each pixel of the depth image calculated by the processing of the shift amount calculation step for each pixel in the input image signal in the shift unit that generates the right-eye image or the left-eye image in the image signal only the right direction or by projecting the position of the pixel shifted to the left, seen including a shift step of generating an image for the right eye or the left eye image in the three-dimensional image signal,
The blur processing step includes:
An edge detection step for detecting an edge from the depth image;
Including an edge detected by the processing of the edge detection step, and an LPF processing step of applying an LPF to a region in the vicinity thereof,
The edge of the depth image is detected by the processing of the edge detection step, and the edge detected by the LPF and the area in the vicinity thereof are subjected to LPF processing with intensity corresponding to the amount of change in the depth value of the corresponding depth image. An image processing method for performing blur processing .
2次元画像信号からなる入力画像信号より、奥行画像を生成する奥行画像生成部と、
前記奥行画像をぼかし処理するぼかし処理部と、
前記ぼかし処理部によりぼかし処理された奥行画像の各画素について、前記各画素の奥行値に基づいて設定されるシフト量を計算するシフト量計算部と、
前記入力画像信号における各画素について、前記シフト量計算部により計算された前記奥行画像の各画素に対応するシフト量だけ右方向、または左方向にシフトした位置の画素を射影することで、3次元画像信号における右眼用画像または左眼用画像を生成するシフト部とを含み、
前記ぼかし処理部は、
前記奥行画像よりエッジを検出するエッジ検出部と、
前記エッジ検出部により検出されたエッジと、その近傍の領域をLPF処理するLPFとを含み、
前記奥行画像のエッジを前記エッジ検出部により検出させ、前記LPFにより検出されたエッジと、その近傍の領域を、対応する前記奥行画像の奥行値の変化量に応じた強さでLPF処理させることでぼかし処理する画像処理装置を制御するコンピュータに
前記奥行画像生成部における、2次元画像信号からなる入力画像信号より、奥行画像を生成する奥行画像生成ステップと、
前記ぼかし処理部における、前記奥行画像をぼかし処理するぼかし処理ステップと、
前記シフト量計算部における、前記ぼかし処理ステップの処理によりぼかし処理された奥行画像の各画素について、前記各画素の奥行値に基づいて設定されるシフト量を計算するシフト量計算ステップと、
前記シフト部における、前記入力画像信号における各画素について、前記シフト量計算ステップの処理により計算された前記奥行画像の各画素に対応するシフト量だけ右方向、または左方向にシフトした位置の画素を射影することで、3次元画像信号における右眼用画像または左眼用画像を生成するシフト部とを含む処理を実行させ
前記ぼかし処理ステップの処理は、
前記奥行画像よりエッジを検出するエッジ検出ステップと、
前記エッジ検出ステップの処理により検出されたエッジと、その近傍の領域にLPFを掛けるLPF処理ステップとを含み、
前記奥行画像のエッジを前記エッジ検出ステップの処理により検出させ、前記LPFにより検出されたエッジと、その近傍の領域を、対応する前記奥行画像の奥行値の変化量に応じた強さでLPF処理させることでぼかし処理する
プログラム。
A depth image generating unit that generates a depth image from an input image signal composed of a two-dimensional image signal;
A blur processing unit that blurs the depth image;
A shift amount calculation unit that calculates a shift amount set based on a depth value of each pixel for each pixel of the depth image subjected to the blur processing by the blur processing unit;
For each pixel in the input image signal, by projecting a pixel at a position shifted to the right or left by the shift amount corresponding to each pixel of the depth image calculated by the shift amount calculation unit, three-dimensional look including a shift unit that generates an image for the right eye or the left eye image in the image signal,
The blur processing unit
An edge detection unit for detecting an edge from the depth image;
Including an edge detected by the edge detection unit, and an LPF for LPF processing the area in the vicinity thereof,
The edge of the depth image is detected by the edge detection unit, and the edge detected by the LPF and an area in the vicinity thereof are subjected to LPF processing with intensity corresponding to the amount of change in the depth value of the corresponding depth image. A depth image generating step of generating a depth image from an input image signal composed of a two-dimensional image signal in the depth image generation unit in a computer that controls the image processing apparatus that performs blurring in
A blur processing step for blur processing the depth image in the blur processing unit;
A shift amount calculation step of calculating a shift amount set based on a depth value of each pixel for each pixel of the depth image subjected to the blur processing by the processing of the blur processing step in the shift amount calculation unit;
For each pixel in the input image signal in the shift unit, a pixel at a position shifted rightward or leftward by a shift amount corresponding to each pixel of the depth image calculated by the processing of the shift amount calculation step. By performing projection, a process including a shift unit that generates an image for the right eye or an image for the left eye in the three-dimensional image signal is executed ,
The blur processing step includes:
An edge detection step for detecting an edge from the depth image;
Including an edge detected by the processing of the edge detection step, and an LPF processing step of applying an LPF to a region in the vicinity thereof,
The edge of the depth image is detected by the processing of the edge detection step, and the edge detected by the LPF and the area in the vicinity thereof are subjected to LPF processing with intensity corresponding to the amount of change in the depth value of the corresponding depth image. A program that blurs by letting
JP2011135622A 2011-06-17 2011-06-17 Image processing apparatus and method, and program Expired - Fee Related JP5824896B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011135622A JP5824896B2 (en) 2011-06-17 2011-06-17 Image processing apparatus and method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011135622A JP5824896B2 (en) 2011-06-17 2011-06-17 Image processing apparatus and method, and program

Publications (2)

Publication Number Publication Date
JP2013005289A JP2013005289A (en) 2013-01-07
JP5824896B2 true JP5824896B2 (en) 2015-12-02

Family

ID=47673355

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011135622A Expired - Fee Related JP5824896B2 (en) 2011-06-17 2011-06-17 Image processing apparatus and method, and program

Country Status (1)

Country Link
JP (1) JP5824896B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6113411B2 (en) * 2011-09-13 2017-04-12 シャープ株式会社 Image processing device
TWI772102B (en) * 2020-07-14 2022-07-21 宏達國際電子股份有限公司 Method for transmitting reduced depth information and electronic system

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07334669A (en) * 1994-06-07 1995-12-22 Matsushita Electric Ind Co Ltd Method and device for graphic processing
JP3593466B2 (en) * 1999-01-21 2004-11-24 日本電信電話株式会社 Method and apparatus for generating virtual viewpoint image
JP2002123842A (en) * 2000-10-13 2002-04-26 Takumi:Kk Device for generating stereoscopic image, and medium for recording information
JP2003346188A (en) * 2002-05-27 2003-12-05 Canon Inc Stereoscopic imaging system
JP3938122B2 (en) * 2002-09-20 2007-06-27 日本電信電話株式会社 Pseudo three-dimensional image generation apparatus, generation method, program therefor, and recording medium
JP4214529B2 (en) * 2004-12-28 2009-01-28 日本ビクター株式会社 Depth signal generation device, depth signal generation program, pseudo stereoscopic image generation device, and pseudo stereoscopic image generation program
US8384763B2 (en) * 2005-07-26 2013-02-26 Her Majesty the Queen in right of Canada as represented by the Minster of Industry, Through the Communications Research Centre Canada Generating a depth map from a two-dimensional source image for stereoscopic and multiview imaging
US8970680B2 (en) * 2006-08-01 2015-03-03 Qualcomm Incorporated Real-time capturing and generating stereo images and videos with a monoscopic low power mobile device
CN102239506B (en) * 2008-10-02 2014-07-09 弗兰霍菲尔运输应用研究公司 Intermediate view synthesis and multi-view data signal extraction
US8395642B2 (en) * 2009-03-17 2013-03-12 Mitsubishi Electric Research Laboratories, Inc. Method for virtual image synthesis
JP5387289B2 (en) * 2009-09-28 2014-01-15 株式会社Jvcケンウッド Image processing apparatus, image processing method and program thereof

Also Published As

Publication number Publication date
JP2013005289A (en) 2013-01-07

Similar Documents

Publication Publication Date Title
US9153032B2 (en) Conversion method and apparatus with depth map generation
JP6147275B2 (en) Stereoscopic image processing apparatus, stereoscopic image processing method, and program
US9013482B2 (en) Mesh generating apparatus, method and computer-readable medium, and image processing apparatus, method and computer-readable medium
US9444991B2 (en) Robust layered light-field rendering
US9445071B2 (en) Method and apparatus generating multi-view images for three-dimensional display
US9159154B2 (en) Image processing method and apparatus for generating disparity value
US10163246B2 (en) Three-dimensional image generation apparatus and method using region extension of object in depth map
KR101502362B1 (en) Apparatus and Method for Image Processing
TWI485646B (en) Map converting method, map converting apparatus, and computer program product for map conversion
JP5289416B2 (en) Stereoscopic image display apparatus, method and program
TWI493505B (en) Image processing method and image processing apparatus thereof
JP2015521407A (en) Quality metrics for processing 3D video
EP2164040A1 (en) System and method for high quality image and video upscaling
CN109767408B (en) Image processing method, image processing device, storage medium and computer equipment
US20110090243A1 (en) Apparatus and method for inter-view crosstalk reduction
JP2012019513A (en) Method and apparatus for converting 2d image to 3d image
JP5175910B2 (en) Image processing apparatus, image processing method, and program
JP5824896B2 (en) Image processing apparatus and method, and program
JP7159198B2 (en) Apparatus and method for processing depth maps
US8988424B2 (en) Image processing apparatus, image processing method, and program for generating multi-viewpoint images
JP5488482B2 (en) Depth estimation data generation device, depth estimation data generation program, and pseudo-stereoscopic image display device
US9077963B2 (en) Systems and methods for generating a depth map and converting two-dimensional data to stereoscopic data
CN104143175B (en) Image processing apparatus and image processing method
JP5254297B2 (en) Image processing device
KR101993961B1 (en) Hole Filling Method for Arbitrary View Image

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140428

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150114

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150127

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150318

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150915

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150928

R151 Written notification of patent or utility model registration

Ref document number: 5824896

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees