JP2013090129A - Image processing apparatus, image processing method and program - Google Patents

Image processing apparatus, image processing method and program Download PDF

Info

Publication number
JP2013090129A
JP2013090129A JP2011228698A JP2011228698A JP2013090129A JP 2013090129 A JP2013090129 A JP 2013090129A JP 2011228698 A JP2011228698 A JP 2011228698A JP 2011228698 A JP2011228698 A JP 2011228698A JP 2013090129 A JP2013090129 A JP 2013090129A
Authority
JP
Japan
Prior art keywords
image
shift amount
parallax
viewpoint image
viewpoint
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2011228698A
Other languages
Japanese (ja)
Inventor
Masahito Akao
雅人 赤尾
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2011228698A priority Critical patent/JP2013090129A/en
Publication of JP2013090129A publication Critical patent/JP2013090129A/en
Pending legal-status Critical Current

Links

Landscapes

  • Controls And Circuits For Display Device (AREA)
  • Stereoscopic And Panoramic Photography (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Abstract

PROBLEM TO BE SOLVED: To generate a parallax image in which a stereoscopic effect is emphasized by performing image shift processing when generating a virtual viewpoint image on the basis of LR images as a three-dimensional image.SOLUTION: An image processing apparatus includes: an optimum shift amount calculation part for calculating an optimum value of an image shift amount within a comfortable parallax range by inputting an L image which is an image signal for a left eye and an R image applied to three-dimensional image display and parallax information of the LR images; and a virtual viewpoint image generation part for generating a virtual viewpoint image including a viewpoint image other than the viewpoint of the input LR images. The optimum shift amount calculation part calculates an optimum shift amount within a range which is equal to or less than a preset crosstalk amount by using correspondence data between a parallax amount and a stereoscopic effect and correspondence data between the parallax amount and the crosstalk amount and the virtual viewpoint image generation part generates a final virtual viewpoint image for output by performing image shift processing in accordance with the optimum shift amount calculated by the optimum shift amount calculation part.

Description

本開示は、画像処理装置、および画像処理方法、並びにプログラムに関する。特に、3次元(3D)画像表示に適用する多視点画像を生成する画像処理装置、および画像処理方法、並びにプログラムに関する。   The present disclosure relates to an image processing device, an image processing method, and a program. In particular, the present invention relates to an image processing apparatus, an image processing method, and a program for generating a multi-viewpoint image to be applied to three-dimensional (3D) image display.

3次元(3D)画像表示処理において、メガネを装着しないで立体画像を知覚できる裸眼型の3D表示装置が実用化され始めている。裸眼3D表示装置は、ディスプレイ面に例えばレンチキュラシートや、パララックスバリア(視差バリア)を備え、視聴位置によって左眼と右眼に入る画像を制御する。
すなわち、左眼には左目から観察した画像に相当する左視点画像が観察され、右眼には右目から観察した画像に相当する右視点画像が観察されるような制御を行う。
In a three-dimensional (3D) image display process, a naked-eye type 3D display device that can perceive a stereoscopic image without wearing glasses has been put into practical use. The naked-eye 3D display device includes, for example, a lenticular sheet and a parallax barrier (parallax barrier) on a display surface, and controls an image entering the left eye and the right eye according to a viewing position.
That is, control is performed such that a left viewpoint image corresponding to an image observed from the left eye is observed on the left eye, and a right viewpoint image corresponding to an image observed from the right eye is observed on the right eye.

しかしながら、このような方法では、ディスプレイに対して限定的な視聴位置でしか正しい立体視が得られない。従って、ユーザの観察位置が規定位置と異なる位置にある場合は、左眼に右眼用の画像(右視点画像)が、右眼に左眼用の画像(左視点画像)が入ってしまう逆視や、左視点画像と右視点画像が混ざるクロストークが発生する。   However, with such a method, a correct stereoscopic view can be obtained only at a limited viewing position with respect to the display. Accordingly, when the user's observation position is different from the specified position, the right eye image (right viewpoint image) enters the left eye and the left eye image (left viewpoint image) enters the right eye. Crosstalk in which the left eye image and the right eye image are mixed occurs.

この問題を解決するために、正規の1つの観察位置に対応する標準の左視点画像と右視点画像のみならず、その他の観察位置で観察した場合にクロストークの発生しない設定とした新たな視点からの画像を生成して表示する構成が提案されている。   In order to solve this problem, not only the standard left viewpoint image and right viewpoint image corresponding to one regular observation position, but also a new viewpoint that is set so that crosstalk does not occur when observed at other observation positions. The structure which produces | generates and displays the image from is proposed.

オリジナルの1組の左視点画像と右視点画像のみならず、その他の仮想視点の画像を多視点画像として生成し、これらの多視点画像の中からユーザの観察位置に応じて最適な左視点画像と右視点画像の組を観察位置に応じて選択可能として、逆視やクロストークを抑えた画像表示を行うものである。
すなわち、ユーザの観察位置に応じて異なる左視点画像と右視点画像のペアを観察させることで、ユーザの観察位置が変更された場合にも、観察者の左眼と右眼にそれぞれ観察位置に応じた左視点画像と右視点画像を観察させるものである。
In addition to the original set of left-viewpoint image and right-viewpoint image, other virtual viewpoint images are generated as multi-viewpoint images, and the optimal left-viewpoint image according to the user's observation position from these multi-viewpoint images And a right-viewpoint image set can be selected according to the observation position, and image display with reduced backsight and crosstalk is performed.
That is, by observing a different pair of left and right viewpoint images depending on the user's observation position, even when the user's observation position is changed, the left and right eyes of the observer are placed at the observation position, respectively. The corresponding left viewpoint image and right viewpoint image are observed.

具体的には、表示装置や画像処理装置に入力されるオリジナルの2視点の画像、すなわち3D画像表示用の左視点画像(L画像)と右視点画像(R画像)の2つの視点画像に基づいて、これら2つの視点以外の仮想視点の視点画像を生成する。例えばオリジナルのLR画像を含めて10個の異なる視点の多視点画像を生成する。   Specifically, based on the original two viewpoint images input to the display device or the image processing apparatus, that is, two viewpoint images of a left viewpoint image (L image) and a right viewpoint image (R image) for 3D image display. Thus, a viewpoint image of a virtual viewpoint other than these two viewpoints is generated. For example, ten different viewpoints including the original LR image are generated.

生成した多視点画像から、ディスプレイに対するユーザの観察位置に応じた最適な2つの画像を組み合わせて観察させることで、様々な観察位置において、左視点画像と右視点画像が混ざるクロストークを抑制した3D画像の表示、観察が可能となる。   3D that suppresses crosstalk in which left viewpoint image and right viewpoint image are mixed at various observation positions by combining two optimal images corresponding to the user's observation position with respect to the display from the generated multi-viewpoint images. Images can be displayed and observed.

例えば特許文献1(特開2006−115198号公報)には、オリジナルの左視点画像(L画像)と右視点画像(R画像)を入力して、これらの2つの画像から視差検出を実行して、検出した視差情報に基づいて、複数の仮想視点の画像を生成する手法を開示している。具体的には、入力する左視点画像(L画像)と、右視点画像(R画像)の2つのオリジナル3D画像から視差を検出し、クロストーク量や融像視差範囲に基づいて入力LR画像と異なる仮想視点位置を決定する手法を開示している。   For example, in Patent Document 1 (Japanese Patent Laid-Open No. 2006-115198), an original left viewpoint image (L image) and a right viewpoint image (R image) are input, and parallax detection is executed from these two images. A method for generating images of a plurality of virtual viewpoints based on detected parallax information is disclosed. Specifically, the parallax is detected from two original 3D images of the input left viewpoint image (L image) and the right viewpoint image (R image), and the input LR image is determined based on the crosstalk amount and the fusion parallax range. A method for determining different virtual viewpoint positions is disclosed.

しかし、この特許文献1に記載の処理などによって仮想視点画像を生成する場合、視差の小さい仮想視点画像を生成しても十分な立体感が享受できないという問題が発生する。   However, when a virtual viewpoint image is generated by the process described in Patent Document 1, there is a problem that even if a virtual viewpoint image with a small parallax is generated, a sufficient stereoscopic effect cannot be enjoyed.

特に、入力したオリジナルのLR画像の間の視点に対応する仮想視点画像、すなわち入力LR画像間に内挿した仮想視点画像を2つ適用して観察すると、これらの仮想視点画像の視差は、入力LR画像の視差より小さくなり、立体感が得られにくくなる。
しかし、この視差を調整する処理を行う構成を追加すれば、コストアップとなり、また視差調整による画質劣化などが生じ、生成された仮想視点画像の品質が低下してしまい、観察に耐えられない画像が表示される可能性がある。
In particular, when two virtual viewpoint images corresponding to the viewpoints between the input original LR images, that is, two virtual viewpoint images interpolated between the input LR images are applied and observed, the parallax of these virtual viewpoint images is It becomes smaller than the parallax of the LR image, and it is difficult to obtain a stereoscopic effect.
However, if a configuration for performing processing for adjusting the parallax is added, the cost increases, image quality degradation due to parallax adjustment, and the like, and the quality of the generated virtual viewpoint image decreases, and the image cannot be observed. May be displayed.

仮想視点位置と画像品質には密接な関係がある。
例えば、
入力L画像の視点位置を0.0、
入力R画像の視点位置を1.0、
とすると、
新たに生成する仮想視点の画像と画像品質との関係には、以下の特徴がある。
(特徴1)L画像(0.0)とR画像(1.0)間の0.0〜1.0の間の仮想視点位置では、
LR画像の中央位置である0.5の仮想視点画像が、他の仮想視点位置と比較して画像品質が最も低くなる。
(特徴2)L画像より左側、またはR画像より右側の0.0以下、1.0以上の仮想視点位置では,
L画像またはR画像から離れれば離れるほど映像の品質が低くなる
There is a close relationship between the virtual viewpoint position and the image quality.
For example,
The viewpoint position of the input L image is 0.0,
The viewpoint position of the input R image is 1.0,
Then,
The relationship between the newly generated virtual viewpoint image and the image quality has the following characteristics.
(Feature 1) At a virtual viewpoint position between 0.0 and 1.0 between the L image (0.0) and the R image (1.0),
The virtual viewpoint image of 0.5, which is the center position of the LR image, has the lowest image quality compared to other virtual viewpoint positions.
(Feature 2) At a virtual viewpoint position of 0.0 or less, 1.0 or more on the left side of the L image or on the right side of the R image,
The further away from the L or R image, the lower the video quality.

このような仮想視点位置と画像品質との関係は、例えば、視差検出の精度や画像に含まれるオクルージョン領域の量などに起因するものである。
なお、視点位置=0.0ではオリジナルの入力左眼画像、視点位置=1.0ではオリジナルの入力右眼画像がそのまま利用可能であるため、画像品質は最も高くなる。
Such a relationship between the virtual viewpoint position and the image quality is attributed to, for example, the accuracy of parallax detection, the amount of the occlusion area included in the image, and the like.
Since the original input left eye image can be used as it is at the viewpoint position = 0.0, and the original input right eye image can be used as it is at the viewpoint position = 1.0, the image quality is highest.

特開2006−115198号公報JP 2006-115198 A

本開示は、例えば上記の問題点を解決するものであり、3D画像用の左視点画像(L画像)と右視点画像(R画像)に基づく品質の高い多視点画像の生成処理を行う画像処理装置、および画像処理方法、並びにプログラムを提供することを目的とする。   The present disclosure solves, for example, the above-described problem, and performs image processing for generating a high-quality multi-viewpoint image based on a left viewpoint image (L image) and a right viewpoint image (R image) for 3D images An object is to provide an apparatus, an image processing method, and a program.

また、本開示は、3D画像用の左視点画像(L画像)と右視点画像(R画像)に基づく多視点画像の生成処理を行う構成において、入力LR画像を適用して生成した仮想視点画像に対する大きな加工処理を施すことなく、立体感の強調を行うことを可能とした画像処理装置、および画像処理方法、並びにプログラムを提供するものである。   Further, the present disclosure provides a virtual viewpoint image generated by applying an input LR image in a configuration in which multi-viewpoint image generation processing based on a left viewpoint image (L image) and a right viewpoint image (R image) for a 3D image is performed. The present invention provides an image processing apparatus, an image processing method, and a program capable of emphasizing a three-dimensional effect without applying a large processing process to the above.

本開示の第1の側面は、
3次元画像表示に適用する左眼用の画像信号である左視点画像(L画像)を入力する左視点画像入力部と、
3次元画像表示に適用する右眼用の画像信号である右視点画像(R画像)を入力する右視点画像入力部と、
前記左視点画像(L画像)と、前記右視点画像(R画像)と、前記左視点画像(L画像)と右視点画像(R画像)の視差情報を入力して、快適視差範囲内の画像シフト量の最適値を算出する最適シフト量算出部と、
入力LR画像の視点以外の視点画像を含む仮想視点画像を生成する仮想視点画像生成部を有し、
前記最適シフト量算出部は、視差量と立体感との対応関係データと、視差量とクロストーク量との対応関係データを利用して、予め既定したクロストーク量以下の範囲内の最適シフト量を算出し、
前記仮想視点画像生成部は、
入力LR画像に基づいて生成した仮想視点画像に対して、前記最適シフト量算出部の算出した最適シフト量に従った画像シフト処理を施して最終的な出力用仮想視点画像を生成する画像処理装置にある。
The first aspect of the present disclosure is:
A left viewpoint image input unit for inputting a left viewpoint image (L image) which is an image signal for the left eye applied to three-dimensional image display;
A right viewpoint image input unit for inputting a right viewpoint image (R image) that is an image signal for the right eye applied to three-dimensional image display;
The parallax information of the left viewpoint image (L image), the right viewpoint image (R image), the left viewpoint image (L image), and the right viewpoint image (R image) is input, and the image within the comfortable parallax range An optimum shift amount calculation unit for calculating an optimum value of the shift amount;
A virtual viewpoint image generation unit that generates a virtual viewpoint image including a viewpoint image other than the viewpoint of the input LR image;
The optimal shift amount calculation unit uses the correspondence data between the parallax amount and the stereoscopic effect, and the correspondence data between the parallax amount and the crosstalk amount, so that the optimum shift amount within a predetermined range of the crosstalk amount or less is used. To calculate
The virtual viewpoint image generation unit
An image processing device that performs image shift processing according to the optimal shift amount calculated by the optimal shift amount calculation unit on a virtual viewpoint image generated based on an input LR image to generate a final output virtual viewpoint image It is in.

さらに、本開示の画像処理装置の一実施態様において、前記最適シフト量算出部は、視差量と立体感との対応関係データと、視差量とクロストーク量との対応関係データを利用して、各画素対応の画素対応評価値sを算出し、さらに画像全体の構成画素の画素対応評価値sを加算した画像単位の画像単位評価値Sを算出して、画像単位評価値Sが最大となるシフト量を最適シフト量として算出する。   Furthermore, in an embodiment of the image processing apparatus of the present disclosure, the optimum shift amount calculation unit uses correspondence data between the parallax amount and the stereoscopic effect, and correspondence data between the parallax amount and the crosstalk amount, A pixel-corresponding evaluation value S for each pixel is calculated, and an image-unit evaluation value S for each image is calculated by adding the pixel-corresponding evaluation values s of the constituent pixels of the entire image. The shift amount is calculated as the optimum shift amount.

さらに、本開示の画像処理装置の一実施態様において、前記最適シフト量算出部は、視差量と立体感との対応関係データと、視差量とクロストーク量との対応関係データを利用して、各画素対応の画素対応評価値sを算出し、さらに画像全体の構成画素の画素対応評価値sに対して、画像領域単位の重み付けを行う重み係数を乗算して加算した各シフト量に応じた画像単位評価値Sを算出して、画像単位評価値Sが最大となるシフト量を最適シフト量として算出する。   Furthermore, in an embodiment of the image processing apparatus of the present disclosure, the optimum shift amount calculation unit uses correspondence data between the parallax amount and the stereoscopic effect, and correspondence data between the parallax amount and the crosstalk amount, A pixel-corresponding evaluation value s corresponding to each pixel is calculated, and the pixel-corresponding evaluation value s of the constituent pixels of the entire image is multiplied by a weighting factor that performs weighting for each image area, and is added according to each shift amount. The image unit evaluation value S is calculated, and the shift amount that maximizes the image unit evaluation value S is calculated as the optimum shift amount.

さらに、本開示の画像処理装置の一実施態様において、前記最適シフト量算出部は、クロストーク量が予め規定した値以下の範囲を快適視差範囲として、該快適視差範囲内で、シフト量を変化させて、各シフト量に応じた画素対応評価値sを算出し、さらに画像全体の構成画素の画素対応評価値sを加算した、シフト量に応じた画像単位評価値Sを算出して、画像単位評価値Sが最大となるシフト量を最適シフト量として算出する。   Furthermore, in an embodiment of the image processing device according to the present disclosure, the optimum shift amount calculation unit changes the shift amount within the comfortable parallax range, with a range within which the crosstalk amount is equal to or less than a predetermined value as a comfortable parallax range. Then, a pixel-corresponding evaluation value s corresponding to each shift amount is calculated, and further, an image unit evaluation value S corresponding to the shift amount is calculated by adding the pixel-corresponding evaluation value s of the constituent pixels of the entire image. The shift amount that maximizes the unit evaluation value S is calculated as the optimum shift amount.

さらに、本開示の画像処理装置の一実施態様において、前記最適シフト量算出部は、クロストーク量が予め規定した値以下の範囲を快適視差範囲として、該快適視差範囲内で、シフト量を変化させて、各シフト量に応じた画素対応評価値sを算出し、さらに画像全体の構成画素の画素対応評価値sに対して、画像領域単位の重み付けを行う重み係数を乗算して加算した各シフト量に応じた画像単位評価値Sを算出して、画像単位評価値Sが最大となるシフト量を最適シフト量として算出する。   Furthermore, in an embodiment of the image processing device according to the present disclosure, the optimum shift amount calculation unit changes the shift amount within the comfortable parallax range, with a range within which the crosstalk amount is equal to or less than a predetermined value as a comfortable parallax range. The pixel-corresponding evaluation value s corresponding to each shift amount is calculated, and each of the pixel-corresponding evaluation values s of the constituent pixels of the entire image is multiplied and added by a weighting coefficient that performs weighting in units of image areas. The image unit evaluation value S corresponding to the shift amount is calculated, and the shift amount that maximizes the image unit evaluation value S is calculated as the optimum shift amount.

さらに、本開示の画像処理装置の一実施態様において、前記画像処理装置は、さらに、前記左視点画像(L画像)と右視点画像(R画像)から視差情報を生成する視差推定部を有し、前記仮想視点画像生成部は、前記左視点画像(L画像)と、前記右視点画像(R画像)と、前記視差情報と、前記最適シフト量を入力して、入力LR画像の視点以外の視点画像を含む仮想視点画像を生成する。   Furthermore, in an embodiment of the image processing device of the present disclosure, the image processing device further includes a parallax estimation unit that generates parallax information from the left viewpoint image (L image) and the right viewpoint image (R image). The virtual viewpoint image generation unit receives the left viewpoint image (L image), the right viewpoint image (R image), the parallax information, and the optimum shift amount, and inputs the viewpoint other than the viewpoint of the input LR image. A virtual viewpoint image including the viewpoint image is generated.

さらに、本開示の第2の側面は、
画像処理装置において実行する画像処理方法であり、
画像入力部を介して、3次元画像表示に適用する左眼用の画像信号である左視点画像(L画像)と、右眼用の画像信号である右視点画像(R画像)を入力し、
最適シフト量算出部が、前記左視点画像(L画像)と、前記右視点画像(R画像)と、前記左視点画像(L画像)と右視点画像(R画像)の視差情報を入力して、快適視差範囲内の画像シフト量の最適値を算出する最適シフト量算出処理と、
仮想視点画像生成部が、入力LR画像の視点以外の視点画像を含む仮想視点画像を生成する仮想視点画像生成処理を実行し、
前記最適シフト量算出処理は、
視差量と立体感との対応関係データと、視差量とクロストーク量との対応関係データを利用して、予め既定したクロストーク量以下の範囲内の最適シフト量を算出する処理であり、
前記仮想視点画像生成処理は、
入力LR画像に基づいて生成した仮想視点画像に対して、前記最適シフト量算出部の算出した最適シフト量に従った画像シフト処理を施して最終的な出力用仮想視点画像を生成する処理として実行する画像処理方法にある。
Furthermore, the second aspect of the present disclosure is:
An image processing method executed in an image processing apparatus,
Via the image input unit, a left viewpoint image (L image) that is an image signal for the left eye applied to a three-dimensional image display and a right viewpoint image (R image) that is an image signal for the right eye are input,
An optimal shift amount calculation unit inputs parallax information of the left viewpoint image (L image), the right viewpoint image (R image), the left viewpoint image (L image), and the right viewpoint image (R image). An optimal shift amount calculation process for calculating an optimal value of the image shift amount within the comfortable parallax range;
The virtual viewpoint image generation unit executes a virtual viewpoint image generation process for generating a virtual viewpoint image including a viewpoint image other than the viewpoint of the input LR image,
The optimum shift amount calculation process includes:
A process of calculating an optimum shift amount within a range equal to or less than a predetermined crosstalk amount by using correspondence data between a parallax amount and a stereoscopic effect and correspondence data between a parallax amount and a crosstalk amount.
The virtual viewpoint image generation process includes:
Executed as a process for generating a final output virtual viewpoint image by performing an image shift process according to the optimal shift amount calculated by the optimal shift amount calculation unit on the virtual viewpoint image generated based on the input LR image There is an image processing method.

さらに、本開示の第3の側面は、
画像処理装置において画像処理を実行させるプログラムであり、
画像入力部を介して、3次元画像表示に適用する左眼用の画像信号である左視点画像(L画像)と、右眼用の画像信号である右視点画像(R画像)を入力する処理と、
最適シフト量算出部が、前記左視点画像(L画像)と、前記右視点画像(R画像)と、前記左視点画像(L画像)と右視点画像(R画像)の視差情報を入力して、快適視差範囲内の画像シフト量の最適値を算出する最適シフト量算出処理と、
仮想視点画像生成部が、入力LR画像の視点以外の視点画像を含む仮想視点画像を生成する仮想視点画像生成処理を実行させ、
前記最適シフト量算出処理においては、
視差量と立体感との対応関係データと、視差量とクロストーク量との対応関係データを利用して、予め既定したクロストーク量以下の範囲内の最適シフト量を算出する処理を実行させ、
前記仮想視点画像生成処理においては、
入力LR画像に基づいて生成した仮想視点画像に対して、前記最適シフト量算出部の算出した最適シフト量に従った画像シフト処理を施して最終的な出力用仮想視点画像を生成する処理を実行させるプログラムにある。
Furthermore, the third aspect of the present disclosure is:
A program for executing image processing in an image processing apparatus;
Processing for inputting a left viewpoint image (L image) that is an image signal for the left eye to be applied to the three-dimensional image display and a right viewpoint image (R image) that is an image signal for the right eye via the image input unit When,
An optimal shift amount calculation unit inputs parallax information of the left viewpoint image (L image), the right viewpoint image (R image), the left viewpoint image (L image), and the right viewpoint image (R image). An optimal shift amount calculation process for calculating an optimal value of the image shift amount within the comfortable parallax range;
The virtual viewpoint image generation unit executes a virtual viewpoint image generation process for generating a virtual viewpoint image including a viewpoint image other than the viewpoint of the input LR image;
In the optimum shift amount calculation process,
Using the correspondence data between the parallax amount and the stereoscopic effect and the correspondence data between the parallax amount and the crosstalk amount, a process for calculating an optimum shift amount within a predetermined range of the crosstalk amount or less is executed.
In the virtual viewpoint image generation process,
The virtual viewpoint image generated based on the input LR image is subjected to image shift processing according to the optimum shift amount calculated by the optimum shift amount calculation unit, and the final output virtual viewpoint image is generated. It is in the program to let you.

なお、本開示のプログラムは、例えば、様々なプログラム・コードを実行可能な汎用システムに対して、コンピュータ可読な形式で提供する記憶媒体、通信媒体によって提供可能なプログラムである。このようなプログラムをコンピュータ可読な形式で提供することにより、コンピュータ・システム上でプログラムに応じた処理が実現される。   In addition, the program of this indication is a program which can be provided with the storage medium and communication medium which are provided with a computer-readable format with respect to the general purpose system which can execute various program codes, for example. By providing such a program in a computer-readable format, processing corresponding to the program is realized on the computer system.

本開示のさらに他の目的、特徴や利点は、後述する本開示の実施例や添付する図面に基づくより詳細な説明によって明らかになるであろう。なお、本明細書においてシステムとは、複数の装置の論理的集合構成であり、各構成の装置が同一筐体内にあるものには限らない。   Other objects, features, and advantages of the present disclosure will become apparent from a more detailed description based on embodiments of the present disclosure described below and the accompanying drawings. In this specification, the system is a logical set configuration of a plurality of devices, and is not limited to one in which the devices of each configuration are in the same casing.

本開示の一実施例構成によれば、3次元画像としてのLR画像に基づく仮想視点画像の生成に際して、画像シフト処理を施すことで立体感を強調した視差画像を生成することが可能となる。
具体的には、3次元画像表示に適用する左眼用の画像信号であるL画像と、R画像を入力し、L画像とR画像と、LR画像の視差情報を入力して、快適視差範囲内の画像シフト量の最適値を算出する最適シフト量算出部と、入力LR画像の視点以外の視点画像を含む仮想視点画像を生成する仮想視点画像生成部を有する。最適シフト量算出部は、視差量と立体感との対応関係データと、視差量とクロストーク量との対応関係データを利用して、予め既定したクロストーク量以下の範囲内の最適シフト量を算出し、仮想視点画像生成部は、前記最適シフト量算出部の算出した最適シフト量に従った画像シフト処理を施して最終的な出力用仮想視点画像を生成する。
この処理により、3次元画像としてのLR画像に基づく仮想視点画像の生成に際して、画像シフト処理を施すことで立体感を強調した視差画像を生成することが可能となる。
According to the configuration of an embodiment of the present disclosure, it is possible to generate a parallax image with enhanced stereoscopic effect by performing image shift processing when generating a virtual viewpoint image based on an LR image as a three-dimensional image.
Specifically, an L image and an R image, which are image signals for the left eye applied to 3D image display, are input, and parallax information of the L image, the R image, and the LR image is input, and a comfortable parallax range is input. An optimal shift amount calculation unit that calculates an optimal value of the image shift amount, and a virtual viewpoint image generation unit that generates a virtual viewpoint image including a viewpoint image other than the viewpoint of the input LR image. The optimum shift amount calculation unit uses the correspondence data between the parallax amount and the stereoscopic effect and the correspondence data between the parallax amount and the crosstalk amount to calculate an optimum shift amount within a predetermined range of the crosstalk amount or less. Then, the virtual viewpoint image generation unit performs an image shift process according to the optimum shift amount calculated by the optimum shift amount calculation unit, and generates a final output virtual viewpoint image.
With this process, when generating a virtual viewpoint image based on an LR image as a three-dimensional image, it is possible to generate a parallax image with enhanced stereoscopic effect by performing an image shift process.

画像処理装置の構成例について説明する図である。It is a figure explaining the structural example of an image processing apparatus. 画像処理装置の構成例について説明する図である。It is a figure explaining the structural example of an image processing apparatus. 視差推定部の処理例について説明する図である。It is a figure explaining the example of a process of a parallax estimation part. 仮想視点画像の生成処理の一例について説明する図である。It is a figure explaining an example of the production | generation process of a virtual viewpoint image. 仮想視点画像の生成処理の一例について説明する図である。It is a figure explaining an example of the production | generation process of a virtual viewpoint image. 仮想視点画像の生成処理の一例について説明する図である。It is a figure explaining an example of the production | generation process of a virtual viewpoint image. 最適シフト量算出部の実行する処理について説明する図である。It is a figure explaining the process which the optimal shift amount calculation part performs. 最適シフト量算出部の実行する処理について説明する図である。It is a figure explaining the process which the optimal shift amount calculation part performs. 最適シフト量算出部の実行する処理について説明する図である。It is a figure explaining the process which the optimal shift amount calculation part performs. 最適シフト量算出部の実行する処理について説明する図である。It is a figure explaining the process which the optimal shift amount calculation part performs.

以下、図面を参照しながら本開示の画像処理装置、および画像処理方法、並びにプログラムの詳細について説明する。説明は以下の項目に従って行う。
1.画像処理装置の全体構成と処理の概要について
2.視差情報と、視差推定部の処理の詳細について
3.仮想視点画像生成部の実行する入力LR画像に基づく基本的な仮想視点画像の生成処理について
4.最適シフト量算出部の処理について
5.仮想視点画像生成部の処理について
6.本開示の構成のまとめ
The details of the image processing apparatus, the image processing method, and the program of the present disclosure will be described below with reference to the drawings. The explanation will be made according to the following items.
1. 1. Overview of overall configuration and processing of image processing apparatus 2. Details of disparity information and processing of the disparity estimation unit 3. Basic virtual viewpoint image generation processing based on the input LR image executed by the virtual viewpoint image generation unit 4. Process of optimum shift amount calculation unit 5. Processing of virtual viewpoint image generation unit Summary of composition of this disclosure

[1.画像処理装置の全体構成と処理の概要について]
まず、本開示の画像処理装置の全体構成と処理の概要について図1を参照して説明する。その後、各構成部の処理の詳細について説明する。
図1に示すように、画像処理装置100は、左視点画像(L画像)入力部101、右視点画像(R画像)入力部102、視差情報入力部103、最適シフト量算出部104、仮想視点画像生成部105、表示制御部106を有し、画像処理装置100において生成した画像が表示部110に出力される。
なお、図1に示す構成では、表示部110を画像処理装置100の外部構成として示しているが、画像処理装置100内に表示部110を有する構成としてもよい。
[1. Overview of overall configuration and processing of image processing apparatus]
First, an overall configuration of the image processing apparatus according to the present disclosure and an outline of processing will be described with reference to FIG. Then, the detail of the process of each structure part is demonstrated.
As shown in FIG. 1, the image processing apparatus 100 includes a left viewpoint image (L image) input unit 101, a right viewpoint image (R image) input unit 102, a parallax information input unit 103, an optimum shift amount calculation unit 104, a virtual viewpoint. An image generation unit 105 and a display control unit 106 are provided, and an image generated by the image processing apparatus 100 is output to the display unit 110.
In the configuration illustrated in FIG. 1, the display unit 110 is illustrated as an external configuration of the image processing apparatus 100. However, the display unit 110 may be included in the image processing apparatus 100.

なお、図1は、画像処理装置の主要構成を示すものであり、画像処理装置100には、図に示す構成の他、データ処理制御を実行するCPU等のプログラム実行機能を備えた制御部、制御部において実行するプログラムや、各種パラメータを格納した記憶部、パラメータや画像データなどを入力する入力部を有する。
例えば制御部は、以下に説明する処理を予め記憶部に格納したプログラムに従って実行する。
FIG. 1 shows a main configuration of the image processing apparatus. In addition to the configuration shown in the figure, the image processing apparatus 100 includes a control unit having a program execution function such as a CPU for executing data processing control, A program executed in the control unit, a storage unit storing various parameters, and an input unit for inputting parameters, image data, and the like.
For example, a control part performs the process demonstrated below according to the program previously stored in the memory | storage part.

左視点画像(L画像)入力部101と、右視点画像(R画像)入力部102は、予め生成された3次元(3D)画像表示用の左視点画像(L画像)と、右視点画像(R画像)を入力する。
左視点画像(L画像)は、左眼から観察される画像に相当し、右視点画像(R画像)は、右眼から観察される画像に相当する。
The left viewpoint image (L image) input unit 101 and the right viewpoint image (R image) input unit 102 include a left viewpoint image (L image) for displaying a three-dimensional (3D) image generated in advance and a right viewpoint image ( R image).
The left viewpoint image (L image) corresponds to an image observed from the left eye, and the right viewpoint image (R image) corresponds to an image observed from the right eye.

ただし、これらの2つの画像は、標準的な2つのLR画像である。すなわち、ディスプレイ面に例えばレンチキュラシートや、パララックスバリア(視差バリア)を備えた裸眼3D表示装置において、規定位置、例えばディスプレイを正面中心位置から観察した際に正しい3D画像として観察されるLR画像である。
ユーザの観察位置が規定位置と異なる位置にある場合は、左眼に右眼用の画像(右視点画像)が、右眼に左眼用の画像(左視点画像)が入ってしまう逆視や、左視点画像と右視点画像が混ざるクロストークが発生する。
However, these two images are two standard LR images. That is, in an autostereoscopic 3D display device provided with, for example, a lenticular sheet or a parallax barrier (parallax barrier) on the display surface, an LR image that is observed as a correct 3D image when the display is observed from the front center position. is there.
When the user's observation position is different from the specified position, the left eye has an image for the right eye (right viewpoint image) and the right eye has an image for the left eye (left viewpoint image). Crosstalk occurs in which the left viewpoint image and the right viewpoint image are mixed.

画像処理装置100は、この問題を解決するために、正規の1つの観察位置に対応する入力LR画像、すなわち標準の左視点画像(L画像)と右視点画像(R画像)に基づいて、様々な観察位置で観察した場合にクロストークの発生しない新たな視点(仮想視点)からの画像を生成する。   In order to solve this problem, the image processing apparatus 100 performs various processing based on an input LR image corresponding to one normal observation position, that is, a standard left viewpoint image (L image) and a right viewpoint image (R image). An image from a new viewpoint (virtual viewpoint) that does not generate crosstalk when observed at various observation positions is generated.

視差情報入力部103は、入力LR画像、すなわち、左視点画像(L画像)と、右視点画像(R画像)との2つの画像間の視差情報を入力する。
視差情報とは、入力LR画像に含まれる同一被写体の画像間のずれ(左右方向の画素ずれ)に相当し、被写体の距離に相当する情報となる。具体的には、例えば各画素単位や画素領域単位の視差情報(被写体距離情報)によって構成される。
The parallax information input unit 103 inputs parallax information between two images of an input LR image, that is, a left viewpoint image (L image) and a right viewpoint image (R image).
The parallax information corresponds to a shift (pixel shift in the left-right direction) between images of the same subject included in the input LR image, and is information corresponding to the distance of the subject. Specifically, for example, it is configured by parallax information (subject distance information) of each pixel unit or pixel region unit.

最適シフト量算出部104は、
左視点画像(L画像)入力部101からL画像、
右視点画像(R画像)入力部102からR画像、
視差情報入力部103から視差情報、
これらの各情報を入力して、既定のアルゴリズムに従って、最適視差量を算出する。この処理の詳細については後述する。
The optimum shift amount calculation unit 104
From the left viewpoint image (L image) input unit 101, an L image,
R image from the right viewpoint image (R image) input unit 102,
Disparity information from the disparity information input unit 103,
Each piece of information is input, and the optimum amount of parallax is calculated according to a predetermined algorithm. Details of this processing will be described later.

仮想視点画像生成部105は、
左視点画像(L画像)入力部101からL画像、
右視点画像(R画像)入力部102からR画像、
視差情報入力部103から視差情報、
最適シフト量算出部104から最適視差量、
これらの各情報を入力して、仮想視点画像を生成する。
The virtual viewpoint image generation unit 105
From the left viewpoint image (L image) input unit 101, an L image,
R image from the right viewpoint image (R image) input unit 102,
Disparity information from the disparity information input unit 103,
Optimal parallax amount from the optimal shift amount calculation unit 104,
Each of these pieces of information is input to generate a virtual viewpoint image.

仮想視点画像生成部105は、例えば最適シフト量算出部104から入力する最適視差量に従って、仮想視点位置の決定処理等を実行して、決定した仮想視点位置に対応する仮想視点画像を生成する。   The virtual viewpoint image generation unit 105 executes, for example, a virtual viewpoint position determination process according to the optimal parallax amount input from the optimal shift amount calculation unit 104, and generates a virtual viewpoint image corresponding to the determined virtual viewpoint position.

仮想視点画像生成部105は、入力LR画像の2視点の画像に加え、さらにその他の視点の画像を加えた計N視点の画像を生成して出力する。
仮想視点画像生成部105の生成した仮想視点画像は、表示制御部106を介して表示部110に出力表示される。
The virtual viewpoint image generation unit 105 generates and outputs a total of N viewpoint images in which images of other viewpoints are added to the two viewpoint images of the input LR image.
The virtual viewpoint image generated by the virtual viewpoint image generation unit 105 is output and displayed on the display unit 110 via the display control unit 106.

本開示の画像処理装置の生成する表示画像は、ユーザがメガネを装着しなくても立体画像を視聴することができる裸眼3D表示装置における表示画像である。   The display image generated by the image processing device of the present disclosure is a display image in a naked-eye 3D display device that allows a user to view a stereoscopic image without wearing glasses.

表示部110は、裸眼3D表示を行う表示部であり、ディスプレイ面に例えばレンチキュラシートや、パララックスバリア(視差バリア)を備え、視聴位置によって左眼と右眼に入る画像を制御可能とした表示部である。
表示制御部106は、仮想視点画像生成部105の生成したN視点の画像を表示部110に出力する。
なお、表示制御部106は、表示部110の表示構成に応じた表示情報を生成する。
The display unit 110 is a display unit that performs naked-eye 3D display. The display unit 110 includes, for example, a lenticular sheet or a parallax barrier (parallax barrier) on the display surface, and is capable of controlling an image entering the left eye and the right eye according to a viewing position. Part.
The display control unit 106 outputs the N viewpoint images generated by the virtual viewpoint image generation unit 105 to the display unit 110.
The display control unit 106 generates display information according to the display configuration of the display unit 110.

なお、画像処理装置100は、例えば撮像部を備えたカメラ等の撮像装置、PC、テレビなどの表示装置として構成することも可能であり、これらの装置として構成する場合は各装置に応じた機能を備えた構成とする。
例えばカメラの場合、異なる視点からの画像としてのLR画像を撮影する撮像部を有し、撮像部から入力するLR画像を利用して多視点画像を生成する構成とする。
Note that the image processing apparatus 100 can also be configured as an imaging apparatus such as a camera including an imaging unit, or a display apparatus such as a PC or a television, and when configured as these apparatuses, functions corresponding to the respective apparatuses. It is set as the structure provided with.
For example, in the case of a camera, an imaging unit that captures an LR image as an image from a different viewpoint is used, and a multi-viewpoint image is generated using the LR image input from the imaging unit.

図1を示す画像処理装置の構成は、LR画像の入力に併せて、入力LR画像に対応する視差情報についても視差情報入力部103を介して入力する構成としている。
このように予め生成された視差情報を入力する構成ではなく、入力LR画像に対応する視差情報を画像処理装置の内部において生成する構成としてもよい。
このような画像処理装置の構成例を図2に示す。
The configuration of the image processing apparatus illustrated in FIG. 1 is configured to input parallax information corresponding to an input LR image via the parallax information input unit 103 in addition to the input of the LR image.
In this way, the configuration may be such that the disparity information corresponding to the input LR image is generated inside the image processing apparatus, instead of the configuration in which the disparity information generated in advance is input.
A configuration example of such an image processing apparatus is shown in FIG.

図2に示す画像処理装置120は、左視点画像(L画像)入力部101、右視点画像(R画像)入力部102、視差推定部115、最適シフト量算出部104、仮想視点画像生成部105、表示制御部106を有し、画像処理装置120において生成した画像が表示部110に出力される。
図1に示す画像処理装置100と異なる点は、図1に示す視差情報入力部103を持たずに、視差推定部115を有する点である。
その他の構成は図1に示す構成と同様である。
2 includes a left viewpoint image (L image) input unit 101, a right viewpoint image (R image) input unit 102, a parallax estimation unit 115, an optimum shift amount calculation unit 104, and a virtual viewpoint image generation unit 105. The display control unit 106, and the image generated by the image processing device 120 is output to the display unit 110.
A difference from the image processing apparatus 100 illustrated in FIG. 1 is that the disparity estimation unit 115 is included instead of the disparity information input unit 103 illustrated in FIG.
Other configurations are the same as those shown in FIG.

視差推定部115は、左視点画像(L画像)と、右視点画像(R画像)を入力し、これらの画像に基づいて視差情報を生成する。
視差情報とは、入力LR画像に含まれる同一被写体の画像間のずれ(左右方向の画素ずれ)に相当し、被写体の距離に相当する情報となる。具体的には、例えば各画素単位や画素領域単位の視差情報(被写体距離情報)を持つデータを生成する。
The parallax estimation unit 115 receives a left viewpoint image (L image) and a right viewpoint image (R image), and generates parallax information based on these images.
The parallax information corresponds to a shift (pixel shift in the left-right direction) between images of the same subject included in the input LR image, and is information corresponding to the distance of the subject. Specifically, for example, data having parallax information (subject distance information) for each pixel unit or pixel region unit is generated.

その他の構成は、図1に示す構成と同様である。
最適シフト量算出部104は、
左視点画像(L画像)入力部101からL画像、
右視点画像(R画像)入力部102からR画像、
視差推定部115から視差情報、
これらの各情報を入力して、既定のアルゴリズムに従って、最適視差量を算出する。この処理の詳細については後述する。
Other configurations are the same as those shown in FIG.
The optimum shift amount calculation unit 104
From the left viewpoint image (L image) input unit 101, an L image,
R image from the right viewpoint image (R image) input unit 102,
Parallax information from the parallax estimation unit 115,
Each piece of information is input, and the optimum amount of parallax is calculated according to a predetermined algorithm. Details of this processing will be described later.

仮想視点画像生成部105は、
左視点画像(L画像)入力部101からL画像、
右視点画像(R画像)入力部102からR画像、
視差推定部115から視差情報、
最適シフト量算出部104から最適視差量、
これらの各情報を入力して、仮想視点画像を生成する。
The virtual viewpoint image generation unit 105
From the left viewpoint image (L image) input unit 101, an L image,
R image from the right viewpoint image (R image) input unit 102,
Parallax information from the parallax estimation unit 115,
Optimal parallax amount from the optimal shift amount calculation unit 104,
Each of these pieces of information is input to generate a virtual viewpoint image.

[2.視差情報と、視差推定部の処理の詳細について]
次に、視差情報と、視差推定部の処理の詳細について説明する。
図1に示す画像処理装置100では、外部から入力LR画像に対応する視差情報を入力し、図2に示す画像処理装置120は、視差推定部115において、入力LR画像に対応する視差情報を生成する。
視差推定部115は、左視点画像(L画像)と、右視点画像(R画像)を入力し、これらの画像に基づいて視差情報を生成する。
前述したように、視差情報とは、標準LR画像に含まれる同一被写体の画像間のずれ(左右方向の画素ずれ)に相当し、被写体の距離に相当する情報となる。具体的には、例えば各画素単位の視差情報(被写体距離情報)を持つデータを生成する。
[2. Disparity information and details of processing of disparity estimation unit]
Next, details of the disparity information and the processing of the disparity estimation unit will be described.
1 inputs disparity information corresponding to an input LR image from the outside, and the image processing device 120 illustrated in FIG. 2 generates disparity information corresponding to the input LR image in the disparity estimation unit 115. To do.
The parallax estimation unit 115 receives a left viewpoint image (L image) and a right viewpoint image (R image), and generates parallax information based on these images.
As described above, the parallax information corresponds to the shift between the images of the same subject included in the standard LR image (pixel shift in the left-right direction), and is information corresponding to the distance of the subject. Specifically, for example, data having parallax information (subject distance information) for each pixel unit is generated.

この視差情報の取得は、例えば、以下のような既存の手法によって実行される。
(a)ブロックマッチングベースの視差情報取得処理
(b)DP(ダイナミックプログラミング)マッチングベースの視差情報取得処理
(c)セグメンテーションベースの視差情報取得処理
(d)学習ベースの視差情報取得処理
(e)上記各手法の組み合わせによる視差情報取得処理
例えば、上記(a)〜(e)のいずれかの手法で視差情報を取得する。
The acquisition of the parallax information is executed by the following existing method, for example.
(A) Block matching-based disparity information acquisition processing (b) DP (dynamic programming) matching-based disparity information acquisition processing (c) Segmentation-based disparity information acquisition processing (d) Learning-based disparity information acquisition processing (e) Disparity information acquisition processing by a combination of methods For example, disparity information is acquired by any one of the methods (a) to (e).

図3を参照してブロックマッチングベースの視差情報取得処理について簡単に説明する。
図3に示すように、入力したオリジナルの標準画像である、
(a)左視点画像(L画像)と、
(b)右視点画像(R画像)、
これらの入力LR画像を利用し、例えばL画像の画素領域(ブロック)121を選択し、その選択ブロックと類似するブロックをR画像中から検出する。すなわち、同一被写体の撮影領域であると判断されるブロック(マッチングブロック)をLR画像から選択する。さらに、LR画像間におけるマッチングブロックの位置ずれ(水平方向の画素数等)を測定する。
The block matching-based disparity information acquisition process will be briefly described with reference to FIG.
As shown in FIG. 3, it is the original standard image that was input.
(A) Left viewpoint image (L image);
(B) Right viewpoint image (R image),
Using these input LR images, for example, a pixel region (block) 121 of the L image is selected, and a block similar to the selected block is detected from the R image. That is, a block (matching block) that is determined to be a shooting area of the same subject is selected from the LR image. Furthermore, the positional deviation (the number of pixels in the horizontal direction, etc.) of the matching block between the LR images is measured.

図3において、例えばL画像の画素領域(ブロック)121の注目画素LP=(5,3)の、R画像における対応画素は、RP=(7,3)である。
この場合、L画像の画素位置(x,y)=(5,3)のLR画像間の視差d(5,3)は以下のように算出される。
視差d(5,3)=(7,3)−(5,3)=(2,0)、
すなわち、
L画像の画素位置(x,y)=(5,3)の視差dは2画素[pixel]となる。
In FIG. 3, for example, the corresponding pixel in the R image of the pixel of interest LP = (5, 3) in the pixel region (block) 121 of the L image is RP = (7, 3).
In this case, the parallax d (5, 3) between the LR images at the pixel position (x, y) = (5, 3) of the L image is calculated as follows.
Parallax d (5,3) = (7,3) − (5,3) = (2,0),
That is,
The parallax d of the pixel position (x, y) = (5, 3) of the L image is 2 pixels [pixel].

ブロックの位置ずれは、そのブロックに撮影されている被写体の距離に応じて変動する。
すなわち、ブロックの位置ずれが被写体距離に対応し、この位置ずれ情報を視差情報として取得する。
なお、この視差情報の表現形式として例えばデプスマップ(距離画像あるいは視差マップ)がある。デプスマップ(視差マップ)は、例えばL画像、R画像の各画素単位の視差(被写体距離)を画素単位の輝度によって表現した画像であり、例えば高輝度領域は、近い(カメラに近い)被写体、低輝度領域は、遠い(カメラから遠い)被写体を示す。すなわち被写体距離が輝度によって示された画像である。
The displacement of the block varies according to the distance of the subject photographed in the block.
That is, the block displacement corresponds to the subject distance, and this displacement information is acquired as parallax information.
An example of the parallax information expression format is a depth map (distance image or parallax map). The depth map (parallax map) is an image in which the parallax (subject distance) of each pixel unit of the L image and the R image, for example, is expressed by the luminance of the pixel unit. For example, the high luminance region is a close subject (close to the camera), The low luminance area indicates a subject that is far (far from the camera). That is, it is an image in which the subject distance is indicated by luminance.

[3.仮想視点画像生成部の実行する入力LR画像に基づく基本的な仮想視点画像の生成処理について]
次に、仮想視点画像生成部105の実行する入力LR画像に基づく基本的な仮想視点画像の生成処理について説明する。
仮想視点画像生成部105は、
左視点画像(L画像)入力部101からL画像、
右視点画像(R画像)入力部102からR画像、
視差推定部103から視差情報、
信頼度算出部104から信頼度情報、
これらの各情報を入力して、仮想視点画像を生成する。
[3. Basic virtual viewpoint image generation process based on input LR image executed by virtual viewpoint image generation unit]
Next, basic virtual viewpoint image generation processing based on the input LR image executed by the virtual viewpoint image generation unit 105 will be described.
The virtual viewpoint image generation unit 105
From the left viewpoint image (L image) input unit 101, an L image,
R image from the right viewpoint image (R image) input unit 102,
Parallax information from the parallax estimation unit 103,
Reliability information from the reliability calculation unit 104,
Each of these pieces of information is input to generate a virtual viewpoint image.

例えば予め設定した数(例えば10)の仮想視点を決定し、これらの各仮想視点に対応する仮想視点画像を生成する。仮想視点画像は、入力した標準LR画像を利用して生成する。すなわち、入力画像である左視点画像(L画像)と右視点画像(R画像)を利用して生成する。
具体的な仮想視点画像の生成処理例について、図4以下を参照して説明する。
For example, a predetermined number (for example, 10) of virtual viewpoints are determined, and virtual viewpoint images corresponding to these virtual viewpoints are generated. The virtual viewpoint image is generated using the input standard LR image. That is, the left viewpoint image (L image) and the right viewpoint image (R image) that are input images are used.
A specific example of virtual viewpoint image generation processing will be described with reference to FIG.

図4には、画像処理装置に入力するオリジナルの左視点画像(L画像)131と右視点画像(R画像)132、さらに、これらのLR画像に基づいて生成する仮想視点画像133を示している。
左視点画像(L画像)131は標準位置における左眼視点位置から観察した画像であり、右視点画像(R画像)132は標準位置における右眼視点位置から観察した画像である。
左視点画像(L画像)131の視点位置を0.0、
右視点画像(R画像)132の視点位置を1.0とする。
FIG. 4 shows an original left viewpoint image (L image) 131 and right viewpoint image (R image) 132 input to the image processing apparatus, and a virtual viewpoint image 133 generated based on these LR images. .
The left viewpoint image (L image) 131 is an image observed from the left eye viewpoint position at the standard position, and the right viewpoint image (R image) 132 is an image observed from the right eye viewpoint position at the standard position.
The viewpoint position of the left viewpoint image (L image) 131 is 0.0,
The viewpoint position of the right viewpoint image (R image) 132 is 1.0.

図4は、例えばこの視点位置0.0〜1.0の間の視点位置=0.3からの観察画像を仮想視点画像133として生成する場合の処理例を示している。
左視点画像(L画像)131と右視点画像(R画像)132にはそれぞれ異なる位置に同一被写体(リンゴ)が撮影されている。L画像と、R画像において、この同一被写体の位置は、視点位置が異なるために、異なる位置となっている。
視点位置=0.0と視点位置1.0の間の視点位置=0.3の仮想視点画像103を生成する場合、この被写体(リンゴ)の位置を線型補間によって設定する。図4に示す直線L1に沿って被写体位置を変更することによって、各仮想視点における仮想視点画像の被写体位置を決定して仮想視点画像を生成することができる。
このように入力LR画像に基づく線形補間処理によって各仮想視点位置の仮想視点画像を生成する。
FIG. 4 shows a processing example in the case where an observation image from a viewpoint position = 0.3 between the viewpoint positions 0.0 to 1.0 is generated as a virtual viewpoint image 133, for example.
In the left viewpoint image (L image) 131 and the right viewpoint image (R image) 132, the same subject (apple) is photographed at different positions. In the L image and the R image, the position of the same subject is different because the viewpoint position is different.
When generating the virtual viewpoint image 103 with the viewpoint position = 0.3 between the viewpoint position = 0.0 and the viewpoint position 1.0, the position of the subject (apple) is set by linear interpolation. By changing the subject position along the straight line L1 shown in FIG. 4, it is possible to generate the virtual viewpoint image by determining the subject position of the virtual viewpoint image at each virtual viewpoint.
Thus, the virtual viewpoint image of each virtual viewpoint position is generated by the linear interpolation process based on the input LR image.

なお、仮想視点画像を生成する場合、入力LR画像の双方を利用して2つの画像をブレンドする処理によって生成することができる。
あるいは、L画像のみ、あるいはR画像のみを利用して仮想視点位置に応じて被写体位置をずらす処理によって、1つの画像のみを利用して生成することもできる。
あるいは、L画像側に近い仮想視点位置ではL画像のみを利用して仮想視点画像を生成し、R画像に近い位置ではR画像のみを利用して仮想視点画像を生成するといった処理を行ってもよい。
Note that when generating a virtual viewpoint image, it can be generated by a process of blending two images using both of the input LR images.
Alternatively, it is possible to generate only one image by processing only the L image or only the R image to shift the subject position according to the virtual viewpoint position.
Alternatively, a process of generating a virtual viewpoint image using only the L image at a virtual viewpoint position close to the L image side and generating a virtual viewpoint image using only the R image at a position close to the R image may be performed. Good.

入力LR画像のブレンド処理に基づく仮想視点画像131の画素値の決定処理例について図5を参照して説明する。
図5には、
視点位置=0である入力左視点画像(L画像)の画素P(x,y)141、
視点位置=1である入力右視点画像(R画像)におけるL画像の画素Pの対応画素142、
視点位置=Φである仮想視点画像におけるL画像の画素Pの対応画素143、
これらを示している。
なお、
Φ=0〜1
である。
An example of a process for determining the pixel value of the virtual viewpoint image 131 based on the blend process of the input LR image will be described with reference to FIG.
In FIG.
Pixel P (x, y) 141 of the input left viewpoint image (L image) where the viewpoint position = 0,
The corresponding pixel 142 of the pixel P of the L image in the input right viewpoint image (R image) where the viewpoint position = 1.
The corresponding pixel 143 of the pixel P of the L image in the virtual viewpoint image with the viewpoint position = Φ,
These are shown.
In addition,
Φ = 0-1
It is.

左視点画像(L画像)の画素P(x,y)141の視差がd(x,y)[pixel]である場合、
仮想視点画像におけるL画像の画素P(x,y)の対応画素143の画素位置は、
画素Q(x+Φ・d(x,y),y)とする。
すなわち、仮想視点画像における画素Q(x+Φ・d(x,y),y)の画素値を、左視点画像(L画像)の画素P(x,y)141の画素値に設定する。
仮想視点画像の各画素の画素値は、このように、左視点画像(L画像)の画素の視差情報に基づいて設定する。
なお、この処理によって、仮想視点画像の埋まらなかった画素は、右視点画像(R画像)を適用した処理や隣接画素の画素値による補間処理、左視点画像の同一座標の画素で補間する処理などによって画素値を決定する。
When the parallax of the pixel P (x, y) 141 of the left viewpoint image (L image) is d (x, y) [pixel],
The pixel position of the corresponding pixel 143 of the pixel P (x, y) of the L image in the virtual viewpoint image is
It is assumed that the pixel is Q (x + Φ · d (x, y), y).
That is, the pixel value of the pixel Q (x + Φ · d (x, y), y) in the virtual viewpoint image is set to the pixel value of the pixel P (x, y) 141 of the left viewpoint image (L image).
As described above, the pixel value of each pixel of the virtual viewpoint image is set based on the parallax information of the pixel of the left viewpoint image (L image).
By this process, pixels that are not filled in the virtual viewpoint image are processed by applying the right viewpoint image (R image), interpolation processing by pixel values of adjacent pixels, processing by interpolation with pixels of the same coordinates of the left viewpoint image, etc. To determine the pixel value.

図6には、
左視点画像(L画像)の水平ライン151、
右視点画像(R画像)の水平ライン152
仮想視点画像の水平ライン153、
を示している。
図に示す矢印は、仮想視点画像の水平ライン153の画素値を決定するために適用可能な左視点画像(L画像)の画素位置と、右視点画像(R画像)の画素位置を結ぶラインである。
In FIG.
Horizontal line 151 of the left viewpoint image (L image),
Horizontal line 152 of right viewpoint image (R image)
Horizontal line 153 of the virtual viewpoint image,
Is shown.
The arrow shown in the figure is a line connecting the pixel position of the left viewpoint image (L image) and the pixel position of the right viewpoint image (R image) applicable to determine the pixel value of the horizontal line 153 of the virtual viewpoint image. is there.

図6に示す仮想視点画像の水平ライン153において、
1=左視点画像(L画像)の水平ライン151の構成画素値によって画素値の設定された領域
2=右視点画像(R画像)の水平ライン153の構成画素値によって画素値の設定された領域
3=その他の領域
である。
In the horizontal line 153 of the virtual viewpoint image shown in FIG.
1 = region where the pixel value is set by the constituent pixel value of the horizontal line 151 of the left viewpoint image (L image) 2 = region where the pixel value is set by the constituent pixel value of the horizontal line 153 of the right viewpoint image (R image) 3 = Other area

このように、仮想視点画像の画素値の設定は、例えば、以下の3つの処理によって実行される。
1.左視点画像(L画像)の各画素に対して、出力視点位置で対応する画素位置を求め、その画素位置に左視点画像(L画像)の画素値を補間する。
2.右視点画像(R画像)の各画素に対して、出力視点位置で対応する画素位置を求め、その画素位置に右視点画像(R画像)の画素値を補間する。
3.上記1,2の処理でも補間されない出力視点画像の画素は、隣接画素に基づく補間処理を行う。
Thus, the setting of the pixel value of the virtual viewpoint image is executed by the following three processes, for example.
1. For each pixel of the left viewpoint image (L image), a corresponding pixel position is obtained at the output viewpoint position, and the pixel value of the left viewpoint image (L image) is interpolated at that pixel position.
2. For each pixel of the right viewpoint image (R image), the corresponding pixel position is obtained at the output viewpoint position, and the pixel value of the right viewpoint image (R image) is interpolated at that pixel position.
3. The pixels of the output viewpoint image that are not interpolated by the processes 1 and 2 are subjected to interpolation processing based on adjacent pixels.

なお、図5、図6を参照して説明した処理は入力LR画像に基づいてこれらのLR画像と異なる仮想視点からの画像を生成する基本的な処理である。
本開示の画像処理装置の仮想視点画像生成部105は、この基本的な処理をベースとして、さらに、最適シフト量算出部104から入力する最適シフト量情報を適用して、画像シフトを実行して立体感を強調した最終的な仮想視点画像を生成する。
The processing described with reference to FIGS. 5 and 6 is basic processing for generating an image from a virtual viewpoint different from these LR images based on the input LR images.
Based on this basic processing, the virtual viewpoint image generation unit 105 of the image processing apparatus according to the present disclosure further applies the optimum shift amount information input from the optimum shift amount calculation unit 104 to execute image shift. A final virtual viewpoint image in which the stereoscopic effect is emphasized is generated.

[4.最適シフト量算出部の処理について]
次に、最適シフト量算出部104の実行する処理について説明する。
最適シフト量算出部104は、
左視点画像(L画像)入力部101からL画像、
右視点画像(R画像)入力部102からR画像、
視差情報入力部103、または視差推定部115から視差情報、
これらの各情報を入力して、既定のアルゴリズムに従って、最適視差量を算出する。
[4. About processing of the optimum shift amount calculation unit]
Next, processing executed by the optimum shift amount calculation unit 104 will be described.
The optimum shift amount calculation unit 104
From the left viewpoint image (L image) input unit 101, an L image,
R image from the right viewpoint image (R image) input unit 102,
Disparity information from the disparity information input unit 103 or the disparity estimation unit 115,
Each piece of information is input, and the optimum amount of parallax is calculated according to a predetermined algorithm.

具体的には、最適シフト量算出部104は、図1の構成では外部から入力する視差情報、また図2に示す構成では視差推定部115から入力する視差情報に基づいて、
クロストーク量、
奥行き感(≒観察者の認識する被写体距離)
これらの情報を考慮して、仮想視点画像に対する最適なシフト量を決定する処理を実行する。
Specifically, the optimum shift amount calculation unit 104 is based on the disparity information input from the outside in the configuration of FIG. 1 and the disparity information input from the disparity estimation unit 115 in the configuration shown in FIG.
Crosstalk amount,
Depth (≈ subject distance recognized by the observer)
Considering these pieces of information, a process for determining the optimum shift amount for the virtual viewpoint image is executed.

最適シフト量算出部104は、予め記憶部に保持された例えば図7に示すデータを記憶部から取得して、このデータに基づいて最適視差量の算出を実行する。
図7に示すデータについて説明する。
図7は、入力LR画像におけるある1つの対応点の1画素に関するデータ例を示している。
例えば視差の設定された画像のある画素、すなわち、視差:x=dの画素について、様々なシフト量Δdを設定した場合の奥行き感D(=観察者の認識する被写体距離)の変化と、クロストーク量Cの変化を示す図である。
クロストークは、先に説明したように、左眼に右眼用の画像(右視点画像)が、右眼に左眼用の画像(左視点画像)が入ってしまう逆視や、左視点画像と右視点画像が混ざる現象である。従って、クロストーク量が少ない方が好ましい画像である。
The optimum shift amount calculation unit 104 obtains, for example, the data shown in FIG. 7 stored in the storage unit in advance from the storage unit, and calculates the optimum parallax amount based on this data.
The data shown in FIG. 7 will be described.
FIG. 7 shows an example of data related to one pixel at one corresponding point in the input LR image.
For example, with respect to a certain pixel of an image for which parallax is set, that is, a pixel with parallax: x = d, a change in the depth sensation D (= object distance recognized by the observer) when various shift amounts Δd are set, It is a figure which shows the change of the talk amount C. FIG.
As described above, the crosstalk is a reverse viewing or left viewpoint image in which an image for the right eye (right viewpoint image) enters the left eye and an image for the left eye (left viewpoint image) enters the right eye. And the right viewpoint image. Therefore, a smaller crosstalk amount is a preferable image.

横軸に「視差x=d+Δd」
縦軸に「奥行き感D」と、「クロストーク量C」
これらの関係データを示している。
シフト量は、例えば、画素を水平方向に左移動するシフト処理を−方向のシフト処理、右方向に移動するシフト処理を+方向のシフト処理として示している。
さらに、クロストーク量が、予め既定した値以下の範囲を快適視差範囲として規定する。
この快適視差範囲は、例えば図に示すように、
視差x=x1〜x2
この範囲に設定する。
“Parallax x = d + Δd” on the horizontal axis
“Vertical D” and “Crosstalk C” on the vertical axis
These relational data are shown.
The shift amount indicates, for example, a shift process for moving a pixel to the left in the horizontal direction as a shift process in the-direction and a shift process for moving the pixel in the right direction as a shift process in the + direction.
Further, a range in which the crosstalk amount is equal to or less than a predetermined value is defined as a comfortable parallax range.
This comfortable parallax range is, for example, as shown in the figure.
Parallax x = x1 to x2
Set this range.

視差と奥行き感D(=観察者の認識する被写体距離)との対応関係について、図8を参照して説明する。
図8には、
(a)視差<0
(b)視差=0
(c)視差>0
これらの3つの態様の視差を持つLR画像の観察状態を示している。
A correspondence relationship between the parallax and the sense of depth D (= the subject distance recognized by the observer) will be described with reference to FIG.
In FIG.
(A) Parallax <0
(B) Parallax = 0
(C) Parallax> 0
The observation state of the LR image having the parallax of these three modes is shown.

図に示す表示面301は、ディスプレイの表示面である。
この表示面に、左視点画像(L画像)と、右視点画像(R画像)の同一被写体の画像が水平方向に位置をずらして表示されることで視差が発生し、観察位置が表示面の前後に設定されることになる。
A display surface 301 shown in the figure is a display surface of the display.
On the display surface, images of the same subject of the left viewpoint image (L image) and the right viewpoint image (R image) are displayed with their positions shifted in the horizontal direction, and parallax occurs, and the observation position is on the display surface. It will be set back and forth.

図8(b)の視差=0の場合は、2次元表示と同様の表示であり、左視点画像(L画像)と、右視点画像(R画像)の同一被写体の画像が表示面上で位置ずれなく表示される。この場合は、その表示オブジェクトの観察位置312は表示面上となる。   In the case of parallax = 0 in FIG. 8B, the display is the same as the two-dimensional display, and the image of the same subject of the left viewpoint image (L image) and the right viewpoint image (R image) is positioned on the display surface. Displayed without deviation. In this case, the observation position 312 of the display object is on the display surface.

一方、図8(a)の視差<0の場合は、左視点画像(L画像)が左側、右視点画像(R画像)が右側にずれて表示面上で表示される。この表示位置の「ずれ」が視差となり、この場合は、その表示オブジェクトの観察位置は表示面より遠い位置となる。図8(a)に示す観察位置311となる。   On the other hand, when the parallax <0 in FIG. 8A, the left viewpoint image (L image) is shifted to the left side and the right viewpoint image (R image) is shifted to the right side and displayed on the display surface. This “deviation” of the display position becomes parallax, and in this case, the observation position of the display object is a position far from the display surface. The observation position 311 shown in FIG.

一方、図8(c)の視差>0の場合は、左視点画像(L画像)が右側、右視点画像(R画像)が左側にずれて表示面上で表示される。この表示位置の「ずれ」が視差となり、この場合は、その表示オブジェクトの観察位置は表示面より近い位置となる。図8(c)に示す観察位置313となる。   On the other hand, when the parallax> 0 in FIG. 8C, the left viewpoint image (L image) is shifted to the right side and the right viewpoint image (R image) is shifted to the left side and displayed on the display surface. This “displacement” of the display position becomes parallax. In this case, the observation position of the display object is closer to the display surface. The observation position 313 shown in FIG.

このように視差に応じて奥行き感D(=観察者の認識する被写体距離)が変更される。
図8に示す3つのデータから理解されるように、視差を決定しているのは、表示面301に表示されるLR画像の対応画素の位置である。
例えば図8(a)に示す左視点画像(L画像)と右視点画像(R画像)の表示位置を水平方向にシフトすることで、図8(b)の設定や図8(c)の設定が可能となる。すなわちシフト処理によって、奥行き感を変化させることができる。
このシフト処理と奥行き感の対応を示しているのが、図7に示す奥行き感Dのラインである。
Thus, the depth feeling D (= the subject distance recognized by the observer) is changed according to the parallax.
As understood from the three data shown in FIG. 8, it is the position of the corresponding pixel of the LR image displayed on the display surface 301 that determines the parallax.
For example, by shifting the display positions of the left viewpoint image (L image) and the right viewpoint image (R image) shown in FIG. 8A in the horizontal direction, the settings in FIG. 8B and the settings in FIG. Is possible. That is, the sense of depth can be changed by the shift process.
The correspondence between the shift processing and the feeling of depth is a line of the feeling of depth D shown in FIG.

また、例えば入力LR画像に基づいて生成した1つの仮想視点画像に対するシフト処理によって、奥行きレンジを拡大することが可能となる。
この例について図9を参照して説明する。
Also, for example, the depth range can be expanded by a shift process on one virtual viewpoint image generated based on the input LR image.
This example will be described with reference to FIG.

図9には以下の3つのLR画像の視差範囲(奥行きレンジ)を示している。
(1)入力LR画像の視差範囲(奥行きレンジ)
(2)視点内挿処理による仮想視点画像の視差範囲(奥行きレンジ)
(3)上記の(2)の視点内挿処理による仮想視点画像に対してシフト処理を実行して生成したシフト画像の視差範囲(奥行きレンジ)
FIG. 9 shows the following three LR image parallax ranges (depth ranges).
(1) Parallax range (depth range) of input LR image
(2) Parallax range (depth range) of virtual viewpoint image by viewpoint interpolation processing
(3) The parallax range (depth range) of the shift image generated by executing the shift process on the virtual viewpoint image by the viewpoint interpolation process of (2) above.

図9(2)は、入力LR画像の視点より、内側に視点を設定した仮想視点画像における視差範囲(奥行きレンジ)を示している。この視差範囲は、入力LR画像の視差範囲より小さくなる。つまり、視点内挿による仮想視点画像は、奥行きレンジを縮小した画像となる。   FIG. 9B shows a parallax range (depth range) in a virtual viewpoint image in which the viewpoint is set on the inner side than the viewpoint of the input LR image. This parallax range is smaller than the parallax range of the input LR image. That is, a virtual viewpoint image obtained by viewpoint interpolation is an image with a reduced depth range.

この図9(2)に示す仮想視点画像に対して、画像シフトを実行して生成したシフト画像は、図9(3)に示すように、奥行きレンジが拡大される。
すなわち、観察者は画像に含まれるもっとも遠い被写体と最も近い被写体の距離間隔をより大きく感じることが可能となる。
As shown in FIG. 9 (3), the depth range of the shifted image generated by executing the image shift on the virtual viewpoint image shown in FIG. 9 (2) is expanded.
That is, the observer can feel a greater distance between the farthest subject and the nearest subject included in the image.

なお、図10に示すように、
観察者の眼の位置からの被写体距離をLdとしたとき、
被写体距離Ldは、以下の式によって算出される。
Ld=(Ls・de)/(de+x)
ただし、
Ls:観察者の眼から表示面間の距離
de:観察者の左右の眼の間隔
x:d+Δd
d:入力LR画像における視差
Δd:シフト量
である。
As shown in FIG.
When the subject distance from the position of the eyes of the observer is Ld,
The subject distance Ld is calculated by the following equation.
Ld = (Ls · de) / (de + x)
However,
Ls: Distance between the observer's eyes and the display surface de: Distance between the observer's left and right eyes x: d + Δd
d: parallax in input LR image Δd: shift amount

図8〜図10を参照して説明したように、所定の視差を持つ画像に対して、画像のシフト処理を施すことによって、奥行きレンジの拡大効果が得られる。
ただし、シフト量によっては、クロストーク量が増大してしまい、快適な3D画像の観察ができなくなる場合がある。クロストーク量Cは、先に説明したように、左眼に右眼用の画像(右視点画像)が、右眼に左眼用の画像(左視点画像)が入ってしまう逆視や、左視点画像と右視点画像が混ざる現象である。
このクロストーク量Cは、図7に示すように視差の絶対値が大きくなるにつれ、すなわち、視差=0の位置から離れるにしたがって大きくなる傾向がある。
ただし、このクロストーク量は、3D画像を表示するディスプレイによって異なる。
As described with reference to FIGS. 8 to 10, the depth range expansion effect can be obtained by performing image shift processing on an image having a predetermined parallax.
However, depending on the shift amount, the crosstalk amount may increase, and a comfortable 3D image may not be observed. As described above, the amount of crosstalk C is the reverse viewing or the left eye image in which the right eye image (right viewpoint image) enters the left eye and the left eye image (left viewpoint image) enters the right eye. This is a phenomenon in which the viewpoint image and the right viewpoint image are mixed.
As shown in FIG. 7, the crosstalk amount C tends to increase as the absolute value of parallax increases, that is, as the distance from the position where parallax = 0 is increased.
However, the amount of crosstalk varies depending on the display that displays the 3D image.

最適シフト量算出部104は、図7に示すデータ、すなわち、
シフト量(Δd)のシフト処理によって調整可能な視差(x)と奥行き感(D)との対応関係、
シフト量(Δd)のシフト処理によって調整可能な視差(x)とクロストーク量(C)との対応関係、
これらの対応データを考慮して、快適視差範囲でのシフト量を決定する。
なお、図7に示すデータ、すなわち、
視差xと、奥行き感Dとの対応関係データ、
視差xと、クロストーク量Cとの対応関係データ、
これらの関係データは、予め計測あるいは算出して、画像処理装置の記憶部に格納しておく。
また、所定の奥行き感Dが得られ、さらに、クロストーク量が所定の値以下となる視差範囲を快適視差範囲として規定しておく。例えば、図7に示す視差x=x1〜x2の範囲を快適視差範囲として、この快適視差範囲情報を記憶部に格納しておく。
The optimum shift amount calculation unit 104 has the data shown in FIG.
Correspondence between parallax (x) and depth (D) that can be adjusted by shift processing of the shift amount (Δd),
Correspondence between parallax (x) and crosstalk amount (C) that can be adjusted by shift processing of shift amount (Δd),
The shift amount in the comfortable parallax range is determined in consideration of these correspondence data.
Note that the data shown in FIG.
Correspondence data between the parallax x and the sense of depth D;
Correspondence data between the parallax x and the crosstalk amount C;
These relational data are measured or calculated in advance and stored in the storage unit of the image processing apparatus.
In addition, a parallax range in which a predetermined sense of depth D is obtained and the crosstalk amount is equal to or less than a predetermined value is defined as a comfortable parallax range. For example, the range of parallax x = x1 to x2 shown in FIG. 7 is set as a comfortable parallax range, and this comfortable parallax range information is stored in the storage unit.

最適シフト量算出部104は、これらのデータ、すなわち、
視差xと、奥行き感Dとの対応関係データ、
視差xと、クロストーク量Cとの対応関係データ、
快適視差範囲情報:視差x=x1〜x2、
これらのデータを記憶部から取得して、最適なシフト量を決定する。
The optimum shift amount calculation unit 104 stores these data, that is,
Correspondence data between the parallax x and the sense of depth D;
Correspondence data between the parallax x and the crosstalk amount C;
Comfortable parallax range information: parallax x = x1 to x2
These data are acquired from the storage unit, and the optimum shift amount is determined.

シフト量の決定処理は、以下のアルゴリズムに従って行う。
(ステップ1)既定の評価関数を使用して画素ごとに評価値sを算出する。
(ステップ2)各画素の評価値sを合計して1フレームの評価値Sを算出する。
(ステップ3)画像の視差調整のために実行するLR画像のいずれか一方の画像の水平方向のシフト量をΔdとして、図7に示す既定の快適視差範囲内の設定可能なシフト量Δdに基づく画像フレーム単位の評価値S(Δd)を算出する。
(ステップ4)快適視差範囲内の設定可能なシフト量Δdに応じて算出される画像フレーム単位の評価値S(Δd)中、最大の評価値となるシフト量Δd'を、最適シフト量とする。
The shift amount determination process is performed according to the following algorithm.
(Step 1) An evaluation value s is calculated for each pixel using a predetermined evaluation function.
(Step 2) The evaluation value s of each pixel is summed to calculate an evaluation value S for one frame.
(Step 3) Based on the settable shift amount Δd within the predetermined comfortable parallax range shown in FIG. 7, where Δd is the horizontal shift amount of one of the LR images to be executed for parallax adjustment of the image An evaluation value S (Δd) for each image frame is calculated.
(Step 4) Among the evaluation values S (Δd) in units of image frames calculated according to the settable shift amount Δd within the comfortable parallax range, the shift amount Δd ′ that is the maximum evaluation value is set as the optimum shift amount. .

最適シフト量算出部104は、上記のアルゴリズムに従って、最適シフト量Δd'を生成して仮想視点画像生成部105に出力する。
仮想視点画像生成部105は、入力LR画像に基づいて生成した仮想視点画像に対して、最適シフト量Δd'を適用した水平方向シフト処理を実行して最終的な仮想視点画像を生成する。
The optimal shift amount calculation unit 104 generates an optimal shift amount Δd ′ according to the above algorithm and outputs it to the virtual viewpoint image generation unit 105.
The virtual viewpoint image generation unit 105 generates a final virtual viewpoint image by executing horizontal shift processing to which the optimal shift amount Δd ′ is applied to the virtual viewpoint image generated based on the input LR image.

上記の(ステップ1)において利用する評価関数について説明する。画素単位の評価値sは、例えば以下の評価関数によって算出する。
s=α・D(d+Δd)−β・C(d+Δd)
なお、
α,βは、予め設定した重み係数
Dは奥行き感データ(図7参照)、
Cはクロストーク量(図7参照)、
dは視差情報、
Δdはシフト量を示す変数、
である。
図7に示す設定で、
視差x=d+Δdであり、
x=x1〜x2の範囲で、変数Δdを設定して各シフト量Δdの値に対応する評価値sを算出する。
The evaluation function used in the above (Step 1) will be described. The evaluation value s for each pixel is calculated by the following evaluation function, for example.
s = α · D (d + Δd) −β · C (d + Δd)
In addition,
α and β are preset weighting factors D are depth sense data (see FIG. 7),
C is the amount of crosstalk (see FIG. 7),
d is parallax information,
Δd is a variable indicating the shift amount,
It is.
With the settings shown in FIG.
Parallax x = d + Δd,
The variable Δd is set in the range of x = x1 to x2, and the evaluation value s corresponding to the value of each shift amount Δd is calculated.

視差情報dは、画素単位の視差情報であり、図1の構成では、視差情報入力部1103から入力され、図2の構成では視差推定部115から入力される。
奥行き感データDと、クロストーク量Cは、入力される視差情報dに基づいて、記憶部から取得する図7に示す関係データに基づいて算出される。
The disparity information d is disparity information for each pixel, and is input from the disparity information input unit 1103 in the configuration of FIG. 1 and input from the disparity estimation unit 115 in the configuration of FIG.
The depth sensation data D and the crosstalk amount C are calculated based on the relation data shown in FIG. 7 acquired from the storage unit based on the input parallax information d.

Δdは変数であり、図7に示す既定の快適視差範囲内で設定される。
各シフト量Δdに基づく画像フレームの画素単位の評価値s(Δd)を算出し、さらに、1フレームの画像全体の画素の評価値s(Δd)の加算値を、画像フレーム単位の評価値S(Δd)として算出する。
Δd is a variable and is set within a predetermined comfortable parallax range shown in FIG.
An evaluation value s (Δd) for each pixel of the image frame based on each shift amount Δd is calculated, and an addition value of the evaluation value s (Δd) for the pixels of the entire image of one frame is calculated as an evaluation value S for each image frame. Calculate as (Δd).

なお、画素単位の評価値s(Δd)の単純な加算値を、画像フレーム単位の評価値S(Δd)として算出する構成としてもよいが、各画素の評価値に対してさらに重み付けを行って重み付け後の評価値の加算値を画像フレーム全体の評価値として算出してもよい。
重み付けは、例えば、注目領域、例えば画像の中心部分やあるいは人物領域などに対する重みを大きくする設定などが有効である。具体的には、「Visual Attention」の「saliency map」などを利用して注目領域に大きい重み例数を設定して加算する処理などが可能である。
Note that a simple addition value of the evaluation value s (Δd) in pixel units may be calculated as the evaluation value S (Δd) in image frame units. However, the evaluation value of each pixel is further weighted. An addition value of the weighted evaluation values may be calculated as an evaluation value for the entire image frame.
As the weighting, for example, a setting for increasing the weight for the attention area, for example, the central portion of the image or the person area is effective. Specifically, it is possible to perform processing of setting a large number of weight examples in the attention area by using “saliency map” of “Visual Attention” and the like.

このようにして、快適視差範囲内で設定可能なシフト量Δdに応じて算出される画像フレーム単位の評価値S(Δd)中、最大の評価値となるシフト量Δd'を、最適シフト量とする。   In this way, among the evaluation values S (Δd) for each image frame calculated according to the shift amount Δd that can be set within the comfortable parallax range, the shift amount Δd ′ that is the maximum evaluation value is determined as the optimum shift amount. To do.

最適シフト量算出部104は、このように、最適シフト量Δd'を生成して、仮想視点画像生成部105に出力する。仮想視点画像生成部105は、最適シフト量Δd'をLR画像に基づいて生成した仮想視点画像に対する水平方向シフト量として適用したシフト画像を生成し、これを最終的に出力する仮想視点画像とする。   The optimal shift amount calculation unit 104 thus generates the optimal shift amount Δd ′ and outputs it to the virtual viewpoint image generation unit 105. The virtual viewpoint image generation unit 105 generates a shift image in which the optimal shift amount Δd ′ is applied as a horizontal shift amount with respect to the virtual viewpoint image generated based on the LR image, and uses this as a virtual viewpoint image to be finally output. .

このような画像シフトにより、クロストーク量を所定値以下に抑えた快適視差範囲内で、所定の奥行き感を実現する仮想視点画像の生成が可能となる。   By such an image shift, it is possible to generate a virtual viewpoint image that realizes a predetermined sense of depth within a comfortable parallax range in which the crosstalk amount is suppressed to a predetermined value or less.

最適シフト量算出部104は、先に図7に示す快適視差範囲内のシフト量であり、かつ画像フレームの構成画素の評価値sのトータルとして得られる画像単位の評価値Sが最大となるシフト量Δd'を決定する。   The optimal shift amount calculation unit 104 is a shift that is the shift amount within the comfortable parallax range shown in FIG. 7 and has the maximum evaluation value S for each image obtained as a total of the evaluation values s of the constituent pixels of the image frame. The quantity Δd ′ is determined.

このシフト量Δd'を適用したシフト処理によって、快適視差範囲内でかつ十分な奥行き感を持つ仮想視点画像を生成して出力することが可能となる。   By the shift process using this shift amount Δd ′, it is possible to generate and output a virtual viewpoint image within a comfortable parallax range and having a sufficient sense of depth.

[5.仮想視点画像生成部の処理について]
次に、図1、図2に示す仮想視点画像生成部105の具体的処理例について説明する。
仮想視点画像生成部105は、
左視点画像(L画像)入力部101からL画像、
右視点画像(R画像)入力部102からR画像、
視差推定部103から視差情報、
最適シフト量算出部104から最適シフト量、
これらの各情報を入力して、仮想視点画像を生成する。
[5. About processing of virtual viewpoint image generation unit]
Next, a specific processing example of the virtual viewpoint image generation unit 105 illustrated in FIGS. 1 and 2 will be described.
The virtual viewpoint image generation unit 105
From the left viewpoint image (L image) input unit 101, an L image,
R image from the right viewpoint image (R image) input unit 102,
Parallax information from the parallax estimation unit 103,
Optimal shift amount from the optimal shift amount calculation unit 104,
Each of these pieces of information is input to generate a virtual viewpoint image.

仮想視点画像生成部105は、左視点画像(L画像)入力部101からL画像と、右視点画像(R画像)入力部102からR画像を適用して仮想視点画像を生成する。まず、先に、図4〜図6を参照して説明した処理に従って、予め決められた数(N)の仮想視点画像を生成する。
さらに、この仮想視点画像に対するシフト処理を実行する。すなわち、最適シフト量算出部104から入力する最適シフト量Δd'を仮想視点画像の構成画素の水平方向のシフト量として適用したシフト処理を実行して、これを出力する仮想視点画像とする。
The virtual viewpoint image generation unit 105 applies the L image from the left viewpoint image (L image) input unit 101 and the R image from the right viewpoint image (R image) input unit 102 to generate a virtual viewpoint image. First, a predetermined number (N) of virtual viewpoint images are generated according to the processing described above with reference to FIGS.
Further, a shift process is performed on the virtual viewpoint image. That is, a shift process in which the optimal shift amount Δd ′ input from the optimal shift amount calculation unit 104 is applied as the horizontal shift amount of the constituent pixels of the virtual viewpoint image is executed, and this is set as a virtual viewpoint image to be output.

この処理により、快適視差範囲内でかつ十分な奥行き感を持つ仮想視点画像を生成して出力することが可能となる。   By this processing, it is possible to generate and output a virtual viewpoint image having a sufficient depth feeling within a comfortable parallax range.

なお、前述したように、本開示の画像処理装置の生成する表示画像は、ユーザがメガネを装着しなくても立体画像を視聴することができる裸眼3D表示装置における表示画像である。   Note that, as described above, the display image generated by the image processing device of the present disclosure is a display image in a naked-eye 3D display device that allows a user to view a stereoscopic image without wearing glasses.

図1、図2に示す表示部110は、裸眼3D表示を行う表示部であり、ディスプレイ面に例えばレンチキュラシートや、パララックスバリア(視差バリア)を備え、視聴位置によって左眼と右眼に入る画像を制御可能とした表示部である。
表示制御部106は、仮想視点画像生成部105の生成した仮想視点画像を表示部110に出力する。
なお、表示制御部106は、表示部110の表示構成に応じた表示情報を生成する。
The display unit 110 illustrated in FIGS. 1 and 2 is a display unit that performs naked-eye 3D display. The display unit 110 includes, for example, a lenticular sheet and a parallax barrier (parallax barrier) on the display surface, and enters the left eye and the right eye depending on the viewing position. This is a display unit capable of controlling an image.
The display control unit 106 outputs the virtual viewpoint image generated by the virtual viewpoint image generation unit 105 to the display unit 110.
The display control unit 106 generates display information according to the display configuration of the display unit 110.

なお、画像処理装置は、例えば撮像部を備えたカメラ等の撮像装置、PC、テレビなどの表示装置として構成することも可能であり、これらの装置として構成する場合は各装置に応じた機能を備えた構成とする。
例えばカメラの場合、異なる視点からの画像としてのLR画像を撮影する撮像部を有し、撮像部から入力するLR画像を利用して多視点画像を生成する構成とする。
Note that the image processing device can be configured as an imaging device such as a camera provided with an imaging unit, a display device such as a PC or a television, and when configured as these devices, functions corresponding to each device are provided. It is set as the structure provided.
For example, in the case of a camera, an imaging unit that captures an LR image as an image from a different viewpoint is used, and a multi-viewpoint image is generated using the LR image input from the imaging unit.

[6.本開示の構成のまとめ]
以上、特定の実施例を参照しながら、本開示の実施例について詳解してきた。しかしながら、本開示の要旨を逸脱しない範囲で当業者が実施例の修正や代用を成し得ることは自明である。すなわち、例示という形態で本発明を開示してきたのであり、限定的に解釈されるべきではない。本開示の要旨を判断するためには、特許請求の範囲の欄を参酌すべきである。
[6. Summary of composition of the present disclosure]
As described above, the embodiments of the present disclosure have been described in detail with reference to specific embodiments. However, it is obvious that those skilled in the art can make modifications and substitutions of the embodiments without departing from the gist of the present disclosure. In other words, the present invention has been disclosed in the form of exemplification, and should not be interpreted in a limited manner. In order to determine the gist of the present disclosure, the claims should be taken into consideration.

なお、本明細書において開示した技術は、以下のような構成をとることができる。
(1) 3次元画像表示に適用する左眼用の画像信号である左視点画像(L画像)を入力する左視点画像入力部と、
3次元画像表示に適用する右眼用の画像信号である右視点画像(R画像)を入力する右視点画像入力部と、
前記左視点画像(L画像)と、前記右視点画像(R画像)と、前記左視点画像(L画像)と右視点画像(R画像)の視差情報を入力して、快適視差範囲内の画像シフト量の最適値を算出する最適シフト量算出部と、
入力LR画像の視点以外の視点画像を含む仮想視点画像を生成する仮想視点画像生成部を有し、
前記最適シフト量算出部は、視差量と立体感との対応関係データと、視差量とクロストーク量との対応関係データを利用して、予め既定したクロストーク量以下の範囲内の最適シフト量を算出し、
前記仮想視点画像生成部は、
入力LR画像に基づいて生成した仮想視点画像に対して、前記最適シフト量算出部の算出した最適シフト量に従った画像シフト処理を施して最終的な出力用仮想視点画像を生成する画像処理装置。
The technology disclosed in this specification can take the following configurations.
(1) a left viewpoint image input unit that inputs a left viewpoint image (L image) that is an image signal for the left eye applied to three-dimensional image display;
A right viewpoint image input unit for inputting a right viewpoint image (R image) that is an image signal for the right eye applied to three-dimensional image display;
The parallax information of the left viewpoint image (L image), the right viewpoint image (R image), the left viewpoint image (L image), and the right viewpoint image (R image) is input, and the image within the comfortable parallax range An optimum shift amount calculation unit for calculating an optimum value of the shift amount;
A virtual viewpoint image generation unit that generates a virtual viewpoint image including a viewpoint image other than the viewpoint of the input LR image;
The optimal shift amount calculation unit uses the correspondence data between the parallax amount and the stereoscopic effect, and the correspondence data between the parallax amount and the crosstalk amount, so that the optimum shift amount within a predetermined range of the crosstalk amount or less is used. To calculate
The virtual viewpoint image generation unit
An image processing device that performs image shift processing according to the optimal shift amount calculated by the optimal shift amount calculation unit on a virtual viewpoint image generated based on an input LR image to generate a final output virtual viewpoint image .

(2)前記最適シフト量算出部は、視差量と立体感との対応関係データと、視差量とクロストーク量との対応関係データを利用して、各画素対応の画素対応評価値sを算出し、さらに画像全体の構成画素の画素対応評価値sを加算した画像単位の画像単位評価値Sを算出して、画像単位評価値Sが最大となるシフト量を最適シフト量として算出する前記(1)に記載の画像処理装置。
(3)前記最適シフト量算出部は、視差量と立体感との対応関係データと、視差量とクロストーク量との対応関係データを利用して、各画素対応の画素対応評価値sを算出し、さらに画像全体の構成画素の画素対応評価値sに対して、画像領域単位の重み付けを行う重み係数を乗算して加算した各シフト量に応じた画像単位評価値Sを算出して、画像単位評価値Sが最大となるシフト量を最適シフト量として算出する前記(1)または(2)に記載の画像処理装置。
(2) The optimum shift amount calculation unit calculates a pixel correspondence evaluation value s corresponding to each pixel by using correspondence data between the parallax amount and the stereoscopic effect and correspondence data between the parallax amount and the crosstalk amount. Further, the image unit evaluation value S of the image unit obtained by adding the pixel correspondence evaluation values s of the constituent pixels of the entire image is calculated, and the shift amount that maximizes the image unit evaluation value S is calculated as the optimal shift amount. The image processing apparatus according to 1).
(3) The optimum shift amount calculation unit calculates a pixel correspondence evaluation value s corresponding to each pixel by using correspondence data between the parallax amount and the stereoscopic effect and correspondence data between the parallax amount and the crosstalk amount. Further, an image unit evaluation value S corresponding to each shift amount obtained by multiplying the pixel corresponding evaluation value s of the constituent pixels of the entire image by a weighting coefficient for performing weighting in units of the image area and adding it is calculated. The image processing apparatus according to (1) or (2), wherein a shift amount that maximizes the unit evaluation value S is calculated as an optimal shift amount.

(4)前記最適シフト量算出部は、クロストーク量が予め規定した値以下の範囲を快適視差範囲として、該快適視差範囲内で、シフト量を変化させて、各シフト量に応じた画素対応評価値sを算出し、さらに画像全体の構成画素の画素対応評価値sを加算した、シフト量に応じた画像単位評価値Sを算出して、画像単位評価値Sが最大となるシフト量を最適シフト量として算出する前記(1)〜(3)いずれかに記載の画像処理装置。
(5)前記最適シフト量算出部は、クロストーク量が予め規定した値以下の範囲を快適視差範囲として、該快適視差範囲内で、シフト量を変化させて、各シフト量に応じた画素対応評価値sを算出し、さらに画像全体の構成画素の画素対応評価値sに対して、画像領域単位の重み付けを行う重み係数を乗算して加算した各シフト量に応じた画像単位評価値Sを算出して、画像単位評価値Sが最大となるシフト量を最適シフト量として算出する前記(1)〜(4)いずれかに記載の画像処理装置。
(4) The optimum shift amount calculation unit sets a range in which the crosstalk amount is equal to or less than a predetermined value as a comfortable parallax range, changes the shift amount within the comfortable parallax range, and supports pixels corresponding to each shift amount An evaluation value s is calculated, and an image-unit evaluation value S corresponding to the shift amount is calculated by adding the pixel-corresponding evaluation values s of the constituent pixels of the entire image. The image processing apparatus according to any one of (1) to (3), which is calculated as an optimal shift amount.
(5) The optimum shift amount calculation unit sets a range in which the crosstalk amount is equal to or less than a predetermined value as a comfortable parallax range, changes the shift amount within the comfortable parallax range, and supports pixels corresponding to each shift amount An evaluation value s is calculated, and an image unit evaluation value S corresponding to each shift amount obtained by multiplying the pixel corresponding evaluation value s of the constituent pixels of the entire image by a weighting coefficient for performing weighting in units of image areas is added. The image processing apparatus according to any one of (1) to (4), wherein the shift amount that calculates and maximizes the image unit evaluation value S is calculated as the optimum shift amount.

(6)前記画像処理装置は、さらに、前記左視点画像(L画像)と右視点画像(R画像)から視差情報を生成する視差推定部を有し、前記仮想視点画像生成部は、前記左視点画像(L画像)と、前記右視点画像(R画像)と、前記視差情報と、前記最適シフト量を入力して、入力LR画像の視点以外の視点画像を含む仮想視点画像を生成する前記(1)〜(5)いずれかに記載の画像処理装置。   (6) The image processing apparatus further includes a parallax estimation unit that generates parallax information from the left viewpoint image (L image) and the right viewpoint image (R image), and the virtual viewpoint image generation unit includes the left viewpoint image (L image) The viewpoint image (L image), the right viewpoint image (R image), the parallax information, and the optimum shift amount are input to generate a virtual viewpoint image including a viewpoint image other than the viewpoint of the input LR image. The image processing apparatus according to any one of (1) to (5).

さらに、上記した装置等において実行する処理の方法や、処理を実行させるプログラムも本開示の構成に含まれる。   Furthermore, the configuration of the present disclosure includes a method of processing executed in the above-described apparatus and the like, and a program for executing the processing.

また、明細書中において説明した一連の処理はハードウェア、またはソフトウェア、あるいは両者の複合構成によって実行することが可能である。ソフトウェアによる処理を実行する場合は、処理シーケンスを記録したプログラムを、専用のハードウェアに組み込まれたコンピュータ内のメモリにインストールして実行させるか、あるいは、各種処理が実行可能な汎用コンピュータにプログラムをインストールして実行させることが可能である。例えば、プログラムは記録媒体に予め記録しておくことができる。記録媒体からコンピュータにインストールする他、LAN(Local Area Network)、インターネットといったネットワークを介してプログラムを受信し、内蔵するハードディスク等の記録媒体にインストールすることができる。   The series of processing described in the specification can be executed by hardware, software, or a combined configuration of both. When executing processing by software, the program recording the processing sequence is installed in a memory in a computer incorporated in dedicated hardware and executed, or the program is executed on a general-purpose computer capable of executing various processing. It can be installed and run. For example, the program can be recorded in advance on a recording medium. In addition to being installed on a computer from a recording medium, the program can be received via a network such as a LAN (Local Area Network) or the Internet, and installed on a recording medium such as a built-in hard disk.

なお、明細書に記載された各種の処理は、記載に従って時系列に実行されるのみならず、処理を実行する装置の処理能力あるいは必要に応じて並列的にあるいは個別に実行されてもよい。また、本明細書においてシステムとは、複数の装置の論理的集合構成であり、各構成の装置が同一筐体内にあるものには限らない。   Note that the various processes described in the specification are not only executed in time series according to the description, but may be executed in parallel or individually according to the processing capability of the apparatus that executes the processes or as necessary. Further, in this specification, the system is a logical set configuration of a plurality of devices, and the devices of each configuration are not limited to being in the same casing.

以上、説明したように、本開示の一実施例構成によれば、3次元画像としてのLR画像に基づく仮想視点画像の生成に際して、画像シフト処理を施すことで立体感を強調した視差画像を生成することが可能となる。
具体的には、3次元画像表示に適用する左眼用の画像信号であるL画像と、R画像を入力し、L画像とR画像と、LR画像の視差情報を入力して、快適視差範囲内の画像シフト量の最適値を算出する最適シフト量算出部と、入力LR画像の視点以外の視点画像を含む仮想視点画像を生成する仮想視点画像生成部を有する。最適シフト量算出部は、視差量と立体感との対応関係データと、視差量とクロストーク量との対応関係データを利用して、予め既定したクロストーク量以下の範囲内の最適シフト量を算出し、仮想視点画像生成部は、前記最適シフト量算出部の算出した最適シフト量に従った画像シフト処理を施して最終的な出力用仮想視点画像を生成する。
この処理により、3次元画像としてのLR画像に基づく仮想視点画像の生成に際して、画像シフト処理を施すことで立体感を強調した視差画像を生成することが可能となる。
As described above, according to the configuration of an embodiment of the present disclosure, when generating a virtual viewpoint image based on an LR image as a three-dimensional image, a parallax image with enhanced stereoscopic effect is generated by performing image shift processing. It becomes possible to do.
Specifically, an L image and an R image, which are image signals for the left eye applied to 3D image display, are input, and parallax information of the L image, the R image, and the LR image is input, and a comfortable parallax range is input. An optimal shift amount calculation unit that calculates an optimal value of the image shift amount, and a virtual viewpoint image generation unit that generates a virtual viewpoint image including a viewpoint image other than the viewpoint of the input LR image. The optimum shift amount calculation unit uses the correspondence data between the parallax amount and the stereoscopic effect and the correspondence data between the parallax amount and the crosstalk amount to calculate an optimum shift amount within a predetermined range of the crosstalk amount or less. Then, the virtual viewpoint image generation unit performs an image shift process according to the optimum shift amount calculated by the optimum shift amount calculation unit, and generates a final output virtual viewpoint image.
With this process, when generating a virtual viewpoint image based on an LR image as a three-dimensional image, it is possible to generate a parallax image with enhanced stereoscopic effect by performing an image shift process.

100 画像処理装置
101 左視点画像(L画像)入力部
102 右視点画像(R画像)入力部
103 視差情報入力部
104 最適シフト量算出部
105 仮想視点画像生成部
106 表示制御部
107 表示部
115 視差推定部
121 ブロック
131 入力L画像
132 入力R画像
133 仮想視点画像
301 表示面
311〜313 観察位置
DESCRIPTION OF SYMBOLS 100 Image processing apparatus 101 Left viewpoint image (L image) input part 102 Right viewpoint image (R image) input part 103 Parallax information input part 104 Optimal shift amount calculation part 105 Virtual viewpoint image generation part 106 Display control part 107 Display part 115 Parallax Estimation unit 121 Block 131 Input L image 132 Input R image 133 Virtual viewpoint image 301 Display surface 311 to 313 Observation position

Claims (8)

3次元画像表示に適用する左眼用の画像信号である左視点画像(L画像)を入力する左視点画像入力部と、
3次元画像表示に適用する右眼用の画像信号である右視点画像(R画像)を入力する右視点画像入力部と、
前記左視点画像(L画像)と、前記右視点画像(R画像)と、前記左視点画像(L画像)と右視点画像(R画像)の視差情報を入力して、快適視差範囲内の画像シフト量の最適値を算出する最適シフト量算出部と、
入力LR画像の視点以外の視点画像を含む仮想視点画像を生成する仮想視点画像生成部を有し、
前記最適シフト量算出部は、視差量と立体感との対応関係データと、視差量とクロストーク量との対応関係データを利用して、予め既定したクロストーク量以下の範囲内の最適シフト量を算出し、
前記仮想視点画像生成部は、
入力LR画像に基づいて生成した仮想視点画像に対して、前記最適シフト量算出部の算出した最適シフト量に従った画像シフト処理を施して最終的な出力用仮想視点画像を生成する画像処理装置。
A left viewpoint image input unit for inputting a left viewpoint image (L image) which is an image signal for the left eye applied to three-dimensional image display;
A right viewpoint image input unit for inputting a right viewpoint image (R image) that is an image signal for the right eye applied to three-dimensional image display;
The parallax information of the left viewpoint image (L image), the right viewpoint image (R image), the left viewpoint image (L image), and the right viewpoint image (R image) is input, and the image within the comfortable parallax range An optimum shift amount calculation unit for calculating an optimum value of the shift amount;
A virtual viewpoint image generation unit that generates a virtual viewpoint image including a viewpoint image other than the viewpoint of the input LR image;
The optimal shift amount calculation unit uses the correspondence data between the parallax amount and the stereoscopic effect, and the correspondence data between the parallax amount and the crosstalk amount, so that the optimum shift amount within a predetermined range of the crosstalk amount or less is used. To calculate
The virtual viewpoint image generation unit
An image processing device that performs image shift processing according to the optimal shift amount calculated by the optimal shift amount calculation unit on a virtual viewpoint image generated based on an input LR image to generate a final output virtual viewpoint image .
前記最適シフト量算出部は、
視差量と立体感との対応関係データと、視差量とクロストーク量との対応関係データを利用して、各画素対応の画素対応評価値sを算出し、
さらに画像全体の構成画素の画素対応評価値sを加算した画像単位の画像単位評価値Sを算出して、画像単位評価値Sが最大となるシフト量を最適シフト量として算出する請求項1に記載の画像処理装置。
The optimum shift amount calculation unit
Using the correspondence data between the parallax amount and the stereoscopic effect and the correspondence data between the parallax amount and the crosstalk amount, a pixel correspondence evaluation value s corresponding to each pixel is calculated,
Furthermore, the image unit evaluation value S of the image unit obtained by adding the pixel correspondence evaluation values s of the constituent pixels of the entire image is calculated, and the shift amount that maximizes the image unit evaluation value S is calculated as the optimum shift amount. The image processing apparatus described.
前記最適シフト量算出部は、
視差量と立体感との対応関係データと、視差量とクロストーク量との対応関係データを利用して、各画素対応の画素対応評価値sを算出し、
さらに画像全体の構成画素の画素対応評価値sに対して、画像領域単位の重み付けを行う重み係数を乗算して加算した各シフト量に応じた画像単位評価値Sを算出して、画像単位評価値Sが最大となるシフト量を最適シフト量として算出する請求項1に記載の画像処理装置。
The optimum shift amount calculation unit
Using the correspondence data between the parallax amount and the stereoscopic effect and the correspondence data between the parallax amount and the crosstalk amount, a pixel correspondence evaluation value s corresponding to each pixel is calculated,
Further, the image unit evaluation value S corresponding to each shift amount obtained by multiplying the pixel corresponding evaluation value s of the constituent pixels of the entire image by a weighting coefficient for performing weighting in units of the image area and adding it is calculated. The image processing apparatus according to claim 1, wherein the shift amount that maximizes the value S is calculated as the optimal shift amount.
前記最適シフト量算出部は、
クロストーク量が予め規定した値以下の範囲を快適視差範囲として、該快適視差範囲内で、シフト量を変化させて、各シフト量に応じた画素対応評価値sを算出し、
さらに画像全体の構成画素の画素対応評価値sを加算した、シフト量に応じた画像単位評価値Sを算出して、画像単位評価値Sが最大となるシフト量を最適シフト量として算出する請求項1に記載の画像処理装置。
The optimum shift amount calculation unit
A range where the crosstalk amount is equal to or less than a predetermined value is defined as a comfortable parallax range, the shift amount is changed within the comfortable parallax range, and a pixel corresponding evaluation value s corresponding to each shift amount is calculated,
Further, the image unit evaluation value S corresponding to the shift amount is calculated by adding the pixel correspondence evaluation values s of the constituent pixels of the entire image, and the shift amount that maximizes the image unit evaluation value S is calculated as the optimum shift amount. Item 8. The image processing apparatus according to Item 1.
前記最適シフト量算出部は、
クロストーク量が予め規定した値以下の範囲を快適視差範囲として、該快適視差範囲内で、シフト量を変化させて、各シフト量に応じた画素対応評価値sを算出し、
さらに画像全体の構成画素の画素対応評価値sに対して、画像領域単位の重み付けを行う重み係数を乗算して加算した各シフト量に応じた画像単位評価値Sを算出して、画像単位評価値Sが最大となるシフト量を最適シフト量として算出する請求項1に記載の画像処理装置。
The optimum shift amount calculation unit
A range where the crosstalk amount is equal to or less than a predetermined value is defined as a comfortable parallax range, the shift amount is changed within the comfortable parallax range, and a pixel corresponding evaluation value s corresponding to each shift amount is calculated,
Further, the image unit evaluation value S corresponding to each shift amount obtained by multiplying the pixel corresponding evaluation value s of the constituent pixels of the entire image by a weighting coefficient for performing weighting in units of the image area and adding it is calculated. The image processing apparatus according to claim 1, wherein the shift amount that maximizes the value S is calculated as the optimal shift amount.
前記画像処理装置は、さらに、
前記左視点画像(L画像)と右視点画像(R画像)から視差情報を生成する視差推定部を有し、
前記仮想視点画像生成部は、
前記左視点画像(L画像)と、前記右視点画像(R画像)と、前記視差情報と、前記最適シフト量を入力して、入力LR画像の視点以外の視点画像を含む仮想視点画像を生成する請求項1に記載の画像処理装置。
The image processing apparatus further includes:
A parallax estimation unit that generates parallax information from the left viewpoint image (L image) and the right viewpoint image (R image);
The virtual viewpoint image generation unit
The left viewpoint image (L image), the right viewpoint image (R image), the parallax information, and the optimal shift amount are input to generate a virtual viewpoint image including viewpoint images other than the viewpoint of the input LR image. The image processing apparatus according to claim 1.
画像処理装置において実行する画像処理方法であり、
画像入力部を介して、3次元画像表示に適用する左眼用の画像信号である左視点画像(L画像)と、右眼用の画像信号である右視点画像(R画像)を入力し、
最適シフト量算出部が、前記左視点画像(L画像)と、前記右視点画像(R画像)と、前記左視点画像(L画像)と右視点画像(R画像)の視差情報を入力して、快適視差範囲内の画像シフト量の最適値を算出する最適シフト量算出処理と、
仮想視点画像生成部が、入力LR画像の視点以外の視点画像を含む仮想視点画像を生成する仮想視点画像生成処理を実行し、
前記最適シフト量算出処理は、
視差量と立体感との対応関係データと、視差量とクロストーク量との対応関係データを利用して、予め既定したクロストーク量以下の範囲内の最適シフト量を算出する処理であり、
前記仮想視点画像生成処理は、
入力LR画像に基づいて生成した仮想視点画像に対して、前記最適シフト量算出部の算出した最適シフト量に従った画像シフト処理を施して最終的な出力用仮想視点画像を生成する処理として実行する画像処理方法。
An image processing method executed in an image processing apparatus,
Via the image input unit, a left viewpoint image (L image) that is an image signal for the left eye applied to a three-dimensional image display and a right viewpoint image (R image) that is an image signal for the right eye are input,
An optimal shift amount calculation unit inputs parallax information of the left viewpoint image (L image), the right viewpoint image (R image), the left viewpoint image (L image), and the right viewpoint image (R image). An optimal shift amount calculation process for calculating an optimal value of the image shift amount within the comfortable parallax range;
The virtual viewpoint image generation unit executes a virtual viewpoint image generation process for generating a virtual viewpoint image including a viewpoint image other than the viewpoint of the input LR image,
The optimum shift amount calculation process includes:
A process of calculating an optimum shift amount within a range equal to or less than a predetermined crosstalk amount by using correspondence data between a parallax amount and a stereoscopic effect and correspondence data between a parallax amount and a crosstalk amount.
The virtual viewpoint image generation process includes:
Executed as a process for generating a final output virtual viewpoint image by performing an image shift process according to the optimal shift amount calculated by the optimal shift amount calculation unit on the virtual viewpoint image generated based on the input LR image Image processing method.
画像処理装置において画像処理を実行させるプログラムであり、
画像入力部を介して、3次元画像表示に適用する左眼用の画像信号である左視点画像(L画像)と、右眼用の画像信号である右視点画像(R画像)を入力する処理と、
最適シフト量算出部が、前記左視点画像(L画像)と、前記右視点画像(R画像)と、前記左視点画像(L画像)と右視点画像(R画像)の視差情報を入力して、快適視差範囲内の画像シフト量の最適値を算出する最適シフト量算出処理と、
仮想視点画像生成部が、入力LR画像の視点以外の視点画像を含む仮想視点画像を生成する仮想視点画像生成処理を実行させ、
前記最適シフト量算出処理においては、
視差量と立体感との対応関係データと、視差量とクロストーク量との対応関係データを利用して、予め既定したクロストーク量以下の範囲内の最適シフト量を算出する処理を実行させ、
前記仮想視点画像生成処理においては、
入力LR画像に基づいて生成した仮想視点画像に対して、前記最適シフト量算出部の算出した最適シフト量に従った画像シフト処理を施して最終的な出力用仮想視点画像を生成する処理を実行させるプログラム。
A program for executing image processing in an image processing apparatus;
Processing for inputting a left viewpoint image (L image) that is an image signal for the left eye to be applied to the three-dimensional image display and a right viewpoint image (R image) that is an image signal for the right eye via the image input unit When,
An optimal shift amount calculation unit inputs parallax information of the left viewpoint image (L image), the right viewpoint image (R image), the left viewpoint image (L image), and the right viewpoint image (R image). An optimal shift amount calculation process for calculating an optimal value of the image shift amount within the comfortable parallax range;
The virtual viewpoint image generation unit executes a virtual viewpoint image generation process for generating a virtual viewpoint image including a viewpoint image other than the viewpoint of the input LR image;
In the optimum shift amount calculation process,
Using the correspondence data between the parallax amount and the stereoscopic effect and the correspondence data between the parallax amount and the crosstalk amount, a process for calculating an optimum shift amount within a predetermined range of the crosstalk amount or less is executed.
In the virtual viewpoint image generation process,
The virtual viewpoint image generated based on the input LR image is subjected to image shift processing according to the optimum shift amount calculated by the optimum shift amount calculation unit, and the final output virtual viewpoint image is generated. Program to make.
JP2011228698A 2011-10-18 2011-10-18 Image processing apparatus, image processing method and program Pending JP2013090129A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011228698A JP2013090129A (en) 2011-10-18 2011-10-18 Image processing apparatus, image processing method and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011228698A JP2013090129A (en) 2011-10-18 2011-10-18 Image processing apparatus, image processing method and program

Publications (1)

Publication Number Publication Date
JP2013090129A true JP2013090129A (en) 2013-05-13

Family

ID=48533621

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011228698A Pending JP2013090129A (en) 2011-10-18 2011-10-18 Image processing apparatus, image processing method and program

Country Status (1)

Country Link
JP (1) JP2013090129A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104780354A (en) * 2014-01-14 2015-07-15 索尼公司 Image processing apparatus, image processing method, and program
JP2019500762A (en) * 2015-12-07 2019-01-10 グーグル エルエルシー System and method for multiscopic noise reduction and high dynamic range
CN116320358A (en) * 2023-05-19 2023-06-23 成都工业学院 Parallax image prediction device and method
DE112014002091B4 (en) 2013-04-23 2023-07-06 Calsonic Kansei Corporation heat exchanger

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE112014002091B4 (en) 2013-04-23 2023-07-06 Calsonic Kansei Corporation heat exchanger
CN104780354A (en) * 2014-01-14 2015-07-15 索尼公司 Image processing apparatus, image processing method, and program
JP2019500762A (en) * 2015-12-07 2019-01-10 グーグル エルエルシー System and method for multiscopic noise reduction and high dynamic range
KR20190071011A (en) * 2015-12-07 2019-06-21 구글 엘엘씨 Systems and methods for multiscopic noise reduction and high-dynamic range
KR102142641B1 (en) 2015-12-07 2020-08-07 구글 엘엘씨 Systems and methods for multiscopic noise reduction and high-dynamic range
CN116320358A (en) * 2023-05-19 2023-06-23 成都工业学院 Parallax image prediction device and method
CN116320358B (en) * 2023-05-19 2023-12-01 成都工业学院 Parallax image prediction device and method

Similar Documents

Publication Publication Date Title
US9277207B2 (en) Image processing apparatus, image processing method, and program for generating multi-view point image
US8817073B2 (en) System and method of processing 3D stereoscopic image
JP5625979B2 (en) Display device, display method, and display control device
JP5879713B2 (en) Image processing apparatus, image processing method, and program
JP5402483B2 (en) Pseudo stereoscopic image creation device and pseudo stereoscopic image display system
US9154765B2 (en) Image processing device and method, and stereoscopic image display device
JP5002702B2 (en) Parallax image generation device, stereoscopic video display device, and parallax image generation method
US20140118512A1 (en) Image processing method and image processing apparatus
JP6128442B2 (en) Method and apparatus for stereo-based expansion of stereoscopic images and image sequences {METHOD AND DEVICE FOR STREEO BASE EXTENSION OF STREOSSCOPIC IMAGES AND IMAGE SEQUENCES}
JP2011176800A (en) Image processing apparatus, 3d display apparatus, and image processing method
WO2013054632A1 (en) Image processing device, image processing unit, and program
JP6033625B2 (en) Multi-viewpoint image generation device, image generation method, display device, program, and recording medium
US8976171B2 (en) Depth estimation data generating apparatus, depth estimation data generating method, and depth estimation data generating program, and pseudo three-dimensional image generating apparatus, pseudo three-dimensional image generating method, and pseudo three-dimensional image generating program
US8884951B2 (en) Depth estimation data generating apparatus, depth estimation data generating method, and depth estimation data generating program, and pseudo three-dimensional image generating apparatus, pseudo three-dimensional image generating method, and pseudo three-dimensional image generating program
JP2013090129A (en) Image processing apparatus, image processing method and program
US9082210B2 (en) Method and apparatus for adjusting image depth
JP2012060345A (en) Multi-viewpoint image creation device, multi-viewpoint image creation method and multi-viewpoint image display system
JP2011176822A (en) Image processing apparatus, 3d display apparatus, and image processing method
JP5786807B2 (en) Depth information generation device, depth information generation method, depth information generation program, pseudo stereoscopic image generation device
JP5780214B2 (en) Depth information generation device, depth information generation method, depth information generation program, pseudo stereoscopic image generation device
JP5500092B2 (en) Depth estimation data generation device, depth estimation data generation program, and pseudo-stereoscopic image display device
JP5888140B2 (en) Depth estimation data generation apparatus, pseudo stereoscopic image generation apparatus, depth estimation data generation method, and depth estimation data generation program
JP6056459B2 (en) Depth estimation data generation apparatus, pseudo stereoscopic image generation apparatus, depth estimation data generation method, and depth estimation data generation program
JP6028427B2 (en) Depth information generation device, depth information generation method, depth information generation program, pseudo stereoscopic image generation device
JPWO2012108406A1 (en) Viewpoint image generation apparatus, viewpoint image generation method, and stereoscopic image printing apparatus