JP2014211829A - Image processing apparatus, image processing circuit, image processing program, and image processing method - Google Patents
Image processing apparatus, image processing circuit, image processing program, and image processing method Download PDFInfo
- Publication number
- JP2014211829A JP2014211829A JP2013088847A JP2013088847A JP2014211829A JP 2014211829 A JP2014211829 A JP 2014211829A JP 2013088847 A JP2013088847 A JP 2013088847A JP 2013088847 A JP2013088847 A JP 2013088847A JP 2014211829 A JP2014211829 A JP 2014211829A
- Authority
- JP
- Japan
- Prior art keywords
- pixel
- image
- image processing
- distance
- occlusion area
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T1/00—General purpose image data processing
-
- H04N13/04—
Landscapes
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Image Processing (AREA)
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
- Image Analysis (AREA)
Abstract
Description
本発明は、画像処理装置、画像処理回路、画像処理プログラム、及び画像処理方法に関する。 The present invention relates to an image processing apparatus, an image processing circuit, an image processing program, and an image processing method.
3D(three dimensions)画像を見たときに、違和感又は不快を感じることがある。実空間で人が対象物を見る場合、その人の焦点は、中心視野に在る対象物近傍に合っている。このため、その中心視野から外れたところの物体はピントがずれた状態で認識される。すなわち、実空間において、人からの距離が大きく異なる複数の物体を同程度で認識することは少ない。このため、画像内で深さ(つまり、距離に対応)が大きく異なる複数の物体を見る場合、輻輳と調節との矛盾の程度が大きいため、観察者は疲労感を感じる。 When viewing a 3D (three dimensions) image, the user may feel uncomfortable or uncomfortable. When a person views an object in real space, the person's focus is in the vicinity of the object in the central visual field. For this reason, an object outside the central visual field is recognized in a state of being out of focus. In other words, in a real space, it is rare to recognize a plurality of objects having greatly different distances from a person at the same level. For this reason, when a plurality of objects having greatly different depths (that is, corresponding to distances) are viewed in the image, the observer feels tired because the degree of contradiction between convergence and adjustment is large.
そこで、この状況において輻輳と調節との矛盾の程度を小さく抑えるために、一般的にフィルタリング処理が行われる。このフィルタリング処理では、距離画像が用いられる。距離画像は、例えば、図1に示すような、2つの視点から撮影された2つの画像(以下では、右側の視点から撮影された画像を「右側画像」、左側の視点から撮影された画像を「左側画像」と呼ぶ)から求められる。図1は、左側画像及び右側画像の一例を示す図である。具体的には、右側画像の原点と左側画像の原点とを合わせ、右側画像の基準点の座標と、当該基準点に対応する左側画像の対応点の座標との差(つまり、視差)を、基準点の値とした画像が、「右側距離画像」である。反対に、右側画像の原点と左側画像の原点とを合わせ、左側画像の基準点の座標と、当該基準点に対応する右側画像の対応点の座標との差(つまり、視差)を、基準点の値とした画像が、「左側距離画像」である。図2は、左側距離画像の一例を示す図である。図2に示す左側距離画像は、図1に示す右側画像及び左側画像に基づいて作成したものである。なお、距離画像では、各画素の値(つまり、視差値)が濃淡で示され、濃い程遠くを意味し、薄い程近くを意味する。 Therefore, in order to suppress the degree of contradiction between congestion and adjustment in this situation, a filtering process is generally performed. In this filtering process, a distance image is used. For example, the distance image includes two images taken from two viewpoints (hereinafter, an image taken from the right viewpoint is referred to as a “right image”, and an image taken from the left viewpoint is illustrated in FIG. (Referred to as “left image”). FIG. 1 is a diagram illustrating an example of a left image and a right image. Specifically, the origin of the right image and the origin of the left image are matched, and the difference (that is, parallax) between the coordinates of the reference point of the right image and the coordinates of the corresponding point of the left image corresponding to the reference point is An image having the reference point value is a “right-side distance image”. Conversely, the origin of the right image is aligned with the origin of the left image, and the difference between the coordinates of the reference point of the left image and the coordinates of the corresponding point of the right image corresponding to the reference point (that is, parallax) The image with the value of is the “left distance image”. FIG. 2 is a diagram illustrating an example of the left distance image. The left distance image shown in FIG. 2 is created based on the right image and the left image shown in FIG. In the distance image, the value of each pixel (that is, the parallax value) is indicated by shading, and the darker means farther and the thinner it means closer.
ここで、上記のフィルタリング処理が施された画像の品質を向上させるために、距離画像の精度を向上させることが望まれる。距離画像の精度を向上させるために、距離画像において「オクルージョン領域」を高精度で推定することが望まれる。「オクルージョン領域」とは、右側画像及び左側画像のうちの一方には存在するが他方には存在しない画像領域である。図2において、楕円で示された部分がオクルージョン領域である。 Here, it is desired to improve the accuracy of the distance image in order to improve the quality of the image subjected to the filtering process. In order to improve the accuracy of the distance image, it is desired to estimate the “occlusion region” in the distance image with high accuracy. The “occlusion area” is an image area that exists in one of the right image and the left image but does not exist in the other. In FIG. 2, the portion indicated by an ellipse is an occlusion region.
そして、従来、距離画像内のオクルージョン領域を高精度で推定する方法として、ブロックマッチング処理を行う方法がある。この従来の方法では、図3に示すように、右側距離画像及び左側距離画像のうちの一方を基準として、当該一方の各部分領域が他方に存在するか否かを判定し、存在しない領域をオクルージョン領域として特定する。図3は、従来の、ブロックマッチング処理によるオクルージョン領域の推定方法の説明に供する図である。 Conventionally, there is a method of performing block matching processing as a method of estimating an occlusion region in a distance image with high accuracy. In this conventional method, as shown in FIG. 3, with reference to one of the right distance image and the left distance image, it is determined whether or not each of the one partial region exists in the other, and the non-existing region is determined. Specify as an occlusion area. FIG. 3 is a diagram for explaining a conventional method of estimating an occlusion area by block matching processing.
しかしながら、従来のオクルージョン領域の推定方法では、まず、左側距離画像及び右側距離画像をブロックマッチング処理によって作成し、さらに、左側距離画像と右側距離画像との間でブロックマッチング処理を行う。このブロックマッチング処理は、演算量が多いため、推定処理に多くの時間が掛かってしまう。 However, in the conventional occlusion region estimation method, first, a left distance image and a right distance image are created by block matching processing, and further, block matching processing is performed between the left distance image and the right distance image. Since this block matching process has a large amount of calculation, it takes a long time for the estimation process.
開示の技術は、上記に鑑みてなされたものであって、精度良く且つ高速にオクルージョン領域を推定できる、画像処理装置、画像処理回路、画像処理プログラム、及び画像処理方法を提供することを目的とする。 The disclosed technique has been made in view of the above, and an object thereof is to provide an image processing apparatus, an image processing circuit, an image processing program, and an image processing method capable of estimating an occlusion area with high accuracy and high speed. To do.
開示の態様では、第1の画像と前記第1の画像と視点が異なる第2の画像とに基づく距離画像内で窓を移動させ、各窓内における注目画素に対応する距離と各非注目画素に対応する距離との差の総和に基づいて、前記注目画素がオクルージョン領域の画素であるか否かを判定して、前記オクルージョン領域を推定する。 In the aspect of the disclosure, the window is moved in the distance image based on the first image and the second image having a different viewpoint from the first image, and the distance corresponding to the target pixel in each window and each non-target pixel The occlusion area is estimated by determining whether or not the pixel of interest is a pixel in the occlusion area based on the sum of the differences from the distance corresponding to.
開示の態様によれば、精度良く且つ高速にオクルージョン領域を推定できる。 According to the disclosed aspect, the occlusion area can be estimated with high accuracy and high speed.
以下に、本願の開示する画像処理装置、画像処理回路、画像処理プログラム、及び画像処理方法の実施形態を図面に基づいて詳細に説明する。なお、この実施形態により本願の開示する画像処理装置、画像処理回路、画像処理プログラム、及び画像処理方法が限定されるものではない。また、実施形態において同一の機能を有する構成には同一の符号を付し、重複する説明は省略する。また、実施形態において同等の処理ステップには同一の符号を付し、重複する説明を省略する。 Hereinafter, embodiments of an image processing apparatus, an image processing circuit, an image processing program, and an image processing method disclosed in the present application will be described in detail with reference to the drawings. Note that the image processing apparatus, the image processing circuit, the image processing program, and the image processing method disclosed in the present application are not limited by this embodiment. Moreover, the same code | symbol is attached | subjected to the structure which has the same function in embodiment, and the overlapping description is abbreviate | omitted. In the embodiment, equivalent processing steps are denoted by the same reference numerals, and redundant description is omitted.
[実施例1]
[画像処理装置の構成例]
図4は、実施例1の画像処理装置の一例を示すブロック図である。図4において、画像処理装置10は、取得部11と、推定部12と、補正部13とを有する。
[Example 1]
[Configuration example of image processing apparatus]
FIG. 4 is a block diagram illustrating an example of the image processing apparatus according to the first embodiment. In FIG. 4, the
取得部11は、第1の視点で撮影された第1の画像(例えば、左側画像)と、第1の視点と異なる第2の視点で撮影された第2の画像(例えば、右側画像)とに基づく距離画像(例えば、左側距離画像又は右側距離画像)を取得する。なお、ここでは、画像処理装置10の外部で距離画像が算出されていることを前提として説明するが、これに限定されるものではなく、取得部11が第1の画像及び第2の画像を取得して、取得した第1の画像及び第2の画像に基づいて、距離画像を算出(形成)してもよい。
The
推定部12は、取得部11で取得された距離画像内のオクルージョン領域を、距離画像における隣接画素間の距離変動に基づいて推定する。
The
具体的には、推定部12は、取得部11で取得された距離画像内で「窓」を順次移動させる。窓は、例えば、1つの「注目画素」と注目画素を囲む8つの画素(非注目画素)とを含む9つの画素に対応する大きさを有する。そして、推定部12は、距離画像の或る位置に窓を設定すると、窓の中心に対応する画素を注目画素として、注目画素に対応する距離と各非注目画素に対応する距離との差を算出する。すなわち、8つの差が算出される。そして、推定部12は、算出した8つの差の総和を算出する。そして、推定部12は、算出した総和に基づいて、当該総和に対応する注目画素がオクルージョン領域の画素であるか否かを判定することにより、オクルージョン領域を推定する。
Specifically, the
詳細には、推定部12は、算出した総和が閾値より大きい場合、総和に対応する注目画素をオクルージョン領域の画素であると判定する。一方、推定部12は、算出した総和が閾値以下である場合、総和に対応する注目画素をオクルージョン領域の画素でないと判定する。すなわち、推定部12は、算出した総和が閾値より大きい場合、総和に対応する注目画素が「不安定領域」の画素であると判定し、算出した総和が閾値以下である場合、「安定領域」の画素であると判定する。つまり、「不安定領域」とは、「安定領域」に比べて、距離変動が大きい領域である。そして、推定部12は、「不安定領域」がオクルージョン領域であると判定している。
Specifically, when the calculated sum is larger than the threshold, the
補正部13は、推定部12で推定されたオクルージョン領域に基づいて、距離画像を補正する。
The
[画像処理装置の動作例]
以上の構成を有する画像処理装置10の動作例について説明する。図5は、実施例1の画像処理装置の処理動作の一例を示すフローチャートである。また、図6は、実施例1の画像処理装置によるオクルージョン領域の推定結果の一例を示す図である。
[Operation example of image processing apparatus]
An operation example of the
画像処理装置10において推定部12は、取得部11で取得された距離座像において、初期位置に窓を設定する(ステップS101)。初期位置は、例えば、距離画像の一番左の列(X’座標)で且つ一番下の行(Y’座標)の画素を(0,0)画素とした場合、(1,1)画素に窓の中心を合わせた位置である。
In the
推定部12は、ステップS101で設定した窓内の注目画素に対応する距離と、各非注目画素に対応する距離との差を算出する(ステップS102)。
The
推定部12は、ステップS102で算出した差の総和を算出する(ステップS103)。
The
推定部12は、ステップS103で算出した総和が所定の閾値より大きいか否かを判定する(ステップS104)。
The
推定部12は、総和が閾値より大きい場合(ステップS104肯定)、注目画素がオクルージョン領域の画素であると判定し、注目画素に「1」を設定する(ステップS105)。
When the sum is larger than the threshold value (Yes at Step S104), the
一方、推定部12は、総和が閾値以下である場合(ステップS104否定)、注目画素がオクルージョン領域の画素でないと判定し、注目画素に「0」を設定する(ステップS106)。図6には、各注目画素に対して、オクルージョン領域に関する情報である「1」又は「0」が設定された距離画像の一例が示されている。なお、ここで得られた距離画像には、距離情報に加えて、オクルージョン領域に関する情報が設定されている。
On the other hand, when the sum is equal to or less than the threshold (No at Step S104), the
そして、推定部12は、現在設定している窓の位置が最終位置であるか否かを判定し(ステップS107)、最終位置でない場合(ステップS107否定)、窓の移動ルールに従って窓を移動させる(ステップS108)。そして、推定部12は、移動後の位置でステップS102−S107の処理を繰り返す。ここで、窓の移動ルールは、例えば、窓を1画素ずつ右へ移動させ、窓が距離画像の右端まで行くと窓を距離画像の左端に戻しつつ1画素上に移動させる。そして、最終位置は、例えば、距離画像がM画素×N画素の大きさを有する場合、窓の中心が(M−1,N−1)画素に合わさった位置である。
Then, the
推定部12は、現在設定している窓の位置が最終位置であると判定した場合(ステップS107肯定)、オクルージョン領域の推定処理を終了する。
If the
以上のように本実施例によれば、画像処理装置10において、推定部12は、取得部11で取得された距離画像内で窓を順次移動させる。そして、推定部12は、各窓内における注目画素に対応する距離と各非注目画素に対応する距離との差の総和に基づいて、注目画素がオクルージョン領域の画素であるか否かを判定して、オクルージョン領域を推定する。
As described above, according to the present embodiment, in the
この画像処理装置10の構成により、左側距離画像及び右側距離画像の内の一方を用いてオクルージョン領域を推定できるので、推定処理の演算量を削減することができる。また、各窓内における注目画素に対応する距離と各非注目画素に対応する距離との差の総和という、少ない演算量での算出が可能であり且つ具体的な値を有するパラメータに基づいて、オクルージョン領域を推定することができる。従って、高速に且つ精度良くオクルージョン領域を推定することができる。
With the configuration of the
そして、画像処理装置10において、補正部13は、推定部12で推定されたオクルージョン領域に基づいて、距離画像を補正する。
In the
この画像処理装置10の構成により、推定部12で精度良く推定したオクルージョン領域に基づいて、距離画像を補正できるので、距離画像の精度を向上させることができる。そして、例えば、この精度が向上された距離画像を用いて、右側画像及び左側画像に対してフィルタリング処理を行うことにより、輻輳と調節との矛盾の程度を小さく抑えることができる。この結果として、観察者が感じる疲労感を軽減させることができる3D画像を提供することができる。
With this configuration of the
[実施例2]
実施例2では、オクルージョン領域の推定幅を算出し、当該推定幅に基づいて、推定したオクルージョン領域を補正する。
[Example 2]
In the second embodiment, the estimated width of the occlusion area is calculated, and the estimated occlusion area is corrected based on the estimated width.
[画像処理装置の構成例]
図7は、実施例2の画像処理装置の一例を示すブロック図である。図7において、画像処理装置30は、幅算出部31と、補正部32とを有する。
[Configuration example of image processing apparatus]
FIG. 7 is a block diagram illustrating an example of an image processing apparatus according to the second embodiment. In FIG. 7, the
幅算出部31は、推定部12で推定されたオクルージョン領域を挟んで両側(つまり、左右)に位置する第1の画素及び第2の画素のそれぞれに対応する距離に基づいて、オクルージョン領域の推定幅を算出する。幅算出部31は、推定部12で推定されたオクルージョン領域の各行(つまり、Y’座標)について、オクルージョン領域の推定幅を算出する。以下では、上記の第1の画素及び第2の画素を「左側画素」及び「右側画素」とそれぞれ呼ぶことがある。また、「左側画素」に対応する距離を「第1の距離」、「右側画素」に対応する距離を「第2の距離」と呼ぶことがある。
The
補正部32は、幅算出部31で算出された推定幅に基づいて、推定部12で推定されたオクルージョン領域を補正する。幅算出部31は、推定部12で推定されたオクルージョン領域の各行(つまり、Y’座標)について、オクルージョン領域を補正する。
The
そして、補正部32は、補正したオクルージョン領域に基づいて、距離画像を補正する。
Then, the
[画像処理装置の動作例]
以上の構成を有する画像処理装置30の動作例について説明する。図8は、実施例2の画像処理装置の処理動作の一例を示すフローチャートである。図9及び図10は、実施例2の画像処理装置における推定幅の算出処理の説明に供する図である。
[Operation example of image processing apparatus]
An operation example of the
画像処理装置30において幅算出部31は、推定部12で推定されたオクルージョン領域に対して、「注目部分領域」を初期位置に設定する(ステップS201)。注目部分領域は、オクルージョン領域の内でY’座標が同一の画素群である。そして、注目部分領域の初期位置は、推定部12で推定されたオクルージョン領域の内のY’座標が最小値である位置である(図9参照)。
In the
幅算出部31は、ステップS201で設定した注目部分領域についての、左側画素に対応する第1の距離と、右側画素に対応する第2の距離とを特定する(ステップS202)。すなわち、幅算出部31は、図9に示すように、初期位置の注目部分領域について、画素p1に対応する第1の距離と、画素p2に対応する第2の距離とを特定する。
The
幅算出部31は、ステップS202で特定した第1の距離及び第2の距離に基づいて、推定幅αを算出する(ステップS203)。具体的には、幅算出部31は、第1の距離及び第2の距離の内で大きい方をZ1とし、小さい方をZ0とし、次の式(1)に代入することにより、推定幅αを算出する。
α=b×(Z1−Z0)/Z0 ・・・(1)
bは、左側画像を撮影した左側カメラと、右側画像を撮影した右側カメラとの離間距離である。
The
α = b × (Z1-Z0) / Z0 (1)
b is the distance between the left camera that captured the left image and the right camera that captured the right image.
ここで、図10に示すように、後方物体(背景)の手前の位置(図10におけるP(X,Z))に前方物体(前景)が存在する場合、カメラ位置から前方物体までの距離(Z0)と、カメラ位置から後方物体までの距離(Z1)と、左右カメラ間の離間距離bとに基づいて、推定幅αが決まる。なお、図10において、Olは、左側投影面を示し、Orは、右側投影面を示す。また、fは、左側カメラの位置から左側投影面までの距離、又は、右側カメラの位置から右側投影面までの距離である。また、Xlは、左側カメラの位置とP(X,Z)とを結ぶ線分と左側投影面との交点と、左側投影面の中心点との距離である。また、Xrは、右側カメラの位置とP(X,Z)とを結ぶ線分と右側投影面との交点と、右側投影面の中心点との距離である。 Here, as shown in FIG. 10, when a front object (foreground) exists at a position in front of the rear object (background) (P (X, Z) in FIG. 10), the distance from the camera position to the front object ( Z0), the distance from the camera position to the rear object (Z1), and the separation distance b between the left and right cameras are determined. In FIG. 10, O 1 indicates the left projection plane, and Or indicates the right projection plane. F is the distance from the left camera position to the left projection plane, or the distance from the right camera position to the right projection plane. Xl is the distance between the intersection of the line segment connecting the position of the left camera and P (X, Z) and the left projection plane and the center point of the left projection plane. Xr is the distance between the intersection of the line segment connecting the right camera position and P (X, Z) and the right projection plane and the center point of the right projection plane.
図8に戻り、補正部32は、設定した注目部分領域の幅と推定幅αとを比較し、設定した注目部分領域の幅が推定幅αより大きいか否かを判定する(ステップS204)。ここでは、例えば、ステップS203で算出された推定幅αそのものが用いられるのではなく、ステップS203で算出された実空間の推定幅αが距離画像空間に変換された値が用いられてもよい。
Returning to FIG. 8, the
補正部32は、注目部分領域の幅が推定幅αより大きい場合(ステップS204肯定)、推定幅αに基づいて、オクルージョン領域を補正する(ステップS205)。すなわち、補正部32は、注目部分領域の幅が推定幅αになるまで、注目部分領域の端の画素から画素の状態を不安定領域の画素から安定領域の画素に変更する。具体的には、補正部32は、注目部分領域の左端の画素から推定幅αに対応する画素までが安定領域となるように、右端の画素から順に画素の状態を不安定領域の画素から安定領域の画素に変更してもよい。又は、補正部32は、注目部分領域の右端の画素から推定幅αに対応する画素までが安定領域となるように、左端の画素から順に画素の状態を不安定領域の画素から安定領域の画素に変更してもよい。又は、補正部32は、注目部分領域の中央部に存在する推定幅αに対応する画素群が安定領域の画素となるように、右端及び左端の両方から順に画素の状態を不安定領域の画素から安定領域の画素に変更してもよい。
When the width of the target partial region is larger than the estimated width α (Yes at Step S204), the correcting
また、補正部32は、注目部分領域の幅が推定幅α以下の場合(ステップS204否定)、注目部分領域の幅の補正を行わない。そして、処理は、ステップS206へ移る。ここで、ステップS205での補正後の注目部分領域又は注目部分領域の幅が推定幅α以下の場合の注目部分領域は、確定したオクルージョン領域となる。
Moreover, the correction |
幅算出部31は、現在の注目部分領域が最終位置に対応するか否かを判定する(ステップS206)。注目部分領域の最終位置は、推定部12で推定されたオクルージョン領域の内のY’座標が最大値である位置である。
The
幅算出部31は、最終位置でないと判定した場合(ステップS206否定)、注目部分領域の移動ルールに従って注目部分領域を移動させる(ステップS207)。そして、幅算出部31は、ステップS202,S203,S206の処理を繰り返し、補正部32は、ステップS204,S205の処理を繰り返す。
When determining that the position is not the final position (No at Step S206), the
幅算出部31は、最終位置であると判定した場合(ステップS206肯定)、オクルージョン領域の補正処理を終了する。
If the
以上のように本実施例によれば、画像処理装置30において、幅算出部31は、推定部12で推定されたオクルージョン領域を挟んで両側に位置する第1の画素及び第2の画素のそれぞれに対応する距離に基づいて、オクルージョン領域の推定幅を算出する。そして、補正部32は、幅算出部31で算出された推定幅に基づいて、推定部12で推定されたオクルージョン領域を補正する。
As described above, according to the present exemplary embodiment, in the
この画像処理装置30の構成により、オクルージョン領域の両側に位置する安定領域の画素に対応する距離に基づいて、オクルージョン領域の推定幅を精度良く算出することができる。そして、精度良く算出された推定幅に基づいて、推定したオクルージョン領域を補正することができるので、推定したオクルージョン領域の精度をさらに向上させることができる。
With the configuration of the
そして、補正部32は、補正したオクルージョン領域に基づいて、距離画像を補正する。
Then, the
この画像処理装置30の構成により、精度が向上されたオクルージョン領域に基づいて、距離画像を補正できるので、距離画像の精度を向上させることができる。そして、例えば、この精度が向上された距離画像を用いて、右側画像及び左側画像に対してフィルタリング処理を行うことにより、輻輳と調節との矛盾の程度を小さく抑えることができる。この結果として、観察者が感じる疲労感を軽減させることができる3D画像を提供することができる。
With the configuration of the
[実施例3]
実施例3では、実施例2と同様に、オクルージョン領域の推定幅を算出し、当該推定幅に基づいて、推定したオクルージョン領域を補正する。ただし、実施例2では、例えば、図6に示したオクルージョン領域に関する情報を補正するのに対して、実施例3では、距離画像において、推定したオクルージョン領域の補正及び推定したオクルージョン領域における距離の補正を行う。
[Example 3]
In the third embodiment, as in the second embodiment, the estimated width of the occlusion area is calculated, and the estimated occlusion area is corrected based on the estimated width. However, in the second embodiment, for example, information on the occlusion area shown in FIG. 6 is corrected. In the third embodiment, in the distance image, the estimated occlusion area is corrected and the distance in the estimated occlusion area is corrected. I do.
[画像処理装置の構成例]
図11は、実施例3の画像処理装置の一例を示すブロック図である。図11において、画像処理装置50は、補正部51を有する。
[Configuration example of image processing apparatus]
FIG. 11 is a block diagram illustrating an example of an image processing apparatus according to the third embodiment. In FIG. 11, the
補正部51は、推定部12で推定されたオクルージョン領域に対して、幅算出部31で算出された推定幅αを有する「第1の領域」と、第1の領域を除く「第2の領域」とを設定する。ここで、第1の領域は、確定したオクルージョン領域である。
For the occlusion region estimated by the
そして、補正部51は、第2の領域の内で右側画素よりも左側画素に近い画素に対応する距離を、第1の距離で補正する。また、補正部51は、第2の領域の内で左側画素よりも右側画素に近い画素に対応する距離を、第2の距離で補正する。さらに、補正部51は、第1の領域の内の画素に対応する距離を、第1の距離及び第2の距離の内の大きい方で補正する。
Then, the
なお、補正部51は、推定部12で推定されたオクルージョン領域の幅が推定幅α以下の場合には、推定部12で推定されたオクルージョン領域内の画素に対応する距離を、第1の距離及び第2の距離の内の大きい方で補正する。
When the width of the occlusion region estimated by the
[画像処理装置の動作例]
以上の構成を有する画像処理装置50の動作例について説明する。図12は、実施例3の画像処理装置の処理動作の一例を示すフローチャートである。図13は、実施例3の画像処理装置における推定幅の算出処理の説明に供する図である。図14は、実施例3のオクルージョン領域の補正処理後の距離画像の一例を示す図である。
[Operation example of image processing apparatus]
An operation example of the
画像処理装置50において補正部51は、注目部分領域の幅が推定幅αより大きい場合(ステップS204肯定)、注目部分領域において中央部に推定幅αを有する第1の領域と、第1の領域を除く第2の領域とを設定する(ステップS301)。例えば、図13の左図に示す注目部分領域(同図では、推定したオクルージョン領域A400)に対して、右図に示す第1の領域A401と、第2の領域A402とを設定する。第2の領域A402は、領域A403と領域A404とを含む。
In the
そして、補正部51は、第2の領域A402の内で右側画素よりも左側画素に近い画素(つまり、領域A403内の画素)に対応する距離を、第1の距離で補正する(ステップS302)。また、補正部51は、第2の領域A402の内で左側画素よりも右側画素に近い画素(つまり、領域A404内の画素)に対応する距離を、第2の距離で補正する(ステップS302)。さらに、補正部51は、第1の領域A401の内の画素に対応する距離を、第1の距離及び第2の距離の内の大きい方で補正する(ステップS302)。
Then, the
一方、補正部51は、注目部分領域の幅が推定幅α以下の場合(ステップS204否定)、注目部分領域の画素に対応する距離を、第1の距離及び第2の距離の内の大きい方で補正する(ステップS303)。
On the other hand, when the width of the target partial area is equal to or smaller than the estimated width α (No in step S204), the correcting
補正部51が以上の補正処理を行うことにより、例えば、図14に示すような補正後の距離画像が得られる。
When the
なお、以上の説明では、第1の領域を注目部分領域の中央部に設定する場合について説明したが、これに限定されるものではない。例えば、第1の領域を注目部分領域の右端に合わせて設定してもよいし、又は、第1の領域を注目部分領域の左端に合わせて設定してもよい。 In the above description, the case where the first area is set at the center of the target partial area has been described. However, the present invention is not limited to this. For example, the first area may be set according to the right end of the target partial area, or the first area may be set according to the left end of the target partial area.
以上のように本実施例によれば、画像処理装置50において、幅算出部31は、推定部12で推定されたオクルージョン領域を挟んで両側に位置する第1の画素及び第2の画素のそれぞれに対応する距離に基づいて、オクルージョン領域の推定幅を算出する。そして、補正部51は、推定部12で推定されたオクルージョン領域に対して、幅算出部31で算出された推定幅を有する第1の領域とこれを除く第2の領域とを設定する。そして、補正部51は、第2の領域の内で第2の画素よりも第1の画素に近い画素に対応する距離を第1の距離で補正する。そして、補正部51は、第1の画素よりも第2の画素に近い画素に対応する距離を第2の距離で補正する。そして、補正部51は、第1の領域の内の画素に対応する距離を、第1の距離及び第2の距離の内の大きい方で補正する。
As described above, according to the present embodiment, in the
この画像処理装置50の構成により、オクルージョン領域の両側に位置する安定領域の画素に対応する距離に基づいて、オクルージョン領域の推定幅を精度良く算出することができる。そして、精度良く算出された推定幅に基づいて、推定したオクルージョン領域を補正することができるので、推定したオクルージョン領域の精度をさらに向上させることができる。また、推定したオクルージョン領域の画素に対応する距離を、安定領域の画素に対応する距離を用いて補正することができるので、距離画像の精度を向上させることができる。そして、例えば、この精度が向上された距離画像を用いて、右側画像及び左側画像に対してフィルタリング処理を行うことにより、輻輳と調節との矛盾の程度を小さく抑えることができる。この結果として、観察者が感じる疲労感を軽減させることができる3D画像を提供することができる。
With the configuration of the
[他の実施例]
[1]実施例1から実施例3では、推定されたオクルージョン領域が1つの場合を前提として説明を行ったが、これに限定されるものではない。推定されたオクルージョン領域が複数在る場合には、実施例1から実施例3で説明した処理を各オクルージョン領域に対して行えばよい。
[Other embodiments]
[1] In the first to third embodiments, the description has been made on the assumption that there is one estimated occlusion region. However, the present invention is not limited to this. When there are a plurality of estimated occlusion areas, the processing described in the first to third embodiments may be performed on each occlusion area.
[2]実施例1から実施例3で図示した各部の各構成要素は、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各部の分散・統合の具体的形態は図示のものに限られず、その全部又は一部を、各種の負荷や使用状況等に応じて、任意の単位で機能的又は物理的に分散・統合して構成することができる。 [2] Each component of each part illustrated in the first to third embodiments is not necessarily physically configured as illustrated. In other words, the specific form of distribution / integration of each part is not limited to the one shown in the figure, and all or a part thereof may be functionally or physically distributed / integrated in arbitrary units according to various loads and usage conditions. Can be configured.
更に、各装置で行われる各種処理機能は、CPU(Central Processing Unit)(又はMPU(Micro Processing Unit)、MCU(Micro Controller Unit)等のマイクロ・コンピュータ)上で、その全部又は任意の一部を実行するようにしてもよい。また、各種処理機能は、CPU(又はMPU、MCU等のマイクロ・コンピュータ)で解析実行するプログラム上、又はワイヤードロジックによるハードウェア上で、その全部又は任意の一部を実行するようにしてもよい。 Furthermore, various processing functions performed in each device are performed on a CPU (Central Processing Unit) (or a microcomputer such as an MPU (Micro Processing Unit), MCU (Micro Controller Unit), etc.) in whole or in part. You may make it perform. Various processing functions may be executed entirely or arbitrarily on a program that is analyzed and executed by a CPU (or a microcomputer such as an MPU or MCU) or hardware based on wired logic. .
実施例1から実施例3の画像処理装置は、例えば、次のようなハードウェア構成により実現することができる。 The image processing apparatuses according to the first to third embodiments can be realized by the following hardware configuration, for example.
図15は、画像処理装置のハードウェア構成例を示す図である。図15に示すように、画像処理装置100は、プロセッサ101と、メモリ102と、カメラ103と、表示装置104とを有する。
FIG. 15 is a diagram illustrating a hardware configuration example of the image processing apparatus. As illustrated in FIG. 15, the
プロセッサ101の一例としては、CPU(Central Processing Unit)、DSP(Digital Signal Processor)、FPGA(Field Programmable Gate Array)等が挙げられる。また、メモリ102の一例としては、SDRAM(Synchronous Dynamic Random Access Memory)等のRAM(Random Access Memory)、ROM(Read Only Memory)、フラッシュメモリ等が挙げられる。
Examples of the
そして、実施例1から実施例3の画像処理装置で行われる各種処理機能は、不揮発性記憶媒体などの各種メモリに格納されたプログラムを増幅装置が備えるプロセッサで実行することによって実現してもよい。すなわち、取得部11と、推定部12と、幅算出部31と、補正部13,32,51とによって実行される各処理に対応するプログラムがメモリ102に記録され、各プログラムがプロセッサ101で実行されてもよい。また、右側画像及び左側画像は、カメラ103で撮影されてもよい。また、右側画像及び左側画像、距離画像、並びに、補正された距離画像は、表示装置104に表示されてもよい。
Various processing functions performed by the image processing apparatuses according to the first to third embodiments may be realized by executing programs stored in various memories such as a nonvolatile storage medium by a processor included in the amplification apparatus. . That is, a program corresponding to each process executed by the
また、プロセッサ101は、1チップの画像処理回路として実現されてもよい。
The
10,30,50 画像処理装置
11 取得部
12 推定部
13,32,51 補正部
31 幅算出部
10, 30, 50
Claims (7)
前記プロセッサは、
第1の画像と前記第1の画像と視点が異なる第2の画像とに基づく距離画像内で窓を移動させ、
各窓内における注目画素に対応する距離と各非注目画素に対応する距離との差の総和に基づいて、前記注目画素がオクルージョン領域の画素であるか否かを判定して、前記オクルージョン領域を推定する、
ことを特徴とする画像処理装置。 A memory and a processor connected to the memory;
The processor is
Moving a window within a distance image based on a first image and a second image having a different viewpoint from the first image;
Based on the sum of the difference between the distance corresponding to the target pixel in each window and the distance corresponding to each non-target pixel, it is determined whether the target pixel is a pixel in the occlusion area, and the occlusion area is determined. presume,
An image processing apparatus.
前記推定したオクルージョン領域を挟んで両側に位置する第1の画素及び第2の画素のそれぞれに対応する距離に基づいて、前記オクルージョン領域の推定幅を算出し、
前記推定幅に基づいて、前記推定したオクルージョン領域を補正する、
ことを特徴とする請求項1に記載の画像処理装置。 The processor is
Based on the distance corresponding to each of the first pixel and the second pixel located on both sides across the estimated occlusion area, the estimated width of the occlusion area is calculated,
Correcting the estimated occlusion area based on the estimated width;
The image processing apparatus according to claim 1.
前記推定したオクルージョン領域を挟んで両側に位置する第1の画素及び第2の画素のそれぞれに対応する距離に基づいて、前記オクルージョン領域の推定幅を算出し、
前記推定したオクルージョン領域に対して前記推定幅を有する第1の領域と前記第1の領域を除く第2の領域とを設定し、
前記第2の領域の内で前記第2の画素よりも前記第1の画素に近い画素に対応する距離を前記第1の画素に対応する距離で補正し、前記第1の画素よりも前記第2の画素に近い画素に対応する距離を前記第2の画素に対応する距離で補正し、前記第1の領域の内の画素に対応する距離を前記第1の画素に対応する距離及び前記第2の画素に対応する距離の内の大きい方で補正する、
ことを特徴とする請求項1に記載の画像処理装置。 The processor is
Based on the distance corresponding to each of the first pixel and the second pixel located on both sides across the estimated occlusion area, the estimated width of the occlusion area is calculated,
A first area having the estimated width and a second area excluding the first area with respect to the estimated occlusion area;
The distance corresponding to the pixel closer to the first pixel than the second pixel in the second region is corrected by the distance corresponding to the first pixel, and the first pixel is corrected to the first pixel. A distance corresponding to a pixel close to the second pixel is corrected with a distance corresponding to the second pixel, and a distance corresponding to a pixel in the first region is corrected to a distance corresponding to the first pixel and the first Correct with the larger of the distances corresponding to 2 pixels,
The image processing apparatus according to claim 1.
ことを特徴とする請求項1から3のいずれか一項に記載の画像処理装置。 The processor determines that the pixel of interest corresponding to the sum is a pixel in the occlusion region when the sum is greater than a threshold value.
The image processing apparatus according to claim 1, wherein the image processing apparatus is an image processing apparatus.
各窓内における注目画素に対応する距離と各非注目画素に対応する距離との差の総和に基づいて、前記注目画素がオクルージョン領域の画素であるか否かを判定して、前記オクルージョン領域を推定する、
画像処理回路。 Moving a window within a distance image based on a first image and a second image having a different viewpoint from the first image;
Based on the sum of the difference between the distance corresponding to the target pixel in each window and the distance corresponding to each non-target pixel, it is determined whether the target pixel is a pixel in the occlusion area, and the occlusion area is determined. presume,
Image processing circuit.
各窓内における注目画素に対応する距離と各非注目画素に対応する距離との差の総和に基づいて、前記注目画素がオクルージョン領域の画素であるか否かを判定して、前記オクルージョン領域を推定する、
処理を、画像処理装置に実行させる画像処理プログラム。 Moving a window within a distance image based on a first image and a second image having a different viewpoint from the first image;
Based on the sum of the difference between the distance corresponding to the target pixel in each window and the distance corresponding to each non-target pixel, it is determined whether the target pixel is a pixel in the occlusion area, and the occlusion area is determined. presume,
An image processing program for causing an image processing apparatus to execute processing.
各窓内における注目画素に対応する距離と各非注目画素に対応する距離との差の総和に基づいて、前記注目画素がオクルージョン領域の画素であるか否かを判定して、前記オクルージョン領域を推定する、
画像処理方法。 Moving a window within a distance image based on a first image and a second image having a different viewpoint from the first image;
Based on the sum of the difference between the distance corresponding to the target pixel in each window and the distance corresponding to each non-target pixel, it is determined whether the target pixel is a pixel in the occlusion area, and the occlusion area is determined. presume,
Image processing method.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013088847A JP2014211829A (en) | 2013-04-19 | 2013-04-19 | Image processing apparatus, image processing circuit, image processing program, and image processing method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013088847A JP2014211829A (en) | 2013-04-19 | 2013-04-19 | Image processing apparatus, image processing circuit, image processing program, and image processing method |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2014211829A true JP2014211829A (en) | 2014-11-13 |
Family
ID=51931524
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013088847A Pending JP2014211829A (en) | 2013-04-19 | 2013-04-19 | Image processing apparatus, image processing circuit, image processing program, and image processing method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2014211829A (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2017094536A1 (en) * | 2015-12-01 | 2017-06-08 | ソニー株式会社 | Image-processing device and image-processing method |
-
2013
- 2013-04-19 JP JP2013088847A patent/JP2014211829A/en active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2017094536A1 (en) * | 2015-12-01 | 2017-06-08 | ソニー株式会社 | Image-processing device and image-processing method |
US10846916B2 (en) | 2015-12-01 | 2020-11-24 | Sony Corporation | Image processing apparatus and image processing method |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6351238B2 (en) | Image processing apparatus, imaging apparatus, and distance correction method | |
US9171373B2 (en) | System of image stereo matching | |
US10701334B2 (en) | Virtual reality parallax correction | |
KR101752690B1 (en) | Apparatus and method for correcting disparity map | |
US9967516B2 (en) | Stereo matching method and device for performing the method | |
JP2015035658A (en) | Image processing apparatus, image processing method, and imaging apparatus | |
US20120163703A1 (en) | Stereo matching system using dynamic programming and method thereof | |
US8994722B2 (en) | Method for enhancing depth images of scenes using trellis structures | |
JP2013500536A5 (en) | ||
KR102199458B1 (en) | Method for reconstrucing 3d color mesh and apparatus for the same | |
JP5318168B2 (en) | Stereoscopic image processing apparatus, stereoscopic image processing method, and program | |
US20150187051A1 (en) | Method and apparatus for estimating image noise | |
CN107077719A (en) | Perspective correction based on depth map in digital photograph | |
WO2014030571A1 (en) | Stereoscopic image processing device, stereoscopic image processing method, and program | |
KR101558805B1 (en) | Interpolation factors correction apparatus for stereo matching | |
US8970670B2 (en) | Method and apparatus for adjusting 3D depth of object and method for detecting 3D depth of object | |
US20150145861A1 (en) | Method and arrangement for model generation | |
JP5422538B2 (en) | Image processing apparatus, display apparatus, method and program thereof | |
WO2015198592A1 (en) | Information processing device, information processing method, and information processing program | |
CN107424583B (en) | Display data processing method and system for special-shaped image | |
JP2014211829A (en) | Image processing apparatus, image processing circuit, image processing program, and image processing method | |
KR20160063805A (en) | Apparatus and method for making multi-viewpoint image | |
JP5820716B2 (en) | Image processing apparatus, image processing method, computer program, recording medium, and stereoscopic image display apparatus | |
US20150215602A1 (en) | Method for ajdusting stereo image and image processing device using the same | |
EP2980752A1 (en) | Image processing device, image processing system, image processing method, and image processing program |