JP2014211829A - Image processing apparatus, image processing circuit, image processing program, and image processing method - Google Patents

Image processing apparatus, image processing circuit, image processing program, and image processing method Download PDF

Info

Publication number
JP2014211829A
JP2014211829A JP2013088847A JP2013088847A JP2014211829A JP 2014211829 A JP2014211829 A JP 2014211829A JP 2013088847 A JP2013088847 A JP 2013088847A JP 2013088847 A JP2013088847 A JP 2013088847A JP 2014211829 A JP2014211829 A JP 2014211829A
Authority
JP
Japan
Prior art keywords
pixel
image
image processing
distance
occlusion area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2013088847A
Other languages
Japanese (ja)
Inventor
創作 森木
Sosaku Moriki
創作 森木
今城 主税
Chikara Imashiro
主税 今城
大田 恭士
Takashi Ota
恭士 大田
一木 篤史
Atsushi Ichiki
篤史 一木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2013088847A priority Critical patent/JP2014211829A/en
Publication of JP2014211829A publication Critical patent/JP2014211829A/en
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • H04N13/04

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Image Processing (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To make it possible to estimate an occlusion area accurately at a high speed.SOLUTION: In an image processing apparatus 10, an estimation unit 12 moves windows in a depth map acquired by an acquisition unit 11. The estimation unit 12 determines whether or not an attention pixel is a pixel in an occlusion area on the basis of the total sum of the differences between distances corresponding to the attention pixel in each of the windows and distances corresponding to each of non-attention pixels, and estimates the occlusion area.

Description

本発明は、画像処理装置、画像処理回路、画像処理プログラム、及び画像処理方法に関する。   The present invention relates to an image processing apparatus, an image processing circuit, an image processing program, and an image processing method.

3D(three dimensions)画像を見たときに、違和感又は不快を感じることがある。実空間で人が対象物を見る場合、その人の焦点は、中心視野に在る対象物近傍に合っている。このため、その中心視野から外れたところの物体はピントがずれた状態で認識される。すなわち、実空間において、人からの距離が大きく異なる複数の物体を同程度で認識することは少ない。このため、画像内で深さ(つまり、距離に対応)が大きく異なる複数の物体を見る場合、輻輳と調節との矛盾の程度が大きいため、観察者は疲労感を感じる。   When viewing a 3D (three dimensions) image, the user may feel uncomfortable or uncomfortable. When a person views an object in real space, the person's focus is in the vicinity of the object in the central visual field. For this reason, an object outside the central visual field is recognized in a state of being out of focus. In other words, in a real space, it is rare to recognize a plurality of objects having greatly different distances from a person at the same level. For this reason, when a plurality of objects having greatly different depths (that is, corresponding to distances) are viewed in the image, the observer feels tired because the degree of contradiction between convergence and adjustment is large.

そこで、この状況において輻輳と調節との矛盾の程度を小さく抑えるために、一般的にフィルタリング処理が行われる。このフィルタリング処理では、距離画像が用いられる。距離画像は、例えば、図1に示すような、2つの視点から撮影された2つの画像(以下では、右側の視点から撮影された画像を「右側画像」、左側の視点から撮影された画像を「左側画像」と呼ぶ)から求められる。図1は、左側画像及び右側画像の一例を示す図である。具体的には、右側画像の原点と左側画像の原点とを合わせ、右側画像の基準点の座標と、当該基準点に対応する左側画像の対応点の座標との差(つまり、視差)を、基準点の値とした画像が、「右側距離画像」である。反対に、右側画像の原点と左側画像の原点とを合わせ、左側画像の基準点の座標と、当該基準点に対応する右側画像の対応点の座標との差(つまり、視差)を、基準点の値とした画像が、「左側距離画像」である。図2は、左側距離画像の一例を示す図である。図2に示す左側距離画像は、図1に示す右側画像及び左側画像に基づいて作成したものである。なお、距離画像では、各画素の値(つまり、視差値)が濃淡で示され、濃い程遠くを意味し、薄い程近くを意味する。   Therefore, in order to suppress the degree of contradiction between congestion and adjustment in this situation, a filtering process is generally performed. In this filtering process, a distance image is used. For example, the distance image includes two images taken from two viewpoints (hereinafter, an image taken from the right viewpoint is referred to as a “right image”, and an image taken from the left viewpoint is illustrated in FIG. (Referred to as “left image”). FIG. 1 is a diagram illustrating an example of a left image and a right image. Specifically, the origin of the right image and the origin of the left image are matched, and the difference (that is, parallax) between the coordinates of the reference point of the right image and the coordinates of the corresponding point of the left image corresponding to the reference point is An image having the reference point value is a “right-side distance image”. Conversely, the origin of the right image is aligned with the origin of the left image, and the difference between the coordinates of the reference point of the left image and the coordinates of the corresponding point of the right image corresponding to the reference point (that is, parallax) The image with the value of is the “left distance image”. FIG. 2 is a diagram illustrating an example of the left distance image. The left distance image shown in FIG. 2 is created based on the right image and the left image shown in FIG. In the distance image, the value of each pixel (that is, the parallax value) is indicated by shading, and the darker means farther and the thinner it means closer.

ここで、上記のフィルタリング処理が施された画像の品質を向上させるために、距離画像の精度を向上させることが望まれる。距離画像の精度を向上させるために、距離画像において「オクルージョン領域」を高精度で推定することが望まれる。「オクルージョン領域」とは、右側画像及び左側画像のうちの一方には存在するが他方には存在しない画像領域である。図2において、楕円で示された部分がオクルージョン領域である。   Here, it is desired to improve the accuracy of the distance image in order to improve the quality of the image subjected to the filtering process. In order to improve the accuracy of the distance image, it is desired to estimate the “occlusion region” in the distance image with high accuracy. The “occlusion area” is an image area that exists in one of the right image and the left image but does not exist in the other. In FIG. 2, the portion indicated by an ellipse is an occlusion region.

そして、従来、距離画像内のオクルージョン領域を高精度で推定する方法として、ブロックマッチング処理を行う方法がある。この従来の方法では、図3に示すように、右側距離画像及び左側距離画像のうちの一方を基準として、当該一方の各部分領域が他方に存在するか否かを判定し、存在しない領域をオクルージョン領域として特定する。図3は、従来の、ブロックマッチング処理によるオクルージョン領域の推定方法の説明に供する図である。   Conventionally, there is a method of performing block matching processing as a method of estimating an occlusion region in a distance image with high accuracy. In this conventional method, as shown in FIG. 3, with reference to one of the right distance image and the left distance image, it is determined whether or not each of the one partial region exists in the other, and the non-existing region is determined. Specify as an occlusion area. FIG. 3 is a diagram for explaining a conventional method of estimating an occlusion area by block matching processing.

特開2002−099918号公報JP 2002-099918 A 特開2012−010255号公報JP2012-010255A 特開2012−089136号公報JP 2012-089136 A

しかしながら、従来のオクルージョン領域の推定方法では、まず、左側距離画像及び右側距離画像をブロックマッチング処理によって作成し、さらに、左側距離画像と右側距離画像との間でブロックマッチング処理を行う。このブロックマッチング処理は、演算量が多いため、推定処理に多くの時間が掛かってしまう。   However, in the conventional occlusion region estimation method, first, a left distance image and a right distance image are created by block matching processing, and further, block matching processing is performed between the left distance image and the right distance image. Since this block matching process has a large amount of calculation, it takes a long time for the estimation process.

開示の技術は、上記に鑑みてなされたものであって、精度良く且つ高速にオクルージョン領域を推定できる、画像処理装置、画像処理回路、画像処理プログラム、及び画像処理方法を提供することを目的とする。   The disclosed technique has been made in view of the above, and an object thereof is to provide an image processing apparatus, an image processing circuit, an image processing program, and an image processing method capable of estimating an occlusion area with high accuracy and high speed. To do.

開示の態様では、第1の画像と前記第1の画像と視点が異なる第2の画像とに基づく距離画像内で窓を移動させ、各窓内における注目画素に対応する距離と各非注目画素に対応する距離との差の総和に基づいて、前記注目画素がオクルージョン領域の画素であるか否かを判定して、前記オクルージョン領域を推定する。   In the aspect of the disclosure, the window is moved in the distance image based on the first image and the second image having a different viewpoint from the first image, and the distance corresponding to the target pixel in each window and each non-target pixel The occlusion area is estimated by determining whether or not the pixel of interest is a pixel in the occlusion area based on the sum of the differences from the distance corresponding to.

開示の態様によれば、精度良く且つ高速にオクルージョン領域を推定できる。   According to the disclosed aspect, the occlusion area can be estimated with high accuracy and high speed.

図1は、左側画像及び右側画像の一例を示す図である。FIG. 1 is a diagram illustrating an example of a left image and a right image. 図2は、左側距離画像の一例を示す図である。FIG. 2 is a diagram illustrating an example of the left distance image. 図3は、ブロックマッチング処理によるオクルージョン領域の推定方法の説明に供する図である。FIG. 3 is a diagram for explaining an occlusion region estimation method using block matching processing. 図4は、実施例1の画像処理装置の一例を示すブロック図である。FIG. 4 is a block diagram illustrating an example of the image processing apparatus according to the first embodiment. 図5は、実施例1の画像処理装置の処理動作の一例を示すフローチャートである。FIG. 5 is a flowchart illustrating an example of a processing operation of the image processing apparatus according to the first embodiment. 図6は、実施例1の画像処理装置によるオクルージョン領域の推定結果の一例を示す図である。FIG. 6 is a diagram illustrating an example of an occlusion area estimation result by the image processing apparatus according to the first embodiment. 図7は、実施例2の画像処理装置の一例を示すブロック図である。FIG. 7 is a block diagram illustrating an example of an image processing apparatus according to the second embodiment. 図8は、実施例2の画像処理装置の処理動作の一例を示すフローチャートである。FIG. 8 is a flowchart illustrating an example of a processing operation of the image processing apparatus according to the second embodiment. 図9は、実施例2の画像処理装置における推定幅の算出処理の説明に供する図である。FIG. 9 is a diagram for explaining an estimated width calculation process in the image processing apparatus according to the second embodiment. 図10は、実施例2の画像処理装置における推定幅の算出処理の説明に供する図である。FIG. 10 is a diagram for explaining an estimated width calculation process in the image processing apparatus according to the second embodiment. 図11は、実施例3の画像処理装置の一例を示すブロック図である。FIG. 11 is a block diagram illustrating an example of an image processing apparatus according to the third embodiment. 図12は、実施例3の画像処理装置の処理動作の一例を示すフローチャートである。FIG. 12 is a flowchart illustrating an example of a processing operation of the image processing apparatus according to the third embodiment. 図13は、実施例3の画像処理装置における推定幅の算出処理の説明に供する図である。FIG. 13 is a diagram for explaining the estimation width calculation process in the image processing apparatus according to the third embodiment. 図14は、実施例3のオクルージョン領域の補正処理後の距離画像の一例を示す図である。FIG. 14 is a diagram illustrating an example of a distance image after the occlusion area correction process according to the third embodiment. 図15は、画像処理装置のハードウェア構成例を示す図である。FIG. 15 is a diagram illustrating a hardware configuration example of the image processing apparatus.

以下に、本願の開示する画像処理装置、画像処理回路、画像処理プログラム、及び画像処理方法の実施形態を図面に基づいて詳細に説明する。なお、この実施形態により本願の開示する画像処理装置、画像処理回路、画像処理プログラム、及び画像処理方法が限定されるものではない。また、実施形態において同一の機能を有する構成には同一の符号を付し、重複する説明は省略する。また、実施形態において同等の処理ステップには同一の符号を付し、重複する説明を省略する。   Hereinafter, embodiments of an image processing apparatus, an image processing circuit, an image processing program, and an image processing method disclosed in the present application will be described in detail with reference to the drawings. Note that the image processing apparatus, the image processing circuit, the image processing program, and the image processing method disclosed in the present application are not limited by this embodiment. Moreover, the same code | symbol is attached | subjected to the structure which has the same function in embodiment, and the overlapping description is abbreviate | omitted. In the embodiment, equivalent processing steps are denoted by the same reference numerals, and redundant description is omitted.

[実施例1]
[画像処理装置の構成例]
図4は、実施例1の画像処理装置の一例を示すブロック図である。図4において、画像処理装置10は、取得部11と、推定部12と、補正部13とを有する。
[Example 1]
[Configuration example of image processing apparatus]
FIG. 4 is a block diagram illustrating an example of the image processing apparatus according to the first embodiment. In FIG. 4, the image processing apparatus 10 includes an acquisition unit 11, an estimation unit 12, and a correction unit 13.

取得部11は、第1の視点で撮影された第1の画像(例えば、左側画像)と、第1の視点と異なる第2の視点で撮影された第2の画像(例えば、右側画像)とに基づく距離画像(例えば、左側距離画像又は右側距離画像)を取得する。なお、ここでは、画像処理装置10の外部で距離画像が算出されていることを前提として説明するが、これに限定されるものではなく、取得部11が第1の画像及び第2の画像を取得して、取得した第1の画像及び第2の画像に基づいて、距離画像を算出(形成)してもよい。   The acquisition unit 11 includes a first image (for example, a left image) captured at a first viewpoint, and a second image (for example, a right image) captured at a second viewpoint different from the first viewpoint. A distance image (for example, a left distance image or a right distance image) is acquired. Here, the description will be made on the assumption that the distance image is calculated outside the image processing apparatus 10, but the present invention is not limited to this, and the acquisition unit 11 obtains the first image and the second image. The distance image may be calculated (formed) based on the acquired first image and second image.

推定部12は、取得部11で取得された距離画像内のオクルージョン領域を、距離画像における隣接画素間の距離変動に基づいて推定する。   The estimation unit 12 estimates the occlusion region in the distance image acquired by the acquisition unit 11 based on the distance variation between adjacent pixels in the distance image.

具体的には、推定部12は、取得部11で取得された距離画像内で「窓」を順次移動させる。窓は、例えば、1つの「注目画素」と注目画素を囲む8つの画素(非注目画素)とを含む9つの画素に対応する大きさを有する。そして、推定部12は、距離画像の或る位置に窓を設定すると、窓の中心に対応する画素を注目画素として、注目画素に対応する距離と各非注目画素に対応する距離との差を算出する。すなわち、8つの差が算出される。そして、推定部12は、算出した8つの差の総和を算出する。そして、推定部12は、算出した総和に基づいて、当該総和に対応する注目画素がオクルージョン領域の画素であるか否かを判定することにより、オクルージョン領域を推定する。   Specifically, the estimation unit 12 sequentially moves “windows” in the distance image acquired by the acquisition unit 11. The window has a size corresponding to, for example, nine pixels including one “target pixel” and eight pixels (non-target pixel) surrounding the target pixel. Then, when the estimation unit 12 sets a window at a certain position of the distance image, the pixel corresponding to the center of the window is set as the target pixel, and the difference between the distance corresponding to the target pixel and the distance corresponding to each non-target pixel is calculated. calculate. That is, eight differences are calculated. Then, the estimation unit 12 calculates the sum of the calculated eight differences. And the estimation part 12 estimates an occlusion area | region by determining whether the attention pixel corresponding to the said sum total is a pixel of an occlusion area | region based on the calculated sum total.

詳細には、推定部12は、算出した総和が閾値より大きい場合、総和に対応する注目画素をオクルージョン領域の画素であると判定する。一方、推定部12は、算出した総和が閾値以下である場合、総和に対応する注目画素をオクルージョン領域の画素でないと判定する。すなわち、推定部12は、算出した総和が閾値より大きい場合、総和に対応する注目画素が「不安定領域」の画素であると判定し、算出した総和が閾値以下である場合、「安定領域」の画素であると判定する。つまり、「不安定領域」とは、「安定領域」に比べて、距離変動が大きい領域である。そして、推定部12は、「不安定領域」がオクルージョン領域であると判定している。   Specifically, when the calculated sum is larger than the threshold, the estimation unit 12 determines that the pixel of interest corresponding to the sum is a pixel in the occlusion area. On the other hand, when the calculated sum is equal to or less than the threshold, the estimation unit 12 determines that the pixel of interest corresponding to the sum is not a pixel in the occlusion area. That is, the estimation unit 12 determines that the target pixel corresponding to the sum is a pixel in the “unstable region” when the calculated sum is larger than the threshold, and the “stable region” when the calculated sum is equal to or less than the threshold. It is determined that the pixel is. That is, the “unstable region” is a region where the distance variation is larger than that of the “stable region”. Then, the estimating unit 12 determines that the “unstable region” is an occlusion region.

補正部13は、推定部12で推定されたオクルージョン領域に基づいて、距離画像を補正する。   The correction unit 13 corrects the distance image based on the occlusion area estimated by the estimation unit 12.

[画像処理装置の動作例]
以上の構成を有する画像処理装置10の動作例について説明する。図5は、実施例1の画像処理装置の処理動作の一例を示すフローチャートである。また、図6は、実施例1の画像処理装置によるオクルージョン領域の推定結果の一例を示す図である。
[Operation example of image processing apparatus]
An operation example of the image processing apparatus 10 having the above configuration will be described. FIG. 5 is a flowchart illustrating an example of a processing operation of the image processing apparatus according to the first embodiment. FIG. 6 is a diagram illustrating an example of an occlusion area estimation result by the image processing apparatus according to the first embodiment.

画像処理装置10において推定部12は、取得部11で取得された距離座像において、初期位置に窓を設定する(ステップS101)。初期位置は、例えば、距離画像の一番左の列(X’座標)で且つ一番下の行(Y’座標)の画素を(0,0)画素とした場合、(1,1)画素に窓の中心を合わせた位置である。   In the image processing apparatus 10, the estimation unit 12 sets a window at the initial position in the distance locus image acquired by the acquisition unit 11 (step S101). The initial position is, for example, (1, 1) pixels when the pixel in the leftmost column (X ′ coordinate) and the bottom row (Y ′ coordinate) of the distance image is (0, 0) pixels. This is the position where the center of the window is aligned.

推定部12は、ステップS101で設定した窓内の注目画素に対応する距離と、各非注目画素に対応する距離との差を算出する(ステップS102)。   The estimation unit 12 calculates the difference between the distance corresponding to the target pixel in the window set in step S101 and the distance corresponding to each non-target pixel (step S102).

推定部12は、ステップS102で算出した差の総和を算出する(ステップS103)。   The estimation unit 12 calculates the sum of the differences calculated in step S102 (step S103).

推定部12は、ステップS103で算出した総和が所定の閾値より大きいか否かを判定する(ステップS104)。   The estimation unit 12 determines whether or not the sum calculated in step S103 is larger than a predetermined threshold (step S104).

推定部12は、総和が閾値より大きい場合(ステップS104肯定)、注目画素がオクルージョン領域の画素であると判定し、注目画素に「1」を設定する(ステップS105)。   When the sum is larger than the threshold value (Yes at Step S104), the estimation unit 12 determines that the target pixel is a pixel in the occlusion area, and sets “1” as the target pixel (Step S105).

一方、推定部12は、総和が閾値以下である場合(ステップS104否定)、注目画素がオクルージョン領域の画素でないと判定し、注目画素に「0」を設定する(ステップS106)。図6には、各注目画素に対して、オクルージョン領域に関する情報である「1」又は「0」が設定された距離画像の一例が示されている。なお、ここで得られた距離画像には、距離情報に加えて、オクルージョン領域に関する情報が設定されている。   On the other hand, when the sum is equal to or less than the threshold (No at Step S104), the estimation unit 12 determines that the target pixel is not a pixel in the occlusion area, and sets “0” to the target pixel (Step S106). FIG. 6 shows an example of a distance image in which “1” or “0”, which is information related to the occlusion area, is set for each pixel of interest. In the distance image obtained here, in addition to the distance information, information related to the occlusion area is set.

そして、推定部12は、現在設定している窓の位置が最終位置であるか否かを判定し(ステップS107)、最終位置でない場合(ステップS107否定)、窓の移動ルールに従って窓を移動させる(ステップS108)。そして、推定部12は、移動後の位置でステップS102−S107の処理を繰り返す。ここで、窓の移動ルールは、例えば、窓を1画素ずつ右へ移動させ、窓が距離画像の右端まで行くと窓を距離画像の左端に戻しつつ1画素上に移動させる。そして、最終位置は、例えば、距離画像がM画素×N画素の大きさを有する場合、窓の中心が(M−1,N−1)画素に合わさった位置である。   Then, the estimation unit 12 determines whether or not the currently set window position is the final position (step S107). If the window position is not the final position (No in step S107), the estimation unit 12 moves the window according to the window movement rule. (Step S108). And the estimation part 12 repeats the process of step S102-S107 in the position after a movement. Here, for example, the window moving rule moves the window one pixel at a time to the right, and when the window reaches the right end of the distance image, moves the window up one pixel while returning the window to the left end of the distance image. For example, when the distance image has a size of M pixels × N pixels, the final position is a position where the center of the window is aligned with (M−1, N−1) pixels.

推定部12は、現在設定している窓の位置が最終位置であると判定した場合(ステップS107肯定)、オクルージョン領域の推定処理を終了する。   If the estimation unit 12 determines that the currently set window position is the final position (Yes in step S107), the estimation unit 12 ends the occlusion area estimation process.

以上のように本実施例によれば、画像処理装置10において、推定部12は、取得部11で取得された距離画像内で窓を順次移動させる。そして、推定部12は、各窓内における注目画素に対応する距離と各非注目画素に対応する距離との差の総和に基づいて、注目画素がオクルージョン領域の画素であるか否かを判定して、オクルージョン領域を推定する。   As described above, according to the present embodiment, in the image processing apparatus 10, the estimation unit 12 sequentially moves windows within the distance image acquired by the acquisition unit 11. Then, the estimation unit 12 determines whether or not the target pixel is a pixel in the occlusion area based on the sum of the differences between the distance corresponding to the target pixel and the distance corresponding to each non-target pixel in each window. To estimate the occlusion area.

この画像処理装置10の構成により、左側距離画像及び右側距離画像の内の一方を用いてオクルージョン領域を推定できるので、推定処理の演算量を削減することができる。また、各窓内における注目画素に対応する距離と各非注目画素に対応する距離との差の総和という、少ない演算量での算出が可能であり且つ具体的な値を有するパラメータに基づいて、オクルージョン領域を推定することができる。従って、高速に且つ精度良くオクルージョン領域を推定することができる。   With the configuration of the image processing apparatus 10, the occlusion area can be estimated using one of the left distance image and the right distance image, so that the amount of calculation of the estimation process can be reduced. Further, based on a parameter that can be calculated with a small amount of calculation, that is, the sum of the difference between the distance corresponding to the target pixel and the distance corresponding to each non-target pixel in each window, and having a specific value, The occlusion area can be estimated. Therefore, the occlusion area can be estimated at high speed and with high accuracy.

そして、画像処理装置10において、補正部13は、推定部12で推定されたオクルージョン領域に基づいて、距離画像を補正する。   In the image processing apparatus 10, the correction unit 13 corrects the distance image based on the occlusion area estimated by the estimation unit 12.

この画像処理装置10の構成により、推定部12で精度良く推定したオクルージョン領域に基づいて、距離画像を補正できるので、距離画像の精度を向上させることができる。そして、例えば、この精度が向上された距離画像を用いて、右側画像及び左側画像に対してフィルタリング処理を行うことにより、輻輳と調節との矛盾の程度を小さく抑えることができる。この結果として、観察者が感じる疲労感を軽減させることができる3D画像を提供することができる。   With this configuration of the image processing apparatus 10, the distance image can be corrected based on the occlusion area accurately estimated by the estimation unit 12, so that the accuracy of the distance image can be improved. For example, by using the distance image with improved accuracy and performing filtering processing on the right image and the left image, the degree of contradiction between the congestion and the adjustment can be reduced. As a result, it is possible to provide a 3D image that can reduce the feeling of fatigue felt by the observer.

[実施例2]
実施例2では、オクルージョン領域の推定幅を算出し、当該推定幅に基づいて、推定したオクルージョン領域を補正する。
[Example 2]
In the second embodiment, the estimated width of the occlusion area is calculated, and the estimated occlusion area is corrected based on the estimated width.

[画像処理装置の構成例]
図7は、実施例2の画像処理装置の一例を示すブロック図である。図7において、画像処理装置30は、幅算出部31と、補正部32とを有する。
[Configuration example of image processing apparatus]
FIG. 7 is a block diagram illustrating an example of an image processing apparatus according to the second embodiment. In FIG. 7, the image processing apparatus 30 includes a width calculation unit 31 and a correction unit 32.

幅算出部31は、推定部12で推定されたオクルージョン領域を挟んで両側(つまり、左右)に位置する第1の画素及び第2の画素のそれぞれに対応する距離に基づいて、オクルージョン領域の推定幅を算出する。幅算出部31は、推定部12で推定されたオクルージョン領域の各行(つまり、Y’座標)について、オクルージョン領域の推定幅を算出する。以下では、上記の第1の画素及び第2の画素を「左側画素」及び「右側画素」とそれぞれ呼ぶことがある。また、「左側画素」に対応する距離を「第1の距離」、「右側画素」に対応する距離を「第2の距離」と呼ぶことがある。   The width calculation unit 31 estimates the occlusion region based on the distance corresponding to each of the first pixel and the second pixel located on both sides (that is, left and right) across the occlusion region estimated by the estimation unit 12. Calculate the width. The width calculation unit 31 calculates the estimated width of the occlusion area for each row (that is, the Y ′ coordinate) of the occlusion area estimated by the estimation unit 12. Hereinafter, the first pixel and the second pixel may be referred to as a “left pixel” and a “right pixel”, respectively. Further, the distance corresponding to the “left pixel” may be referred to as “first distance”, and the distance corresponding to the “right pixel” may be referred to as “second distance”.

補正部32は、幅算出部31で算出された推定幅に基づいて、推定部12で推定されたオクルージョン領域を補正する。幅算出部31は、推定部12で推定されたオクルージョン領域の各行(つまり、Y’座標)について、オクルージョン領域を補正する。   The correction unit 32 corrects the occlusion area estimated by the estimation unit 12 based on the estimated width calculated by the width calculation unit 31. The width calculation unit 31 corrects the occlusion region for each row (that is, Y ′ coordinate) of the occlusion region estimated by the estimation unit 12.

そして、補正部32は、補正したオクルージョン領域に基づいて、距離画像を補正する。   Then, the correction unit 32 corrects the distance image based on the corrected occlusion area.

[画像処理装置の動作例]
以上の構成を有する画像処理装置30の動作例について説明する。図8は、実施例2の画像処理装置の処理動作の一例を示すフローチャートである。図9及び図10は、実施例2の画像処理装置における推定幅の算出処理の説明に供する図である。
[Operation example of image processing apparatus]
An operation example of the image processing apparatus 30 having the above configuration will be described. FIG. 8 is a flowchart illustrating an example of a processing operation of the image processing apparatus according to the second embodiment. FIGS. 9 and 10 are diagrams for explaining the estimated width calculation process in the image processing apparatus according to the second embodiment.

画像処理装置30において幅算出部31は、推定部12で推定されたオクルージョン領域に対して、「注目部分領域」を初期位置に設定する(ステップS201)。注目部分領域は、オクルージョン領域の内でY’座標が同一の画素群である。そして、注目部分領域の初期位置は、推定部12で推定されたオクルージョン領域の内のY’座標が最小値である位置である(図9参照)。   In the image processing apparatus 30, the width calculation unit 31 sets the “target partial region” as an initial position for the occlusion region estimated by the estimation unit 12 (step S 201). The target partial region is a pixel group having the same Y ′ coordinate in the occlusion region. The initial position of the target partial area is the position where the Y ′ coordinate in the occlusion area estimated by the estimation unit 12 is the minimum value (see FIG. 9).

幅算出部31は、ステップS201で設定した注目部分領域についての、左側画素に対応する第1の距離と、右側画素に対応する第2の距離とを特定する(ステップS202)。すなわち、幅算出部31は、図9に示すように、初期位置の注目部分領域について、画素p1に対応する第1の距離と、画素p2に対応する第2の距離とを特定する。   The width calculation unit 31 specifies the first distance corresponding to the left pixel and the second distance corresponding to the right pixel for the target partial region set in step S201 (step S202). That is, as illustrated in FIG. 9, the width calculation unit 31 identifies the first distance corresponding to the pixel p1 and the second distance corresponding to the pixel p2 for the target partial region at the initial position.

幅算出部31は、ステップS202で特定した第1の距離及び第2の距離に基づいて、推定幅αを算出する(ステップS203)。具体的には、幅算出部31は、第1の距離及び第2の距離の内で大きい方をZ1とし、小さい方をZ0とし、次の式(1)に代入することにより、推定幅αを算出する。
α=b×(Z1−Z0)/Z0 ・・・(1)
bは、左側画像を撮影した左側カメラと、右側画像を撮影した右側カメラとの離間距離である。
The width calculation unit 31 calculates the estimated width α based on the first distance and the second distance specified in step S202 (step S203). Specifically, the width calculation unit 31 sets the larger one of the first distance and the second distance as Z1, sets the smaller one as Z0, and substitutes the estimated width α in the following equation (1). Is calculated.
α = b × (Z1-Z0) / Z0 (1)
b is the distance between the left camera that captured the left image and the right camera that captured the right image.

ここで、図10に示すように、後方物体(背景)の手前の位置(図10におけるP(X,Z))に前方物体(前景)が存在する場合、カメラ位置から前方物体までの距離(Z0)と、カメラ位置から後方物体までの距離(Z1)と、左右カメラ間の離間距離bとに基づいて、推定幅αが決まる。なお、図10において、Oは、左側投影面を示し、Oは、右側投影面を示す。また、fは、左側カメラの位置から左側投影面までの距離、又は、右側カメラの位置から右側投影面までの距離である。また、Xは、左側カメラの位置とP(X,Z)とを結ぶ線分と左側投影面との交点と、左側投影面の中心点との距離である。また、Xは、右側カメラの位置とP(X,Z)とを結ぶ線分と右側投影面との交点と、右側投影面の中心点との距離である。 Here, as shown in FIG. 10, when a front object (foreground) exists at a position in front of the rear object (background) (P (X, Z) in FIG. 10), the distance from the camera position to the front object ( Z0), the distance from the camera position to the rear object (Z1), and the separation distance b between the left and right cameras are determined. In FIG. 10, O 1 indicates the left projection plane, and Or indicates the right projection plane. F is the distance from the left camera position to the left projection plane, or the distance from the right camera position to the right projection plane. Xl is the distance between the intersection of the line segment connecting the position of the left camera and P (X, Z) and the left projection plane and the center point of the left projection plane. Xr is the distance between the intersection of the line segment connecting the right camera position and P (X, Z) and the right projection plane and the center point of the right projection plane.

図8に戻り、補正部32は、設定した注目部分領域の幅と推定幅αとを比較し、設定した注目部分領域の幅が推定幅αより大きいか否かを判定する(ステップS204)。ここでは、例えば、ステップS203で算出された推定幅αそのものが用いられるのではなく、ステップS203で算出された実空間の推定幅αが距離画像空間に変換された値が用いられてもよい。   Returning to FIG. 8, the correction unit 32 compares the set width of the target partial region with the estimated width α, and determines whether or not the set width of the target partial region is larger than the estimated width α (step S <b> 204). Here, for example, the estimated width α itself calculated in step S203 is not used, but a value obtained by converting the estimated width α of the real space calculated in step S203 into a distance image space may be used.

補正部32は、注目部分領域の幅が推定幅αより大きい場合(ステップS204肯定)、推定幅αに基づいて、オクルージョン領域を補正する(ステップS205)。すなわち、補正部32は、注目部分領域の幅が推定幅αになるまで、注目部分領域の端の画素から画素の状態を不安定領域の画素から安定領域の画素に変更する。具体的には、補正部32は、注目部分領域の左端の画素から推定幅αに対応する画素までが安定領域となるように、右端の画素から順に画素の状態を不安定領域の画素から安定領域の画素に変更してもよい。又は、補正部32は、注目部分領域の右端の画素から推定幅αに対応する画素までが安定領域となるように、左端の画素から順に画素の状態を不安定領域の画素から安定領域の画素に変更してもよい。又は、補正部32は、注目部分領域の中央部に存在する推定幅αに対応する画素群が安定領域の画素となるように、右端及び左端の両方から順に画素の状態を不安定領域の画素から安定領域の画素に変更してもよい。   When the width of the target partial region is larger than the estimated width α (Yes at Step S204), the correcting unit 32 corrects the occlusion region based on the estimated width α (Step S205). That is, the correction unit 32 changes the pixel state from the pixel at the end of the target partial region to the pixel in the stable region until the width of the target partial region reaches the estimated width α. Specifically, the correction unit 32 stabilizes the pixel state from the pixel in the unstable region in order from the right end pixel so that the pixel from the left end of the target partial region to the pixel corresponding to the estimated width α is a stable region. You may change into the pixel of an area | region. Alternatively, the correcting unit 32 changes the state of the pixels in order from the leftmost pixel to the stable region pixel so that the pixel from the rightmost pixel of the target partial region to the pixel corresponding to the estimated width α is a stable region. You may change to Alternatively, the correction unit 32 changes the state of the pixels in order from both the right end and the left end so that the pixel group corresponding to the estimated width α existing in the center of the target partial region becomes a pixel in the stable region. May be changed to a pixel in the stable region.

また、補正部32は、注目部分領域の幅が推定幅α以下の場合(ステップS204否定)、注目部分領域の幅の補正を行わない。そして、処理は、ステップS206へ移る。ここで、ステップS205での補正後の注目部分領域又は注目部分領域の幅が推定幅α以下の場合の注目部分領域は、確定したオクルージョン領域となる。   Moreover, the correction | amendment part 32 does not correct | amend the width | variety of an attention partial area | region, when the width | variety of an attention partial area | region is below the estimation width | variety (alpha) (step S204 negative). Then, the process proceeds to step S206. Here, the target partial region after the correction in step S205 or the target partial region when the width of the target partial region is equal to or smaller than the estimated width α is the determined occlusion region.

幅算出部31は、現在の注目部分領域が最終位置に対応するか否かを判定する(ステップS206)。注目部分領域の最終位置は、推定部12で推定されたオクルージョン領域の内のY’座標が最大値である位置である。   The width calculation unit 31 determines whether or not the current target partial region corresponds to the final position (step S206). The final position of the target partial area is a position where the Y ′ coordinate in the occlusion area estimated by the estimation unit 12 is the maximum value.

幅算出部31は、最終位置でないと判定した場合(ステップS206否定)、注目部分領域の移動ルールに従って注目部分領域を移動させる(ステップS207)。そして、幅算出部31は、ステップS202,S203,S206の処理を繰り返し、補正部32は、ステップS204,S205の処理を繰り返す。   When determining that the position is not the final position (No at Step S206), the width calculating unit 31 moves the target partial area according to the movement rule of the target partial area (Step S207). Then, the width calculation unit 31 repeats the processes of steps S202, S203, and S206, and the correction unit 32 repeats the processes of steps S204 and S205.

幅算出部31は、最終位置であると判定した場合(ステップS206肯定)、オクルージョン領域の補正処理を終了する。   If the width calculation unit 31 determines that the position is the final position (Yes at step S206), the occlusion area correction process is terminated.

以上のように本実施例によれば、画像処理装置30において、幅算出部31は、推定部12で推定されたオクルージョン領域を挟んで両側に位置する第1の画素及び第2の画素のそれぞれに対応する距離に基づいて、オクルージョン領域の推定幅を算出する。そして、補正部32は、幅算出部31で算出された推定幅に基づいて、推定部12で推定されたオクルージョン領域を補正する。   As described above, according to the present exemplary embodiment, in the image processing apparatus 30, the width calculation unit 31 includes each of the first pixel and the second pixel that are located on both sides of the occlusion region estimated by the estimation unit 12. The estimated width of the occlusion area is calculated based on the distance corresponding to. Then, the correction unit 32 corrects the occlusion area estimated by the estimation unit 12 based on the estimated width calculated by the width calculation unit 31.

この画像処理装置30の構成により、オクルージョン領域の両側に位置する安定領域の画素に対応する距離に基づいて、オクルージョン領域の推定幅を精度良く算出することができる。そして、精度良く算出された推定幅に基づいて、推定したオクルージョン領域を補正することができるので、推定したオクルージョン領域の精度をさらに向上させることができる。   With the configuration of the image processing device 30, the estimated width of the occlusion area can be accurately calculated based on the distance corresponding to the pixels of the stable area located on both sides of the occlusion area. Since the estimated occlusion area can be corrected based on the estimated width calculated with high accuracy, the accuracy of the estimated occlusion area can be further improved.

そして、補正部32は、補正したオクルージョン領域に基づいて、距離画像を補正する。   Then, the correction unit 32 corrects the distance image based on the corrected occlusion area.

この画像処理装置30の構成により、精度が向上されたオクルージョン領域に基づいて、距離画像を補正できるので、距離画像の精度を向上させることができる。そして、例えば、この精度が向上された距離画像を用いて、右側画像及び左側画像に対してフィルタリング処理を行うことにより、輻輳と調節との矛盾の程度を小さく抑えることができる。この結果として、観察者が感じる疲労感を軽減させることができる3D画像を提供することができる。   With the configuration of the image processing device 30, the distance image can be corrected based on the occlusion region with improved accuracy, and thus the accuracy of the distance image can be improved. For example, by using the distance image with improved accuracy and performing filtering processing on the right image and the left image, the degree of contradiction between the congestion and the adjustment can be reduced. As a result, it is possible to provide a 3D image that can reduce the feeling of fatigue felt by the observer.

[実施例3]
実施例3では、実施例2と同様に、オクルージョン領域の推定幅を算出し、当該推定幅に基づいて、推定したオクルージョン領域を補正する。ただし、実施例2では、例えば、図6に示したオクルージョン領域に関する情報を補正するのに対して、実施例3では、距離画像において、推定したオクルージョン領域の補正及び推定したオクルージョン領域における距離の補正を行う。
[Example 3]
In the third embodiment, as in the second embodiment, the estimated width of the occlusion area is calculated, and the estimated occlusion area is corrected based on the estimated width. However, in the second embodiment, for example, information on the occlusion area shown in FIG. 6 is corrected. In the third embodiment, in the distance image, the estimated occlusion area is corrected and the distance in the estimated occlusion area is corrected. I do.

[画像処理装置の構成例]
図11は、実施例3の画像処理装置の一例を示すブロック図である。図11において、画像処理装置50は、補正部51を有する。
[Configuration example of image processing apparatus]
FIG. 11 is a block diagram illustrating an example of an image processing apparatus according to the third embodiment. In FIG. 11, the image processing apparatus 50 includes a correction unit 51.

補正部51は、推定部12で推定されたオクルージョン領域に対して、幅算出部31で算出された推定幅αを有する「第1の領域」と、第1の領域を除く「第2の領域」とを設定する。ここで、第1の領域は、確定したオクルージョン領域である。   For the occlusion region estimated by the estimation unit 12, the correction unit 51 includes a “first region” having the estimated width α calculated by the width calculation unit 31 and a “second region” excluding the first region. Is set. Here, the first area is a confirmed occlusion area.

そして、補正部51は、第2の領域の内で右側画素よりも左側画素に近い画素に対応する距離を、第1の距離で補正する。また、補正部51は、第2の領域の内で左側画素よりも右側画素に近い画素に対応する距離を、第2の距離で補正する。さらに、補正部51は、第1の領域の内の画素に対応する距離を、第1の距離及び第2の距離の内の大きい方で補正する。   Then, the correction unit 51 corrects the distance corresponding to the pixel closer to the left pixel than the right pixel in the second region by the first distance. Further, the correction unit 51 corrects the distance corresponding to the pixel closer to the right pixel than the left pixel in the second region by the second distance. Further, the correction unit 51 corrects the distance corresponding to the pixel in the first region by the larger one of the first distance and the second distance.

なお、補正部51は、推定部12で推定されたオクルージョン領域の幅が推定幅α以下の場合には、推定部12で推定されたオクルージョン領域内の画素に対応する距離を、第1の距離及び第2の距離の内の大きい方で補正する。   When the width of the occlusion region estimated by the estimation unit 12 is equal to or less than the estimated width α, the correction unit 51 sets the distance corresponding to the pixel in the occlusion region estimated by the estimation unit 12 to the first distance. And the larger one of the second distances is corrected.

[画像処理装置の動作例]
以上の構成を有する画像処理装置50の動作例について説明する。図12は、実施例3の画像処理装置の処理動作の一例を示すフローチャートである。図13は、実施例3の画像処理装置における推定幅の算出処理の説明に供する図である。図14は、実施例3のオクルージョン領域の補正処理後の距離画像の一例を示す図である。
[Operation example of image processing apparatus]
An operation example of the image processing apparatus 50 having the above configuration will be described. FIG. 12 is a flowchart illustrating an example of a processing operation of the image processing apparatus according to the third embodiment. FIG. 13 is a diagram for explaining the estimation width calculation process in the image processing apparatus according to the third embodiment. FIG. 14 is a diagram illustrating an example of a distance image after the occlusion area correction process according to the third embodiment.

画像処理装置50において補正部51は、注目部分領域の幅が推定幅αより大きい場合(ステップS204肯定)、注目部分領域において中央部に推定幅αを有する第1の領域と、第1の領域を除く第2の領域とを設定する(ステップS301)。例えば、図13の左図に示す注目部分領域(同図では、推定したオクルージョン領域A400)に対して、右図に示す第1の領域A401と、第2の領域A402とを設定する。第2の領域A402は、領域A403と領域A404とを含む。   In the image processing device 50, when the width of the target partial region is larger than the estimated width α (Yes in step S204), the correcting unit 51 includes a first region having the estimated width α in the center of the target partial region, and the first region A second area excluding is set (step S301). For example, the first area A401 and the second area A402 shown in the right figure are set for the target partial area shown in the left figure of FIG. 13 (the estimated occlusion area A400 in the figure). The second area A402 includes an area A403 and an area A404.

そして、補正部51は、第2の領域A402の内で右側画素よりも左側画素に近い画素(つまり、領域A403内の画素)に対応する距離を、第1の距離で補正する(ステップS302)。また、補正部51は、第2の領域A402の内で左側画素よりも右側画素に近い画素(つまり、領域A404内の画素)に対応する距離を、第2の距離で補正する(ステップS302)。さらに、補正部51は、第1の領域A401の内の画素に対応する距離を、第1の距離及び第2の距離の内の大きい方で補正する(ステップS302)。   Then, the correction unit 51 corrects the distance corresponding to the pixel closer to the left pixel than the right pixel in the second region A402 (that is, the pixel in the region A403) by the first distance (step S302). . Further, the correction unit 51 corrects the distance corresponding to the pixel closer to the right pixel than the left pixel in the second region A402 (that is, the pixel in the region A404) by the second distance (step S302). . Further, the correction unit 51 corrects the distance corresponding to the pixel in the first area A401 by the larger one of the first distance and the second distance (step S302).

一方、補正部51は、注目部分領域の幅が推定幅α以下の場合(ステップS204否定)、注目部分領域の画素に対応する距離を、第1の距離及び第2の距離の内の大きい方で補正する(ステップS303)。   On the other hand, when the width of the target partial area is equal to or smaller than the estimated width α (No in step S204), the correcting unit 51 sets the distance corresponding to the pixel of the target partial area as the larger one of the first distance and the second distance. (Step S303).

補正部51が以上の補正処理を行うことにより、例えば、図14に示すような補正後の距離画像が得られる。   When the correction unit 51 performs the above correction processing, for example, a corrected distance image as shown in FIG. 14 is obtained.

なお、以上の説明では、第1の領域を注目部分領域の中央部に設定する場合について説明したが、これに限定されるものではない。例えば、第1の領域を注目部分領域の右端に合わせて設定してもよいし、又は、第1の領域を注目部分領域の左端に合わせて設定してもよい。   In the above description, the case where the first area is set at the center of the target partial area has been described. However, the present invention is not limited to this. For example, the first area may be set according to the right end of the target partial area, or the first area may be set according to the left end of the target partial area.

以上のように本実施例によれば、画像処理装置50において、幅算出部31は、推定部12で推定されたオクルージョン領域を挟んで両側に位置する第1の画素及び第2の画素のそれぞれに対応する距離に基づいて、オクルージョン領域の推定幅を算出する。そして、補正部51は、推定部12で推定されたオクルージョン領域に対して、幅算出部31で算出された推定幅を有する第1の領域とこれを除く第2の領域とを設定する。そして、補正部51は、第2の領域の内で第2の画素よりも第1の画素に近い画素に対応する距離を第1の距離で補正する。そして、補正部51は、第1の画素よりも第2の画素に近い画素に対応する距離を第2の距離で補正する。そして、補正部51は、第1の領域の内の画素に対応する距離を、第1の距離及び第2の距離の内の大きい方で補正する。   As described above, according to the present embodiment, in the image processing apparatus 50, the width calculation unit 31 includes each of the first pixel and the second pixel that are located on both sides of the occlusion region estimated by the estimation unit 12. The estimated width of the occlusion area is calculated based on the distance corresponding to. Then, the correction unit 51 sets a first region having the estimated width calculated by the width calculation unit 31 and a second region excluding the first region for the occlusion region estimated by the estimation unit 12. Then, the correction unit 51 corrects the distance corresponding to the pixel closer to the first pixel than the second pixel in the second region by the first distance. Then, the correction unit 51 corrects the distance corresponding to the pixel closer to the second pixel than the first pixel by the second distance. Then, the correction unit 51 corrects the distance corresponding to the pixel in the first region by the larger one of the first distance and the second distance.

この画像処理装置50の構成により、オクルージョン領域の両側に位置する安定領域の画素に対応する距離に基づいて、オクルージョン領域の推定幅を精度良く算出することができる。そして、精度良く算出された推定幅に基づいて、推定したオクルージョン領域を補正することができるので、推定したオクルージョン領域の精度をさらに向上させることができる。また、推定したオクルージョン領域の画素に対応する距離を、安定領域の画素に対応する距離を用いて補正することができるので、距離画像の精度を向上させることができる。そして、例えば、この精度が向上された距離画像を用いて、右側画像及び左側画像に対してフィルタリング処理を行うことにより、輻輳と調節との矛盾の程度を小さく抑えることができる。この結果として、観察者が感じる疲労感を軽減させることができる3D画像を提供することができる。   With the configuration of the image processing device 50, the estimated width of the occlusion area can be calculated with high accuracy based on the distance corresponding to the pixels of the stable area located on both sides of the occlusion area. Since the estimated occlusion area can be corrected based on the estimated width calculated with high accuracy, the accuracy of the estimated occlusion area can be further improved. In addition, since the distance corresponding to the estimated pixel of the occlusion area can be corrected using the distance corresponding to the pixel of the stable area, the accuracy of the distance image can be improved. For example, by using the distance image with improved accuracy and performing filtering processing on the right image and the left image, the degree of contradiction between the congestion and the adjustment can be reduced. As a result, it is possible to provide a 3D image that can reduce the feeling of fatigue felt by the observer.

[他の実施例]
[1]実施例1から実施例3では、推定されたオクルージョン領域が1つの場合を前提として説明を行ったが、これに限定されるものではない。推定されたオクルージョン領域が複数在る場合には、実施例1から実施例3で説明した処理を各オクルージョン領域に対して行えばよい。
[Other embodiments]
[1] In the first to third embodiments, the description has been made on the assumption that there is one estimated occlusion region. However, the present invention is not limited to this. When there are a plurality of estimated occlusion areas, the processing described in the first to third embodiments may be performed on each occlusion area.

[2]実施例1から実施例3で図示した各部の各構成要素は、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各部の分散・統合の具体的形態は図示のものに限られず、その全部又は一部を、各種の負荷や使用状況等に応じて、任意の単位で機能的又は物理的に分散・統合して構成することができる。   [2] Each component of each part illustrated in the first to third embodiments is not necessarily physically configured as illustrated. In other words, the specific form of distribution / integration of each part is not limited to the one shown in the figure, and all or a part thereof may be functionally or physically distributed / integrated in arbitrary units according to various loads and usage conditions. Can be configured.

更に、各装置で行われる各種処理機能は、CPU(Central Processing Unit)(又はMPU(Micro Processing Unit)、MCU(Micro Controller Unit)等のマイクロ・コンピュータ)上で、その全部又は任意の一部を実行するようにしてもよい。また、各種処理機能は、CPU(又はMPU、MCU等のマイクロ・コンピュータ)で解析実行するプログラム上、又はワイヤードロジックによるハードウェア上で、その全部又は任意の一部を実行するようにしてもよい。   Furthermore, various processing functions performed in each device are performed on a CPU (Central Processing Unit) (or a microcomputer such as an MPU (Micro Processing Unit), MCU (Micro Controller Unit), etc.) in whole or in part. You may make it perform. Various processing functions may be executed entirely or arbitrarily on a program that is analyzed and executed by a CPU (or a microcomputer such as an MPU or MCU) or hardware based on wired logic. .

実施例1から実施例3の画像処理装置は、例えば、次のようなハードウェア構成により実現することができる。   The image processing apparatuses according to the first to third embodiments can be realized by the following hardware configuration, for example.

図15は、画像処理装置のハードウェア構成例を示す図である。図15に示すように、画像処理装置100は、プロセッサ101と、メモリ102と、カメラ103と、表示装置104とを有する。   FIG. 15 is a diagram illustrating a hardware configuration example of the image processing apparatus. As illustrated in FIG. 15, the image processing apparatus 100 includes a processor 101, a memory 102, a camera 103, and a display device 104.

プロセッサ101の一例としては、CPU(Central Processing Unit)、DSP(Digital Signal Processor)、FPGA(Field Programmable Gate Array)等が挙げられる。また、メモリ102の一例としては、SDRAM(Synchronous Dynamic Random Access Memory)等のRAM(Random Access Memory)、ROM(Read Only Memory)、フラッシュメモリ等が挙げられる。   Examples of the processor 101 include a central processing unit (CPU), a digital signal processor (DSP), and a field programmable gate array (FPGA). Further, examples of the memory 102 include a RAM (Random Access Memory) such as an SDRAM (Synchronous Dynamic Random Access Memory), a ROM (Read Only Memory), a flash memory, and the like.

そして、実施例1から実施例3の画像処理装置で行われる各種処理機能は、不揮発性記憶媒体などの各種メモリに格納されたプログラムを増幅装置が備えるプロセッサで実行することによって実現してもよい。すなわち、取得部11と、推定部12と、幅算出部31と、補正部13,32,51とによって実行される各処理に対応するプログラムがメモリ102に記録され、各プログラムがプロセッサ101で実行されてもよい。また、右側画像及び左側画像は、カメラ103で撮影されてもよい。また、右側画像及び左側画像、距離画像、並びに、補正された距離画像は、表示装置104に表示されてもよい。   Various processing functions performed by the image processing apparatuses according to the first to third embodiments may be realized by executing programs stored in various memories such as a nonvolatile storage medium by a processor included in the amplification apparatus. . That is, a program corresponding to each process executed by the acquisition unit 11, the estimation unit 12, the width calculation unit 31, and the correction units 13, 32, and 51 is recorded in the memory 102, and each program is executed by the processor 101. May be. Further, the right image and the left image may be taken by the camera 103. Further, the right image, the left image, the distance image, and the corrected distance image may be displayed on the display device 104.

また、プロセッサ101は、1チップの画像処理回路として実現されてもよい。   The processor 101 may be realized as a one-chip image processing circuit.

10,30,50 画像処理装置
11 取得部
12 推定部
13,32,51 補正部
31 幅算出部
10, 30, 50 Image processing apparatus 11 Acquisition unit 12 Estimation unit 13, 32, 51 Correction unit 31 Width calculation unit

Claims (7)

メモリと、前記メモリに接続されたプロセッサとを有し、
前記プロセッサは、
第1の画像と前記第1の画像と視点が異なる第2の画像とに基づく距離画像内で窓を移動させ、
各窓内における注目画素に対応する距離と各非注目画素に対応する距離との差の総和に基づいて、前記注目画素がオクルージョン領域の画素であるか否かを判定して、前記オクルージョン領域を推定する、
ことを特徴とする画像処理装置。
A memory and a processor connected to the memory;
The processor is
Moving a window within a distance image based on a first image and a second image having a different viewpoint from the first image;
Based on the sum of the difference between the distance corresponding to the target pixel in each window and the distance corresponding to each non-target pixel, it is determined whether the target pixel is a pixel in the occlusion area, and the occlusion area is determined. presume,
An image processing apparatus.
前記プロセッサは、
前記推定したオクルージョン領域を挟んで両側に位置する第1の画素及び第2の画素のそれぞれに対応する距離に基づいて、前記オクルージョン領域の推定幅を算出し、
前記推定幅に基づいて、前記推定したオクルージョン領域を補正する、
ことを特徴とする請求項1に記載の画像処理装置。
The processor is
Based on the distance corresponding to each of the first pixel and the second pixel located on both sides across the estimated occlusion area, the estimated width of the occlusion area is calculated,
Correcting the estimated occlusion area based on the estimated width;
The image processing apparatus according to claim 1.
前記プロセッサは、
前記推定したオクルージョン領域を挟んで両側に位置する第1の画素及び第2の画素のそれぞれに対応する距離に基づいて、前記オクルージョン領域の推定幅を算出し、
前記推定したオクルージョン領域に対して前記推定幅を有する第1の領域と前記第1の領域を除く第2の領域とを設定し、
前記第2の領域の内で前記第2の画素よりも前記第1の画素に近い画素に対応する距離を前記第1の画素に対応する距離で補正し、前記第1の画素よりも前記第2の画素に近い画素に対応する距離を前記第2の画素に対応する距離で補正し、前記第1の領域の内の画素に対応する距離を前記第1の画素に対応する距離及び前記第2の画素に対応する距離の内の大きい方で補正する、
ことを特徴とする請求項1に記載の画像処理装置。
The processor is
Based on the distance corresponding to each of the first pixel and the second pixel located on both sides across the estimated occlusion area, the estimated width of the occlusion area is calculated,
A first area having the estimated width and a second area excluding the first area with respect to the estimated occlusion area;
The distance corresponding to the pixel closer to the first pixel than the second pixel in the second region is corrected by the distance corresponding to the first pixel, and the first pixel is corrected to the first pixel. A distance corresponding to a pixel close to the second pixel is corrected with a distance corresponding to the second pixel, and a distance corresponding to a pixel in the first region is corrected to a distance corresponding to the first pixel and the first Correct with the larger of the distances corresponding to 2 pixels,
The image processing apparatus according to claim 1.
前記プロセッサは、前記総和が閾値より大きい場合、前記総和に対応する注目画素を前記オクルージョン領域の画素であると判定する、
ことを特徴とする請求項1から3のいずれか一項に記載の画像処理装置。
The processor determines that the pixel of interest corresponding to the sum is a pixel in the occlusion region when the sum is greater than a threshold value.
The image processing apparatus according to claim 1, wherein the image processing apparatus is an image processing apparatus.
第1の画像と前記第1の画像と視点が異なる第2の画像とに基づく距離画像内で窓を移動させ、
各窓内における注目画素に対応する距離と各非注目画素に対応する距離との差の総和に基づいて、前記注目画素がオクルージョン領域の画素であるか否かを判定して、前記オクルージョン領域を推定する、
画像処理回路。
Moving a window within a distance image based on a first image and a second image having a different viewpoint from the first image;
Based on the sum of the difference between the distance corresponding to the target pixel in each window and the distance corresponding to each non-target pixel, it is determined whether the target pixel is a pixel in the occlusion area, and the occlusion area is determined. presume,
Image processing circuit.
第1の画像と前記第1の画像と視点が異なる第2の画像とに基づく距離画像内で窓を移動させ、
各窓内における注目画素に対応する距離と各非注目画素に対応する距離との差の総和に基づいて、前記注目画素がオクルージョン領域の画素であるか否かを判定して、前記オクルージョン領域を推定する、
処理を、画像処理装置に実行させる画像処理プログラム。
Moving a window within a distance image based on a first image and a second image having a different viewpoint from the first image;
Based on the sum of the difference between the distance corresponding to the target pixel in each window and the distance corresponding to each non-target pixel, it is determined whether the target pixel is a pixel in the occlusion area, and the occlusion area is determined. presume,
An image processing program for causing an image processing apparatus to execute processing.
第1の画像と前記第1の画像と視点が異なる第2の画像とに基づく距離画像内で窓を移動させ、
各窓内における注目画素に対応する距離と各非注目画素に対応する距離との差の総和に基づいて、前記注目画素がオクルージョン領域の画素であるか否かを判定して、前記オクルージョン領域を推定する、
画像処理方法。
Moving a window within a distance image based on a first image and a second image having a different viewpoint from the first image;
Based on the sum of the difference between the distance corresponding to the target pixel in each window and the distance corresponding to each non-target pixel, it is determined whether the target pixel is a pixel in the occlusion area, and the occlusion area is determined. presume,
Image processing method.
JP2013088847A 2013-04-19 2013-04-19 Image processing apparatus, image processing circuit, image processing program, and image processing method Pending JP2014211829A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013088847A JP2014211829A (en) 2013-04-19 2013-04-19 Image processing apparatus, image processing circuit, image processing program, and image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013088847A JP2014211829A (en) 2013-04-19 2013-04-19 Image processing apparatus, image processing circuit, image processing program, and image processing method

Publications (1)

Publication Number Publication Date
JP2014211829A true JP2014211829A (en) 2014-11-13

Family

ID=51931524

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013088847A Pending JP2014211829A (en) 2013-04-19 2013-04-19 Image processing apparatus, image processing circuit, image processing program, and image processing method

Country Status (1)

Country Link
JP (1) JP2014211829A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017094536A1 (en) * 2015-12-01 2017-06-08 ソニー株式会社 Image-processing device and image-processing method

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017094536A1 (en) * 2015-12-01 2017-06-08 ソニー株式会社 Image-processing device and image-processing method
US10846916B2 (en) 2015-12-01 2020-11-24 Sony Corporation Image processing apparatus and image processing method

Similar Documents

Publication Publication Date Title
JP6351238B2 (en) Image processing apparatus, imaging apparatus, and distance correction method
US9171373B2 (en) System of image stereo matching
US10701334B2 (en) Virtual reality parallax correction
KR101752690B1 (en) Apparatus and method for correcting disparity map
US9967516B2 (en) Stereo matching method and device for performing the method
JP2015035658A (en) Image processing apparatus, image processing method, and imaging apparatus
US20120163703A1 (en) Stereo matching system using dynamic programming and method thereof
US8994722B2 (en) Method for enhancing depth images of scenes using trellis structures
JP2013500536A5 (en)
KR102199458B1 (en) Method for reconstrucing 3d color mesh and apparatus for the same
JP5318168B2 (en) Stereoscopic image processing apparatus, stereoscopic image processing method, and program
US20150187051A1 (en) Method and apparatus for estimating image noise
CN107077719A (en) Perspective correction based on depth map in digital photograph
WO2014030571A1 (en) Stereoscopic image processing device, stereoscopic image processing method, and program
KR101558805B1 (en) Interpolation factors correction apparatus for stereo matching
US8970670B2 (en) Method and apparatus for adjusting 3D depth of object and method for detecting 3D depth of object
US20150145861A1 (en) Method and arrangement for model generation
JP5422538B2 (en) Image processing apparatus, display apparatus, method and program thereof
WO2015198592A1 (en) Information processing device, information processing method, and information processing program
CN107424583B (en) Display data processing method and system for special-shaped image
JP2014211829A (en) Image processing apparatus, image processing circuit, image processing program, and image processing method
KR20160063805A (en) Apparatus and method for making multi-viewpoint image
JP5820716B2 (en) Image processing apparatus, image processing method, computer program, recording medium, and stereoscopic image display apparatus
US20150215602A1 (en) Method for ajdusting stereo image and image processing device using the same
EP2980752A1 (en) Image processing device, image processing system, image processing method, and image processing program