JP7297566B2 - Image processing device, imaging device, image processing method and program - Google Patents
Image processing device, imaging device, image processing method and program Download PDFInfo
- Publication number
- JP7297566B2 JP7297566B2 JP2019124721A JP2019124721A JP7297566B2 JP 7297566 B2 JP7297566 B2 JP 7297566B2 JP 2019124721 A JP2019124721 A JP 2019124721A JP 2019124721 A JP2019124721 A JP 2019124721A JP 7297566 B2 JP7297566 B2 JP 7297566B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- distance information
- image processing
- subject
- dividing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Studio Devices (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Description
本発明は、画像処理装置、撮像装置、画像処理方法およびプログラムに関する。 The present invention relates to an image processing device, an imaging device, an image processing method, and a program.
従来、画像の明瞭度やコントラスト、明るさなどを補正する画像処理(例えば、覆い焼き処理、HDRなど)を、画像内の一部の領域に適用する処理が知られている。一部の領域を抽出するために、距離情報を参照して、距離の分布を元に特定の被写体を検出する技術がある。特許文献1は、現在のフレームよりも前の距離分布データに基づいて、現在のフレームにおける物体の位置を予測し、以降のフレームで物体を追跡する技術を開示している。
2. Description of the Related Art Conventionally, there has been known a process of applying image processing (for example, dodging processing, HDR, etc.) for correcting clarity, contrast, brightness, etc. of an image to a partial region within an image. In order to extract a part of the area, there is a technique of referring to distance information and detecting a specific subject based on the distance distribution.
しかしながら、特許文献1に開示されている常に距離情報を参照する構成では、例えば画像が示す距離の分布が万遍なく一様に広がっていたり、同じ距離に複数の被写体が存在していたりするシーンでは、精度良く被写体を検出することが困難である。被写体検出や領域抽出の精度が低いと、抽出した一部の領域に対して行う画像処理において所望の効果が得られない恐れがある。
However, in the configuration disclosed in
本発明は、精度良く画像内の領域を分離することができる画像処理装置を提供することを目的とする。 SUMMARY OF THE INVENTION An object of the present invention is to provide an image processing apparatus capable of separating regions in an image with high accuracy.
上記課題を解決するために、本発明の画像処理装置は、画像に対応する距離情報を取得する取得手段と、前記距離情報に応じて、画像を複数の領域に分割する第1の分割手段と、被写体検出を行う検出手段と、前記被写体検出の検出結果に応じて、画像を複数の領域に分割する第2の分割手段と、前記距離情報に基づいて、画像を複数の領域に分割する分割手段を決定する決定手段と、を備え、前記決定手段は、前記距離情報と前記被写体検出の検出結果に基づいて、被写体を含む被写体領域を抽出し、前記被写体領域と前記被写体領域より遠い領域の前記距離情報の統計量に基づいて分割手段を決定する。 In order to solve the above-mentioned problems, the image processing apparatus of the present invention includes acquisition means for acquiring distance information corresponding to an image, and first division means for dividing the image into a plurality of areas according to the distance information. a detection means for detecting a subject; a second division means for dividing an image into a plurality of areas according to the detection result of the subject detection; and a division for dividing the image into a plurality of areas based on the distance information. determining means for determining means, wherein the determining means extracts a subject region including the subject based on the distance information and the detection result of the subject detection, and determines the distance between the subject region and a region farther than the subject region; A dividing means is determined based on the statistic of the distance information .
本発明によれば、精度良く画像内の領域を分離することができる画像処理装置を提供することができる。 According to the present invention, it is possible to provide an image processing apparatus that can accurately separate regions in an image.
本実施形態では、画像の一部領域に対する画像処理の一例として、デジタルカメラなどの撮像装置を用いて撮影した画像を、被写体の領域検出情報や距離情報、撮影条件などの撮影シーンに関する情報を用いて覆い焼き処理による階調処理を行う場合を説明する。以下では、画像処理装置の一例として撮像装置について説明するが、本実施形態の画像処理装置は撮像装置に限定されず、例えばパーソナルコンピュータ(PC)などであってもよい。 In this embodiment, as an example of image processing for a partial area of an image, an image captured using an imaging device such as a digital camera is processed using information related to the shooting scene such as subject area detection information, distance information, and shooting conditions. A case where gradation processing is performed by dodging processing will be described. Although an imaging device will be described below as an example of an image processing device, the image processing device of this embodiment is not limited to an imaging device, and may be, for example, a personal computer (PC).
図1は、撮像装置100の構成を示す図である。撮像装置100は、例えば、デジタル一眼レフカメラ、デジタルビデオカメラ、コンパクトデジタルカメラ等、デジタル画像の処理を行うことができる撮像装置である。撮像装置100は、光学系101、撮像部102、A/D変換部103、画像処理部104、制御部105、表示部106、記録部107を備える。なお、本実施形態では、撮像装置100の本体部とレンズ装置(光学系101)が一体となっている撮像装置の例について説明するが、レンズ装置が本体部に対して着脱可能な撮像装置であってもよい。
FIG. 1 is a diagram showing the configuration of an
光学系101は、ズームレンズやフォーカスレンズから構成されるレンズ群、絞り、シャッターを備える撮像光学系である。光学系101は、撮像部102に到達する被写体像の倍率やピント位置、あるいは、光量を調整する。
撮像部102は、光学系101を通過した被写体の光束を光電変換し電気信号に変換するCCDやCMOSセンサー等の撮像素子を有する。撮像部102の詳細な構成については、図3(A)および図3(B)を用いて後述する。
The
The
A/D変換部103は、撮像部102から入力された映像信号をデジタルの画像に変換する。画像処理部104は、ノイズ低減や現像処理、階調処理などの信号処理、表示用画像の加工処理等を行う。なお、画像処理部104は、A/D変換部103から出力された画像のみでなく、記録部107から読み出した画像に対しても同様の画像処理を行うことができる。
The A/
制御部105は、例えばCPU(Central Processing Unit)であり、撮像装置100全体を制御する。例えば、適正な明るさを持つ入力画像を得るために、撮影時の露光量を算出し、算出した露光量で画像を取得するために光学系101と撮像部102を制御して、絞り、シャッタースピード、センサーのアナログゲイン等を制御する。
The
表示部106は、画像処理部104から出力される画像をLCD(液晶表示装置)などの表示用部材に逐次表示することにより、電子ビューファインダ(EVF)として機能する。なお、本実施形態では電子ビューファインダの例を説明するが、撮像装置100は光学ファインダを備えていてもよい。また、表示部106は、操作内容や各種設定等の情報をUIに表示し、撮影者からの操作を受け付けるタッチパネル機能を有する表示用部材を有していてもよい。
The
記録部107は、画像を記録する機能を有し、たとえば、半導体メモリが搭載されたメモリカードや光磁気ディスク等の回転記録体を収容したパッケージなどを用いた情報記録媒体を含んでもよい。記録部107は、撮像装置100に備えられていてもよいし、着脱可能なメモリであってもよい。
The
図2は、画像処理部104の構成を説明する図である。画像処理部104は、信号処理部201、被写体検出部202、撮影情報取得部203、デフォーカス演算部204、ヒスト算出部205を備える。なお、図2に示す機能ブロックの1つ以上は、ASICやプログラマブルロジックアレイ(PLA)などのハードウェアによって実現されてもよいし、CPUやMPU等のプログラマブルプロセッサがソフトウェアを実行することによって実現されてもよい。また、ソフトウェアとハードウェアの組み合わせによって実現されてもよい。従って、以下の説明において、異なる機能ブロックが動作主体として記載されている場合であっても、同じハードウェアが主体として実現されうる。
FIG. 2 is a diagram for explaining the configuration of the
信号処理部201は、ノイズ低減処理や現像処理などの信号処理を行う他、ガンマ変換などによる階調圧縮処理、画像の明るさやコントラスト、色相、彩度、シャープネス等を補正する処理等、様々な画像処理を行う。また、信号処理部201は、領域ごとに画像処理を行う場合に、一部の領域を分離するための分離方法を決定する決定手段と、決定した分離方法で画像の領域を分離する分離手段としての機能も有する。
The
被写体検出部202は、画像内に特定の被写体が存在するか否かを検出する。そして、被写体検出部202は、画像内に特定の被写体が存在する場合には、特定の被写体の位置(画像内での座標)および大きさを出力する。特定の被写体としては、人物の顔や体全体、各種動物や乗り物など種々のものが指定可能である。
撮影情報取得部203は、撮影時の撮影モードや、焦点距離、絞り値、露光時間などの各種情報を取得する。
A
A shooting
デフォーカス演算部204は、光学系101の異なる瞳領域から到来する光束が生ずる複数の被写体像の位相差に基づいて像ずれ量を算出し、像ずれ量に基づいてデフォーカスの分布を示すデフォーカスマップを生成する。デフォーカスマップの具体的な生成方法については、例えば、特開2016-9062号公報で述べられているような公知の手法を用い、画素毎にデフォーカス量を算出しデフォーカスマップとして扱う。また、デフォーカス演算部204は、デフォーカス量から変換される撮像装置100と対象物との距離マップデータを取得してもよい。なお、本実施形態では距離情報の一例としてデフォーカスマップを用いる例について説明するが、光学系101の瞳の異なる領域から到来する光束が生ずる複数の被写体像の位相差(像ずれ量)や、絶対距離値に基づいたマップであってもよい。
The
ヒスト算出部205は、画像に対してヒストグラムを生成する処理を行う。ヒストグラムを生成する画像としては、輝度および色信号を持ったものでも距離を示す多値の信号であってもよい。
A
図3(A)は、撮像部102の画素302の配列構成を示す図である。図3(B)は、画素302の構成を示す図である。撮像部102の撮像素子は、二次元状に配置された複数の画素302を備える。画素302は、1つのマイクロレンズ301と、一対の光電変換部303Aおよび光電変換部303Bを備える。光電変換部303Aおよび光電変換部303Bは、1つのマイクロレンズに対して瞳分割された光束をそれぞれ受光し、位相差のある一対の焦点検出用信号を出力することが可能である。なお、本実施形態では各画素部が2つの光電変換部を備える例を説明するが、これに限られるものではなく、複数の光電変換部を備える構成であればよい。
FIG. 3A is a diagram showing an arrangement configuration of
次に、画像の一部の領域に画像処理を施す一例として、背景の領域に対してのみコントラストを補正する階調処理を行う例について説明する。図4(A)は、画像の一部の領域に対する画像処理を説明するフローチャートである。図5(A)は、画像処理の対象となる入力画像501の一例を示す図である。入力画像501は、人物502が手前に花を差し出しているシーンである。入力画像501では、撮像装置100の近くにいる人物502がくっきりとしたコントラストを有しているのに対し、背景がかすんでコントラストが低くなっている。
Next, as an example of performing image processing on a partial area of an image, an example of performing gradation processing for correcting contrast only on a background area will be described. FIG. 4A is a flowchart for explaining image processing for a partial area of an image. FIG. 5A is a diagram showing an example of an
ステップS401で、被写体検出部202は、入力画像501に対して被写体検出処理を行う。被写体の検出方法としては、例えば特開平10-162118号公報で述べられているようなエッジのパターンに基づいて判定する手法など既存の技術を用いて良い。本実施形態では、被写体を人とし、被写体検出処理として顔検出処理を行う。図5(B)は、被写体検出結果の一例を示す図である。枠510は、顔検出の検出結果である人物502の顔の位置を示す枠である。
In step S<b>401 , the
ステップS402で、デフォーカス演算部204は、入力画像501のデフォーカスマップを生成する。図6は、デフォーカスマップの一例を示す図である。デフォーカスマップ601は、入力画像501に対応するデフォーカスマップである。デフォーカスマップ601では、デフォーカス量を濃淡により示している。濃淡の中間(灰色)で示される領域602は、入力画像501の人物502に対応する領域であり、合焦を示している。領域602より淡い色(白色)で示される領域は、入力画像501において手前側にある花に対応する領域であり、前ボケの非合焦を示している。領域602より濃い色(黒色)で示される領域は、入力画像501において奥側にある背景に対応する領域であり、後ボケの非合焦を示している。なお、本実施形態のステップS402では、距離情報としてデフォーカスマップを生成する例を説明したが、これに限られるものではなく、位相差(像ずれ量)や絶対距離に基づくマップを生成してもよい。
In step S<b>402 , the
ステップS403で、ヒスト算出部205は、ステップS402で生成したデフォーカスマップ601に基づいてデフォーカスのヒストグラムを生成する。図7(A)は、ヒストグラムの一例を示す図である。ヒストグラム701は、横方向がデフォーカスの値を、縦方向が画素数を示している。デフォーカスの値は、128が合焦を示しており、127以下の値は後ボケ(奥側)を、129以上の値は前ボケ(手前側)であることを意味している。
In step S403, the
ステップS404で、信号処理部201は、ステップS403で生成したデフォーカスのヒストグラムに基づいて、被写体距離閾値を算出する。被写体距離閾値は、被写体を含む被写体領域のデフォーカスの範囲を示す値である。本実施形態においては、被写体である人物502に対応するデフォーカスの範囲を算出する。デフォーカスの範囲の具体的な算出方法について、図4(B)のフローチャートを用いて説明する。
In step S404, the
図4(B)は、被写体距離閾値算出処理を示すフローチャートである。
ステップS450で、信号処理部201は、ステップS401の顔検出結果(枠510)の位置における平均デフォーカス値Def_faceを、ステップS402で生成したデフォーカスマップを参照して算出する。図7(B)は、被写体距離閾値を説明する図である。点710は、算出された平均デフォーカス値Def_faceに対応するヒストグラム上の値を示している。点710は、デフォーカス値の128に近い値となっている。入力画像501は人物502にピントを合わせて撮影されたことにより、人物502の顔領域のデフォーカス量が128に近い値となっていることがわかる。
FIG. 4B is a flowchart showing subject distance threshold calculation processing.
In step S450, the
ステップS451で、信号処理部201は、ステップS450で算出した平均デフォーカス値Def_faceに基づいて人物502を示すデフォーカスの下限値th1を算出する。デフォーカスの下限値th1は、被写体と背景の距離の境界を示すデフォーカス量である。具体的には、ヒストグラム上で平均デフォーカス値Def_faceから左側(デフォーカスの値が小さくなる)方向へヒストグラムの値を順次参照していき下限値th1を検出する。そして、デフォーカス値の変化量がマイナス方向(減)からプラス方向(増)に所定値以上の変化をした場合、または、0の値が所定値以上連続した場合のいずれかが満たされたときのデフォーカスの値を下限値th1とする。このように、ヒストグラムの谷すなわち距離の分布が大きく切り替わっている部分を検出することで、被写体と背景の距離の境界を示すデフォーカス量を検出することができる。
In step S451, the
ステップS452で、信号処理部201は、ステップS450で算出した平均デフォーカス値Def_faceに基づいて人物502を示すデフォーカスの上限値th2を算出する。デフォーカスの上限値th2は、被写体と前景の距離の境界を示すデフォーカス量である。
具体的には、ヒストグラム上で平均デフォーカス値Def_faceから右側(デフォーカスの値が大きくなる)方向へヒストグラムの値を順次参照していき上限値Th2を検出する。そして、デフォーカス値の変化量がマイナス方向(減)からプラス方向(増)に所定以上の変化をした場合、または、0の値が所定以上連続した場合のいずれかが満たされたときのデフォーカスの値を上限値th2とする。このように、ヒストグラムの谷すなわち距離の分布が大きく切り替わっている部分を検出することで、人物と前景の距離の境界を示すデフォーカス量を検出することができる。
In step S452, the
Specifically, the histogram values are sequentially referred to from the average defocus value Def_face to the right (the defocus value increases) on the histogram to detect the upper limit value Th2. Then, when the amount of change in the defocus value changes from the negative direction (decrease) to the positive direction (increase) by a predetermined amount or more, or when the value of 0 continues for a predetermined amount or more, the defocus value is defocused. Let the focus value be the upper limit value th2. In this way, by detecting the troughs of the histogram, that is, the portions where the distance distribution changes significantly, it is possible to detect the defocus amount indicating the boundary of the distance between the person and the foreground.
なお、ステップS451およびステップS452においてヒストグラムの増減の変化や連続性に基づいて閾値を算出する方法について述べたが、これに限られるものではなく、他の手法を用いて閾値を算出してもよい。例えば、分割後の2つのグループが持つヒストグラムの分散に基づいて最適な閾値を探索するような手法を用いてもよい。また、平均デフォーカス値Def_faceから左右方向にカウント数を積算していき、積算値が顔サイズに基づいた所定の閾値になった時の値をそれぞれ下限値および上限値としてもよい。 In addition, although the method of calculating the threshold value based on the change in the increase and decrease of the histogram and the continuity in steps S451 and S452 has been described, the threshold value is not limited to this, and other methods may be used to calculate the threshold value. . For example, a method of searching for the optimum threshold based on the distribution of the histograms of the two groups after division may be used. Further, the count number may be integrated in the horizontal direction from the average defocus value Def_face, and the values when the integrated value reaches a predetermined threshold value based on the face size may be set as the lower limit value and the upper limit value, respectively.
図4(A)の説明に戻る。本実施形態では、領域別処理として背景領域にのみコントラスト補正処理を適用するため、距離情報(デフォーカス量)を用いて背景と人物を分離する処理を行う。このとき、背景を正しく分離できないまま領域別処理を適用すると、主被写体である人物に好ましくない補正がかかったり、背景に所望とする補正がかからなかったりするなどの弊害が発生してしまう。 Returning to the description of FIG. In this embodiment, since the contrast correction process is applied only to the background area as the process for each area, the distance information (defocus amount) is used to separate the background and the person. At this time, if the area-by-area processing is applied without correctly separating the background, there will be adverse effects such as unfavorable correction being applied to the person who is the main subject, or desired correction not being applied to the background.
例えば、人物に対して背景が遠く離れているようなシーンではデフォーカスの分布も分散するが、距離が緩やかに変化するような奥行きのあるシーンではデフォーカスの値が一様になり、どこからが背景かを分離することが難しくなる。本実施形態では、距離による人物と背景の分離のしやすさの指標として、距離の分散すなわち分布の散らばり度合いを用いる。分散が大きければ人物と背景は分離がしやすいという判定をすることができる。そして、本実施形態では、距離情報であるデフォーカス量により人物と背景を分離できる場合と分離できない場合、すなわち分離の精度に応じて、一部の領域を抽出するための処理を変更する。具体的には、分散が大きく人物と背景が分離しやすい場合には、デフォーカスマップに基づいて一部の領域を抽出し、分散が小さく人物と背景が分離しにくい場合には、被写体検出の結果に基づいて一部の領域を検出する。これらの処理の詳細について、ステップS405~ステップS409で説明する。 For example, in a scene where the background is far away from the person, the defocus distribution is dispersed, but in a scene with depth where the distance changes slowly, the defocus value becomes uniform, and where It becomes difficult to separate the background. In the present embodiment, distance dispersion, that is, the degree of scattering of the distribution, is used as an index of how easily the person and the background can be separated by distance. If the variance is large, it can be determined that the person and the background are easily separated. In this embodiment, the processing for extracting a partial region is changed depending on whether the person and the background can be separated by the defocus amount, which is the distance information, and when they cannot be separated, that is, according to the separation accuracy. Specifically, when the variance is large and it is easy to separate the person and the background, a part of the area is extracted based on the defocus map. Detect some regions based on the results. Details of these processes will be described in steps S405 to S409.
ステップS405で、信号処理部201は、ヒストグラム701におけるデフォーカス値0~上限値th2までの分布、すなわち人物および背景が含まれるデフォーカスの分散を算出する。具体的な算出方法としては、まず分布におけるデフォーカス値0~上限値th2の平均値Daveを以下の式(1)および式(2)により算出する。ここで、Hist[i]はデフォーカス値iに対するヒストの値、Nはデフォーカス値0~上限値th2の総カウント数を表している。なお、分散を算出するデフォーカスの範囲を被写体領域と被写体領域より遠い領域のデフォーカス値0~上限値th2に限定するのは、人物と背景の分離のしやすさを判定する上で、人物よりも手前にいる前景の距離の分布に影響されないようにするためである。
そして、算出した平均値Daveを用いて、デフォーカスの分散Ddispを以下の式(3)により算出する。
ステップS406で、信号処理部201は、分離の精度が高いか否かを、ステップS405で算出したデフォーカスの分散Ddispが所定の閾値Dth以上か否かにより判定する。デフォーカスの分散Ddispが所定の閾値Dth以上であり、分離の精度が高いと判定できる場合には、ステップS407進む。一方、デフォーカスの分散Ddispが所定の閾値Dth未満であり、分離の精度が低いと判定できる場合には、ステップS408へ進む。
In step S406, the
ステップS407で、信号処理部201は、デフォーカスマップ601に基づいて、人物502および前景を含む書き割りマップを生成する。具体的には、デフォーカスマップ601において、デフォーカスの値が下限値th1以上の領域とそうでない領域とで2値化した書き割りマップを生成する。図8は、デフォーカスマップに基づく書き割りマップを説明する図である。書き割りマップ801では、人物502とそれよりも手前にある花の領域が白色で、それ以外の背景が黒色となっている。なお、書き割りマップ801がより被写体の輪郭に合うように、例えば特開2017-11652号公報で述べられているような入力画像501の画素値を参照した整形処理を行なってもよい。
In step S<b>407 , the
ステップS408で、信号処理部201は、ステップS401の被写体検出結果に基づいて、人物502を含む書き割りマップを生成する。まず、被写体検出部202が検出した人物502の顔の位置およびサイズに基づいて、人型のシルエット画像を生成する。図9(A)および図9(B)は、被写体検出結果に基づく書き割りマップを説明する図である。図9(A)および図9(B)では、人物502の領域が白色で、それ以外の領域が黒色となっている。
In step S408, the
図9(A)の画像901では、顔検出結果である枠510の位置に合わせた円形902とその下部に楕円形903がそれぞれシルエットとして生成されている。さらに、画像901に対して、例えば特開2017-11652号公報で述べられているような、入力画像501の画素値を参照した整形処理を行なうことで、図9(B)に示されるような、被写体の輪郭に合う書き割りマップ910を生成することができる。
In an
ステップS409で、信号処理部201は、書き割りマップで抽出した一部領域に対して領域別に画像処理を行う。本実施形態では、信号処理部201は、ステップS407あるいはステップS408で生成した書き割りマップを用いて、入力画像501から一部領域のみコントラストが補正された画像を生成する。ここで一部領域とは、書き割りマップにおいて人物が含まれない黒色で示されている領域のことである。
In step S409, the
具体的な補正方法としては、まず画像501全体のコントラストを補正した画像を生成する。コントラストの補正方法としては、例えば特開2019-28537号公報で述べられているような低周波領域の明るさを変えることなく局所的なコントラストのみを補正する手法など、既存の技術を用いてよい。そして、コントラストを補正した画像をコントラストの補正をせずに現像した画像と、書き割りマップに基づいて合成する。これにより、書き割りマップにおいて黒色で示された背景領域のみコントラストが補正された画像を生成することが可能となる。
As a specific correction method, first, an image in which the contrast of the
なお、本実施形態では2つの書き割りマップ801、書き割りマップ910のどちらか一方を用いて入力画像501を補正するようにしたが、2つの書き割りマップ両方を用いてもよい。2つの書き割りマップを用いる場合、ステップS405において算出した分散Ddispに応じて、2つの書き割りマップを用いる割合を変えるようにすればよい。例えば、分散が大きいほど、距離情報に基づいた書き割りマップ801の重みを大きくしながら、2つの書き割りマップを加重加算するようにしてもよい。ステップS409において、多値となった書き割りマップに基づいてコントラストを補正した画像と補正なしの画像とを加重加算することで、急峻な効果の切り替わりを抑えることが可能となる。
In this embodiment, the
以上説明したように、本実施形態によると、領域別画像処理の効果を距離情報によって制御する際に、デフォーカスの分布に基づいて領域の分割が可能かを判定することにより、領域分割の失敗による弊害が発生するのを抑えることが可能となる。 As described above, according to the present embodiment, when controlling the effect of the image processing for each region based on the distance information, it is determined whether the region can be divided based on the defocus distribution. It is possible to suppress the occurrence of adverse effects due to
なお、本実施形態では、距離情報を取得する手段として、撮像光学系の異なる瞳領域から到来する光束が生ずる複数の被写体像の位相差に基づいて距離情報を生成する構成について説明したが、他の構成や手段を代用あるいは併用しても良い。例えば複数のレンズおよび撮像素子を有する複眼カメラの構成とすることで、より精度の良い像ずれ量を検出できるようにしても良い。また、TOF(Time Of Flight)カメラや超音波により距離が計測可能な構成とすることで、模様の変化が乏しい被写体に対する測距性能を向上したりすることが可能となる。 In this embodiment, as means for acquiring distance information, a configuration for generating distance information based on phase differences between a plurality of subject images generated by light beams arriving from different pupil regions of the imaging optical system has been described. You may substitute or use together the structure and means of . For example, by configuring a compound eye camera having a plurality of lenses and imaging elements, the amount of image shift may be detected with higher accuracy. Further, by adopting a configuration in which the distance can be measured by a TOF (Time Of Flight) camera or ultrasonic waves, it is possible to improve the distance measurement performance for subjects with little pattern variation.
また、本実施形態では、主被写体が人物で背景のコントラストを補正する場合について説明したが、これに限られるものではなく、どのような被写体であってもよい。例えば、主被写体としては動物や建造物、乗り物などでもよく、該被写体を検出する技術を用いることで本実施形態を適用することが可能である。また、一部領域に対する画像処理は、コントラストの補正処理に限らず、例えば、明るさや色相、彩度、シャープネスなどを補正する処理であってもよい。 Also, in this embodiment, the case where the main subject is a person and the contrast of the background is corrected has been described, but the present invention is not limited to this, and any subject may be used. For example, the main subject may be an animal, a building, a vehicle, or the like, and the present embodiment can be applied by using a technique for detecting the subject. Image processing for a partial region is not limited to contrast correction processing, and may be processing for correcting brightness, hue, saturation, sharpness, and the like, for example.
また、本実施形態では、距離の分散を用いて背景の分離の精度を判定する場合について説明したが、これに加えて、画像が有する各種の撮影情報を参照するようにしてもよい。例えば、絞り値を大きくすればするほど深度が深くなり背景のデフォーカス量も小さくなっていくことから、デフォーカス値による分離が困難となる傾向にある。したがって、絞り値が大きいほど閾値Dthを小さく、絞り値が小さいほど閾値Dthを大きくした上で判定するようにしてもよい。また、ISO感度が大きいほど信号にノイズが増大し分散も大きくなることから、感度が大きいほど閾値Dthを大きく、感度が小さいほど閾値Dthを小さくした上で判定するようにしてもよい。また、デフォーカスの分散に限らず、標準偏差やヒストグラム上で所定以上のカウント数を有する値の最大値と最小値の差分など、他の統計量に基づいて判定を行なってもよい。 Also, in the present embodiment, the case where the background separation accuracy is determined using the variance of the distance has been described. For example, the larger the aperture value, the deeper the depth and the smaller the defocus amount of the background, so separation by the defocus value tends to be difficult. Therefore, the larger the aperture value, the smaller the threshold Dth, and the smaller the aperture value, the larger the threshold Dth. Also, the higher the ISO sensitivity, the greater the noise in the signal and the greater the variance. Therefore, the threshold Dth may be set larger for higher sensitivity and smaller for lower sensitivity. In addition, the determination may be made based on other statistical quantities such as the standard deviation and the difference between the maximum value and the minimum value of values having a count number equal to or greater than a predetermined value on the histogram, in addition to the defocus variance.
(その他の実施形態)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
(Other embodiments)
The present invention supplies a program that implements one or more functions of the above-described embodiments to a system or device via a network or a storage medium, and one or more processors in the computer of the system or device reads and executes the program. It can also be realized by processing to It can also be implemented by a circuit (for example, ASIC) that implements one or more functions.
以上、本発明の好ましい実施形態について説明したが、本発明は、これらの実施形態に限定されず、その要旨の範囲内で種々の変形および変更が可能である。 Although preferred embodiments of the present invention have been described above, the present invention is not limited to these embodiments, and various modifications and changes are possible within the scope of the gist thereof.
104 画像処理部
105 制御部
201 信号処理部
202 被写体検出部
203 撮影情報取得部
204 デフォーカス演算部
205 ヒスト算出部
104
Claims (12)
前記距離情報に応じて、画像を複数の領域に分割する第1の分割手段と、
被写体検出を行う検出手段と、
前記被写体検出の検出結果に応じて、画像を複数の領域に分割する第2の分割手段と、
前記距離情報に基づいて、画像を複数の領域に分割する分割手段を決定する決定手段と、を備え、
前記決定手段は、前記距離情報と前記被写体検出の検出結果に基づいて、被写体を含む被写体領域を抽出し、前記被写体領域と前記被写体領域より遠い領域の前記距離情報の統計量に基づいて分割手段を決定することを特徴とする画像処理装置。 an acquisition means for acquiring distance information corresponding to an image;
a first dividing means for dividing an image into a plurality of regions according to the distance information;
a detecting means for detecting a subject;
a second dividing means for dividing an image into a plurality of regions according to the detection result of the subject detection;
determining means for determining dividing means for dividing an image into a plurality of regions based on the distance information ;
The determination means extracts a subject area including the subject based on the distance information and the detection result of the subject detection, and divides the subject area based on the statistics of the distance information of the subject area and an area farther than the subject area. An image processing apparatus characterized by determining
前記距離情報に応じて、第1の分離方法で画像を複数の領域に分割する工程と、
被写体検出を行う工程と、
前記被写体検出の検出結果に応じて、第2の分離方法で画像を複数の領域に分割する工程と、
前記距離情報に基づいて、画像を複数の領域に分割する分割方法を決定する工程と、を有し、
前記分割方法を決定する工程では、前記距離情報と前記被写体検出の検出結果に基づいて、被写体を含む被写体領域を抽出し、前記被写体領域と前記被写体領域より遠い領域の前記距離情報の統計量に基づいて分割方法を決定することを特徴とする画像処理方法。 obtaining distance information corresponding to the image;
dividing an image into a plurality of regions by a first separation method according to the distance information;
a step of detecting an object;
a step of dividing an image into a plurality of regions by a second separation method according to the detection result of the subject detection;
determining a division method for dividing the image into a plurality of regions based on the distance information ;
In the step of determining the division method, a subject area including the subject is extracted based on the distance information and the detection result of the subject detection, and a statistic of the distance information of the subject area and an area farther than the subject area is calculated. An image processing method, characterized in that a division method is determined based on .
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019124721A JP7297566B2 (en) | 2019-07-03 | 2019-07-03 | Image processing device, imaging device, image processing method and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019124721A JP7297566B2 (en) | 2019-07-03 | 2019-07-03 | Image processing device, imaging device, image processing method and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021013056A JP2021013056A (en) | 2021-02-04 |
JP7297566B2 true JP7297566B2 (en) | 2023-06-26 |
Family
ID=74226925
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019124721A Active JP7297566B2 (en) | 2019-07-03 | 2019-07-03 | Image processing device, imaging device, image processing method and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7297566B2 (en) |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013250621A (en) | 2012-05-30 | 2013-12-12 | Panasonic Corp | Color conversion device |
-
2019
- 2019-07-03 JP JP2019124721A patent/JP7297566B2/en active Active
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013250621A (en) | 2012-05-30 | 2013-12-12 | Panasonic Corp | Color conversion device |
Also Published As
Publication number | Publication date |
---|---|
JP2021013056A (en) | 2021-02-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10997696B2 (en) | Image processing method, apparatus and device | |
CN111028189B (en) | Image processing method, device, storage medium and electronic equipment | |
CN108055452B (en) | Image processing method, device and equipment | |
CN102740082B (en) | Image processing apparatus and control method | |
US9432575B2 (en) | Image processing apparatus | |
CN110022469B (en) | Image processing method, image processing device, storage medium and electronic equipment | |
US8184196B2 (en) | System and method to generate depth data using edge detection | |
RU2531632C2 (en) | Frame grabber, frame grabber control method and medium | |
US10298853B2 (en) | Image processing apparatus, method of controlling image processing apparatus, and imaging apparatus | |
US9865064B2 (en) | Image processing apparatus, image processing method, and storage medium | |
CN108024057B (en) | Background blurring processing method, device and equipment | |
CN108156369B (en) | Image processing method and device | |
CN110349163B (en) | Image processing method and device, electronic equipment and computer readable storage medium | |
CN108053438B (en) | Depth of field acquisition method, device and equipment | |
JP5882789B2 (en) | Image processing apparatus, image processing method, and program | |
TW201346835A (en) | Image blur level estimation method and image quality evaluation method | |
CN110365897B (en) | Image correction method and device, electronic equipment and computer readable storage medium | |
JP6514504B2 (en) | IMAGE PROCESSING APPARATUS, CONTROL METHOD THEREOF, AND PROGRAM | |
US10747089B2 (en) | Imaging apparatus and control method of the same | |
JP7297566B2 (en) | Image processing device, imaging device, image processing method and program | |
JP6556033B2 (en) | Image processing apparatus, image processing method, and program | |
JP6348883B2 (en) | Image capturing apparatus, image capturing method, and computer program | |
JP6949494B2 (en) | Image processing equipment and image processing methods, imaging equipment, programs | |
JP2007288245A (en) | Imaging apparatus, image processing method, and image processing program | |
JP6554009B2 (en) | IMAGE PROCESSING APPARATUS, CONTROL METHOD THEREOF, PROGRAM, AND RECORDING MEDIUM |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220617 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20230208 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230214 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230414 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230516 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230614 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 7297566 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |