JP7297566B2 - Image processing device, imaging device, image processing method and program - Google Patents

Image processing device, imaging device, image processing method and program Download PDF

Info

Publication number
JP7297566B2
JP7297566B2 JP2019124721A JP2019124721A JP7297566B2 JP 7297566 B2 JP7297566 B2 JP 7297566B2 JP 2019124721 A JP2019124721 A JP 2019124721A JP 2019124721 A JP2019124721 A JP 2019124721A JP 7297566 B2 JP7297566 B2 JP 7297566B2
Authority
JP
Japan
Prior art keywords
image
distance information
image processing
subject
dividing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019124721A
Other languages
Japanese (ja)
Other versions
JP2021013056A (en
Inventor
賢治 小貫
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2019124721A priority Critical patent/JP7297566B2/en
Publication of JP2021013056A publication Critical patent/JP2021013056A/en
Application granted granted Critical
Publication of JP7297566B2 publication Critical patent/JP7297566B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Studio Devices (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Description

本発明は、画像処理装置、撮像装置、画像処理方法およびプログラムに関する。 The present invention relates to an image processing device, an imaging device, an image processing method, and a program.

従来、画像の明瞭度やコントラスト、明るさなどを補正する画像処理(例えば、覆い焼き処理、HDRなど)を、画像内の一部の領域に適用する処理が知られている。一部の領域を抽出するために、距離情報を参照して、距離の分布を元に特定の被写体を検出する技術がある。特許文献1は、現在のフレームよりも前の距離分布データに基づいて、現在のフレームにおける物体の位置を予測し、以降のフレームで物体を追跡する技術を開示している。 2. Description of the Related Art Conventionally, there has been known a process of applying image processing (for example, dodging processing, HDR, etc.) for correcting clarity, contrast, brightness, etc. of an image to a partial region within an image. In order to extract a part of the area, there is a technique of referring to distance information and detecting a specific subject based on the distance distribution. Patent Document 1 discloses a technique of predicting the position of an object in the current frame based on distance distribution data before the current frame and tracking the object in subsequent frames.

国際公開第2017/130639号WO2017/130639

しかしながら、特許文献1に開示されている常に距離情報を参照する構成では、例えば画像が示す距離の分布が万遍なく一様に広がっていたり、同じ距離に複数の被写体が存在していたりするシーンでは、精度良く被写体を検出することが困難である。被写体検出や領域抽出の精度が低いと、抽出した一部の領域に対して行う画像処理において所望の効果が得られない恐れがある。 However, in the configuration disclosed in Patent Document 1, in which the distance information is always referred to, for example, the distribution of the distances shown in the image is evenly distributed, or the scene where a plurality of subjects are present at the same distance. Therefore, it is difficult to detect the subject with high accuracy. If the accuracy of object detection or area extraction is low, there is a risk that desired effects cannot be obtained in image processing performed on a part of the extracted area.

本発明は、精度良く画像内の領域を分離することができる画像処理装置を提供することを目的とする。 SUMMARY OF THE INVENTION An object of the present invention is to provide an image processing apparatus capable of separating regions in an image with high accuracy.

上記課題を解決するために、本発明の画像処理装置は、画像に対応する距離情報を取得する取得手段と、前記距離情報に応じて、画像を複数の領域に分割する第1の分割手段と、被写体検出を行う検出手段と、前記被写体検出の検出結果に応じて、画像を複数の領域に分割する第2の分割手段と、前記距離情報に基づいて、画像を複数の領域に分割する分割手段を決定する決定手段と、を備え、前記決定手段は、前記距離情報と前記被写体検出の検出結果に基づいて、被写体を含む被写体領域を抽出し、前記被写体領域と前記被写体領域より遠い領域の前記距離情報の統計量に基づいて分割手段を決定するIn order to solve the above-mentioned problems, the image processing apparatus of the present invention includes acquisition means for acquiring distance information corresponding to an image, and first division means for dividing the image into a plurality of areas according to the distance information. a detection means for detecting a subject; a second division means for dividing an image into a plurality of areas according to the detection result of the subject detection; and a division for dividing the image into a plurality of areas based on the distance information. determining means for determining means, wherein the determining means extracts a subject region including the subject based on the distance information and the detection result of the subject detection, and determines the distance between the subject region and a region farther than the subject region; A dividing means is determined based on the statistic of the distance information .

本発明によれば、精度良く画像内の領域を分離することができる画像処理装置を提供することができる。 According to the present invention, it is possible to provide an image processing apparatus that can accurately separate regions in an image.

撮像装置の構成を示す図である。It is a figure which shows the structure of an imaging device. 画像処理部の構成を示す図である。4 is a diagram showing the configuration of an image processing unit; FIG. 撮像部の構成を示す図である。It is a figure which shows the structure of an imaging part. 画像の一部の領域に対する画像処理を説明するフローチャートである。4 is a flowchart for explaining image processing for a partial area of an image; 入力画像および被写体検出結果の一例を示す図である。4A and 4B are diagrams illustrating an example of an input image and subject detection results; FIG. デフォーカスマップの一例を示す図である。It is a figure which shows an example of a defocus map. デフォーカスのヒストグラムおよび閾値算出結果を説明する図である。FIG. 5 is a diagram for explaining a defocus histogram and a threshold calculation result; デフォーカスマップに基づく書き割りマップを説明する図である。FIG. 4 is a diagram illustrating a kakiwari map based on a defocus map; 被写体検出結果に基づく書き割りマップを説明する図である。FIG. 10 is a diagram illustrating a Kakizori map based on a subject detection result;

本実施形態では、画像の一部領域に対する画像処理の一例として、デジタルカメラなどの撮像装置を用いて撮影した画像を、被写体の領域検出情報や距離情報、撮影条件などの撮影シーンに関する情報を用いて覆い焼き処理による階調処理を行う場合を説明する。以下では、画像処理装置の一例として撮像装置について説明するが、本実施形態の画像処理装置は撮像装置に限定されず、例えばパーソナルコンピュータ(PC)などであってもよい。 In this embodiment, as an example of image processing for a partial area of an image, an image captured using an imaging device such as a digital camera is processed using information related to the shooting scene such as subject area detection information, distance information, and shooting conditions. A case where gradation processing is performed by dodging processing will be described. Although an imaging device will be described below as an example of an image processing device, the image processing device of this embodiment is not limited to an imaging device, and may be, for example, a personal computer (PC).

図1は、撮像装置100の構成を示す図である。撮像装置100は、例えば、デジタル一眼レフカメラ、デジタルビデオカメラ、コンパクトデジタルカメラ等、デジタル画像の処理を行うことができる撮像装置である。撮像装置100は、光学系101、撮像部102、A/D変換部103、画像処理部104、制御部105、表示部106、記録部107を備える。なお、本実施形態では、撮像装置100の本体部とレンズ装置(光学系101)が一体となっている撮像装置の例について説明するが、レンズ装置が本体部に対して着脱可能な撮像装置であってもよい。 FIG. 1 is a diagram showing the configuration of an imaging device 100. As shown in FIG. The imaging device 100 is, for example, a digital single-lens reflex camera, digital video camera, compact digital camera, or other imaging device capable of processing digital images. The imaging device 100 includes an optical system 101 , an imaging unit 102 , an A/D conversion unit 103 , an image processing unit 104 , a control unit 105 , a display unit 106 and a recording unit 107 . Note that in this embodiment, an example of an imaging device in which the main body of the imaging device 100 and the lens device (optical system 101) are integrated will be described. There may be.

光学系101は、ズームレンズやフォーカスレンズから構成されるレンズ群、絞り、シャッターを備える撮像光学系である。光学系101は、撮像部102に到達する被写体像の倍率やピント位置、あるいは、光量を調整する。
撮像部102は、光学系101を通過した被写体の光束を光電変換し電気信号に変換するCCDやCMOSセンサー等の撮像素子を有する。撮像部102の詳細な構成については、図3(A)および図3(B)を用いて後述する。
The optical system 101 is an imaging optical system including a lens group including a zoom lens and a focus lens, an aperture, and a shutter. The optical system 101 adjusts the magnification, focus position, or amount of light of a subject image reaching the imaging unit 102 .
The image pickup unit 102 has an image pickup device such as a CCD or CMOS sensor that photoelectrically converts the light flux of the subject that has passed through the optical system 101 and converts the photoelectric signal into an electric signal. A detailed configuration of the imaging unit 102 will be described later with reference to FIGS. 3(A) and 3(B).

A/D変換部103は、撮像部102から入力された映像信号をデジタルの画像に変換する。画像処理部104は、ノイズ低減や現像処理、階調処理などの信号処理、表示用画像の加工処理等を行う。なお、画像処理部104は、A/D変換部103から出力された画像のみでなく、記録部107から読み出した画像に対しても同様の画像処理を行うことができる。 The A/D converter 103 converts the video signal input from the imaging unit 102 into a digital image. An image processing unit 104 performs noise reduction, development processing, signal processing such as gradation processing, processing of images for display, and the like. Note that the image processing unit 104 can perform similar image processing not only on the image output from the A/D conversion unit 103 but also on the image read from the recording unit 107 .

制御部105は、例えばCPU(Central Processing Unit)であり、撮像装置100全体を制御する。例えば、適正な明るさを持つ入力画像を得るために、撮影時の露光量を算出し、算出した露光量で画像を取得するために光学系101と撮像部102を制御して、絞り、シャッタースピード、センサーのアナログゲイン等を制御する。 The control unit 105 is, for example, a CPU (Central Processing Unit), and controls the imaging apparatus 100 as a whole. For example, in order to obtain an input image with proper brightness, the amount of exposure at the time of shooting is calculated, and in order to obtain an image with the calculated amount of exposure, the optical system 101 and the imaging unit 102 are controlled, and the diaphragm and shutter are controlled. Controls speed, sensor analog gain, etc.

表示部106は、画像処理部104から出力される画像をLCD(液晶表示装置)などの表示用部材に逐次表示することにより、電子ビューファインダ(EVF)として機能する。なお、本実施形態では電子ビューファインダの例を説明するが、撮像装置100は光学ファインダを備えていてもよい。また、表示部106は、操作内容や各種設定等の情報をUIに表示し、撮影者からの操作を受け付けるタッチパネル機能を有する表示用部材を有していてもよい。 The display unit 106 functions as an electronic viewfinder (EVF) by sequentially displaying images output from the image processing unit 104 on a display member such as an LCD (liquid crystal display). Although an example of an electronic viewfinder will be described in this embodiment, the imaging device 100 may be provided with an optical viewfinder. Further, the display unit 106 may have a display member having a touch panel function that displays information such as operation details and various settings on the UI and receives operations from the photographer.

記録部107は、画像を記録する機能を有し、たとえば、半導体メモリが搭載されたメモリカードや光磁気ディスク等の回転記録体を収容したパッケージなどを用いた情報記録媒体を含んでもよい。記録部107は、撮像装置100に備えられていてもよいし、着脱可能なメモリであってもよい。 The recording unit 107 has a function of recording an image, and may include, for example, an information recording medium using a package containing a rotary recording medium such as a memory card equipped with a semiconductor memory or a magneto-optical disk. The recording unit 107 may be provided in the imaging device 100 or may be a detachable memory.

図2は、画像処理部104の構成を説明する図である。画像処理部104は、信号処理部201、被写体検出部202、撮影情報取得部203、デフォーカス演算部204、ヒスト算出部205を備える。なお、図2に示す機能ブロックの1つ以上は、ASICやプログラマブルロジックアレイ(PLA)などのハードウェアによって実現されてもよいし、CPUやMPU等のプログラマブルプロセッサがソフトウェアを実行することによって実現されてもよい。また、ソフトウェアとハードウェアの組み合わせによって実現されてもよい。従って、以下の説明において、異なる機能ブロックが動作主体として記載されている場合であっても、同じハードウェアが主体として実現されうる。 FIG. 2 is a diagram for explaining the configuration of the image processing unit 104. As shown in FIG. The image processing unit 104 includes a signal processing unit 201 , a subject detection unit 202 , a shooting information acquisition unit 203 , a defocus calculation unit 204 and a hist calculation unit 205 . One or more of the functional blocks shown in FIG. 2 may be implemented by hardware such as an ASIC or programmable logic array (PLA), or implemented by a programmable processor such as a CPU or MPU executing software. may It may also be implemented by a combination of software and hardware. Therefore, in the following description, even when different functional blocks are described as main entities, the same hardware can be implemented as the main entities.

信号処理部201は、ノイズ低減処理や現像処理などの信号処理を行う他、ガンマ変換などによる階調圧縮処理、画像の明るさやコントラスト、色相、彩度、シャープネス等を補正する処理等、様々な画像処理を行う。また、信号処理部201は、領域ごとに画像処理を行う場合に、一部の領域を分離するための分離方法を決定する決定手段と、決定した分離方法で画像の領域を分離する分離手段としての機能も有する。 The signal processing unit 201 performs various signal processing such as noise reduction processing and development processing, as well as gradation compression processing such as gamma conversion, and processing for correcting image brightness, contrast, hue, saturation, sharpness, and the like. Perform image processing. Further, when image processing is performed for each region, the signal processing unit 201 includes determination means for determining a separation method for separating a partial region and separation means for separating image regions by the determined separation method. also has the function of

被写体検出部202は、画像内に特定の被写体が存在するか否かを検出する。そして、被写体検出部202は、画像内に特定の被写体が存在する場合には、特定の被写体の位置(画像内での座標)および大きさを出力する。特定の被写体としては、人物の顔や体全体、各種動物や乗り物など種々のものが指定可能である。
撮影情報取得部203は、撮影時の撮影モードや、焦点距離、絞り値、露光時間などの各種情報を取得する。
A subject detection unit 202 detects whether or not a specific subject exists in the image. Then, when a specific subject exists in the image, the subject detection unit 202 outputs the position (coordinates in the image) and size of the specific subject. Various objects such as a person's face or entire body, various animals, and vehicles can be specified as the specific subject.
A shooting information acquisition unit 203 acquires various types of information such as the shooting mode at the time of shooting, the focal length, the aperture value, and the exposure time.

デフォーカス演算部204は、光学系101の異なる瞳領域から到来する光束が生ずる複数の被写体像の位相差に基づいて像ずれ量を算出し、像ずれ量に基づいてデフォーカスの分布を示すデフォーカスマップを生成する。デフォーカスマップの具体的な生成方法については、例えば、特開2016-9062号公報で述べられているような公知の手法を用い、画素毎にデフォーカス量を算出しデフォーカスマップとして扱う。また、デフォーカス演算部204は、デフォーカス量から変換される撮像装置100と対象物との距離マップデータを取得してもよい。なお、本実施形態では距離情報の一例としてデフォーカスマップを用いる例について説明するが、光学系101の瞳の異なる領域から到来する光束が生ずる複数の被写体像の位相差(像ずれ量)や、絶対距離値に基づいたマップであってもよい。 The defocus calculation unit 204 calculates the amount of image shift based on the phase difference between a plurality of subject images generated by light beams arriving from different pupil regions of the optical system 101, and calculates the defocus distribution based on the amount of image shift. Generate a focus map. As for a specific method of generating the defocus map, for example, a known method such as that described in Japanese Unexamined Patent Application Publication No. 2016-9062 is used to calculate the defocus amount for each pixel and treat it as a defocus map. Further, the defocus calculation unit 204 may acquire distance map data between the imaging device 100 and the object converted from the defocus amount. In this embodiment, an example of using a defocus map as an example of distance information will be described. It may be a map based on absolute distance values.

ヒスト算出部205は、画像に対してヒストグラムを生成する処理を行う。ヒストグラムを生成する画像としては、輝度および色信号を持ったものでも距離を示す多値の信号であってもよい。 A histogram calculation unit 205 performs processing for generating a histogram for an image. An image for generating a histogram may be an image having luminance and color signals or a multi-valued signal indicating distance.

図3(A)は、撮像部102の画素302の配列構成を示す図である。図3(B)は、画素302の構成を示す図である。撮像部102の撮像素子は、二次元状に配置された複数の画素302を備える。画素302は、1つのマイクロレンズ301と、一対の光電変換部303Aおよび光電変換部303Bを備える。光電変換部303Aおよび光電変換部303Bは、1つのマイクロレンズに対して瞳分割された光束をそれぞれ受光し、位相差のある一対の焦点検出用信号を出力することが可能である。なお、本実施形態では各画素部が2つの光電変換部を備える例を説明するが、これに限られるものではなく、複数の光電変換部を備える構成であればよい。 FIG. 3A is a diagram showing an arrangement configuration of pixels 302 of the imaging unit 102. As shown in FIG. FIG. 3B is a diagram showing the structure of the pixel 302. As shown in FIG. The imaging element of the imaging unit 102 includes a plurality of pixels 302 arranged two-dimensionally. The pixel 302 includes one microlens 301 and a pair of photoelectric conversion units 303A and 303B. The photoelectric conversion unit 303A and the photoelectric conversion unit 303B are capable of receiving light beams pupil-divided for one microlens and outputting a pair of focus detection signals having a phase difference. In this embodiment, an example in which each pixel unit includes two photoelectric conversion units will be described, but the present invention is not limited to this, and a configuration including a plurality of photoelectric conversion units may be used.

次に、画像の一部の領域に画像処理を施す一例として、背景の領域に対してのみコントラストを補正する階調処理を行う例について説明する。図4(A)は、画像の一部の領域に対する画像処理を説明するフローチャートである。図5(A)は、画像処理の対象となる入力画像501の一例を示す図である。入力画像501は、人物502が手前に花を差し出しているシーンである。入力画像501では、撮像装置100の近くにいる人物502がくっきりとしたコントラストを有しているのに対し、背景がかすんでコントラストが低くなっている。 Next, as an example of performing image processing on a partial area of an image, an example of performing gradation processing for correcting contrast only on a background area will be described. FIG. 4A is a flowchart for explaining image processing for a partial area of an image. FIG. 5A is a diagram showing an example of an input image 501 to be subjected to image processing. An input image 501 is a scene in which a person 502 presents a flower to the front. In the input image 501, the person 502 near the imaging device 100 has a sharp contrast, whereas the background is dim and the contrast is low.

ステップS401で、被写体検出部202は、入力画像501に対して被写体検出処理を行う。被写体の検出方法としては、例えば特開平10-162118号公報で述べられているようなエッジのパターンに基づいて判定する手法など既存の技術を用いて良い。本実施形態では、被写体を人とし、被写体検出処理として顔検出処理を行う。図5(B)は、被写体検出結果の一例を示す図である。枠510は、顔検出の検出結果である人物502の顔の位置を示す枠である。 In step S<b>401 , the subject detection unit 202 performs subject detection processing on the input image 501 . As the object detection method, an existing technique such as a method of determination based on an edge pattern as described in Japanese Patent Application Laid-Open No. 10-162118 may be used. In this embodiment, the subject is a person, and face detection processing is performed as the subject detection processing. FIG. 5B is a diagram showing an example of subject detection results. A frame 510 indicates the position of the face of the person 502, which is the result of face detection.

ステップS402で、デフォーカス演算部204は、入力画像501のデフォーカスマップを生成する。図6は、デフォーカスマップの一例を示す図である。デフォーカスマップ601は、入力画像501に対応するデフォーカスマップである。デフォーカスマップ601では、デフォーカス量を濃淡により示している。濃淡の中間(灰色)で示される領域602は、入力画像501の人物502に対応する領域であり、合焦を示している。領域602より淡い色(白色)で示される領域は、入力画像501において手前側にある花に対応する領域であり、前ボケの非合焦を示している。領域602より濃い色(黒色)で示される領域は、入力画像501において奥側にある背景に対応する領域であり、後ボケの非合焦を示している。なお、本実施形態のステップS402では、距離情報としてデフォーカスマップを生成する例を説明したが、これに限られるものではなく、位相差(像ずれ量)や絶対距離に基づくマップを生成してもよい。 In step S<b>402 , the defocus calculation unit 204 generates a defocus map of the input image 501 . FIG. 6 is a diagram showing an example of a defocus map. A defocus map 601 is a defocus map corresponding to the input image 501 . In the defocus map 601, the defocus amount is indicated by shading. A region 602 indicated by intermediate gradation (gray) is a region corresponding to the person 502 in the input image 501 and indicates focus. A region shown in a lighter color (white) than the region 602 is a region corresponding to the flower on the near side in the input image 501, and indicates out-of-focus foreground blur. A region shown in a darker color (black) than the region 602 is a region corresponding to the background on the far side in the input image 501, and indicates out-of-focus background blur. In step S402 of the present embodiment, an example of generating a defocus map as distance information has been described. good too.

ステップS403で、ヒスト算出部205は、ステップS402で生成したデフォーカスマップ601に基づいてデフォーカスのヒストグラムを生成する。図7(A)は、ヒストグラムの一例を示す図である。ヒストグラム701は、横方向がデフォーカスの値を、縦方向が画素数を示している。デフォーカスの値は、128が合焦を示しており、127以下の値は後ボケ(奥側)を、129以上の値は前ボケ(手前側)であることを意味している。 In step S403, the histogram calculation unit 205 generates a defocus histogram based on the defocus map 601 generated in step S402. FIG. 7A is a diagram showing an example of a histogram. The histogram 701 indicates the defocus value in the horizontal direction and the number of pixels in the vertical direction. A defocus value of 128 indicates in-focus, a value of 127 or less indicates back blur (back side), and a value of 129 or more indicates front blur (front side).

ステップS404で、信号処理部201は、ステップS403で生成したデフォーカスのヒストグラムに基づいて、被写体距離閾値を算出する。被写体距離閾値は、被写体を含む被写体領域のデフォーカスの範囲を示す値である。本実施形態においては、被写体である人物502に対応するデフォーカスの範囲を算出する。デフォーカスの範囲の具体的な算出方法について、図4(B)のフローチャートを用いて説明する。 In step S404, the signal processing unit 201 calculates a subject distance threshold based on the defocus histogram generated in step S403. The subject distance threshold is a value indicating the defocus range of the subject area including the subject. In this embodiment, the defocus range corresponding to the person 502 as the subject is calculated. A specific method for calculating the defocus range will be described with reference to the flowchart of FIG. 4(B).

図4(B)は、被写体距離閾値算出処理を示すフローチャートである。
ステップS450で、信号処理部201は、ステップS401の顔検出結果(枠510)の位置における平均デフォーカス値Def_faceを、ステップS402で生成したデフォーカスマップを参照して算出する。図7(B)は、被写体距離閾値を説明する図である。点710は、算出された平均デフォーカス値Def_faceに対応するヒストグラム上の値を示している。点710は、デフォーカス値の128に近い値となっている。入力画像501は人物502にピントを合わせて撮影されたことにより、人物502の顔領域のデフォーカス量が128に近い値となっていることがわかる。
FIG. 4B is a flowchart showing subject distance threshold calculation processing.
In step S450, the signal processing unit 201 calculates the average defocus value Def_face at the position of the face detection result (frame 510) in step S401 with reference to the defocus map generated in step S402. FIG. 7B is a diagram for explaining the subject distance threshold. A point 710 indicates a value on the histogram corresponding to the calculated average defocus value Def_face. Point 710 is close to the defocus value of 128. It can be seen that the defocus amount of the face area of the person 502 is close to 128 because the input image 501 is shot with the person 502 in focus.

ステップS451で、信号処理部201は、ステップS450で算出した平均デフォーカス値Def_faceに基づいて人物502を示すデフォーカスの下限値th1を算出する。デフォーカスの下限値th1は、被写体と背景の距離の境界を示すデフォーカス量である。具体的には、ヒストグラム上で平均デフォーカス値Def_faceから左側(デフォーカスの値が小さくなる)方向へヒストグラムの値を順次参照していき下限値th1を検出する。そして、デフォーカス値の変化量がマイナス方向(減)からプラス方向(増)に所定値以上の変化をした場合、または、0の値が所定値以上連続した場合のいずれかが満たされたときのデフォーカスの値を下限値th1とする。このように、ヒストグラムの谷すなわち距離の分布が大きく切り替わっている部分を検出することで、被写体と背景の距離の境界を示すデフォーカス量を検出することができる。 In step S451, the signal processing unit 201 calculates the lower limit defocus value th1 indicating the person 502 based on the average defocus value Def_face calculated in step S450. The defocus lower limit value th1 is a defocus amount indicating the boundary of the distance between the subject and the background. Specifically, the histogram values are sequentially referred from the average defocus value Def_face to the left (the defocus value decreases) on the histogram to detect the lower limit value th1. When the amount of change in the defocus value changes from the negative direction (decrease) to the positive direction (increase) by a predetermined value or more, or when the value of 0 continues for a predetermined value or more, either condition is satisfied. is the lower limit value th1. In this way, by detecting the troughs of the histogram, that is, the portions where the distance distribution changes significantly, it is possible to detect the defocus amount indicating the boundary of the distance between the subject and the background.

ステップS452で、信号処理部201は、ステップS450で算出した平均デフォーカス値Def_faceに基づいて人物502を示すデフォーカスの上限値th2を算出する。デフォーカスの上限値th2は、被写体と前景の距離の境界を示すデフォーカス量である。
具体的には、ヒストグラム上で平均デフォーカス値Def_faceから右側(デフォーカスの値が大きくなる)方向へヒストグラムの値を順次参照していき上限値Th2を検出する。そして、デフォーカス値の変化量がマイナス方向(減)からプラス方向(増)に所定以上の変化をした場合、または、0の値が所定以上連続した場合のいずれかが満たされたときのデフォーカスの値を上限値th2とする。このように、ヒストグラムの谷すなわち距離の分布が大きく切り替わっている部分を検出することで、人物と前景の距離の境界を示すデフォーカス量を検出することができる。
In step S452, the signal processing unit 201 calculates a defocus upper limit value th2 indicating the person 502 based on the average defocus value Def_face calculated in step S450. The defocus upper limit value th2 is a defocus amount indicating the boundary of the distance between the subject and the foreground.
Specifically, the histogram values are sequentially referred to from the average defocus value Def_face to the right (the defocus value increases) on the histogram to detect the upper limit value Th2. Then, when the amount of change in the defocus value changes from the negative direction (decrease) to the positive direction (increase) by a predetermined amount or more, or when the value of 0 continues for a predetermined amount or more, the defocus value is defocused. Let the focus value be the upper limit value th2. In this way, by detecting the troughs of the histogram, that is, the portions where the distance distribution changes significantly, it is possible to detect the defocus amount indicating the boundary of the distance between the person and the foreground.

なお、ステップS451およびステップS452においてヒストグラムの増減の変化や連続性に基づいて閾値を算出する方法について述べたが、これに限られるものではなく、他の手法を用いて閾値を算出してもよい。例えば、分割後の2つのグループが持つヒストグラムの分散に基づいて最適な閾値を探索するような手法を用いてもよい。また、平均デフォーカス値Def_faceから左右方向にカウント数を積算していき、積算値が顔サイズに基づいた所定の閾値になった時の値をそれぞれ下限値および上限値としてもよい。 In addition, although the method of calculating the threshold value based on the change in the increase and decrease of the histogram and the continuity in steps S451 and S452 has been described, the threshold value is not limited to this, and other methods may be used to calculate the threshold value. . For example, a method of searching for the optimum threshold based on the distribution of the histograms of the two groups after division may be used. Further, the count number may be integrated in the horizontal direction from the average defocus value Def_face, and the values when the integrated value reaches a predetermined threshold value based on the face size may be set as the lower limit value and the upper limit value, respectively.

図4(A)の説明に戻る。本実施形態では、領域別処理として背景領域にのみコントラスト補正処理を適用するため、距離情報(デフォーカス量)を用いて背景と人物を分離する処理を行う。このとき、背景を正しく分離できないまま領域別処理を適用すると、主被写体である人物に好ましくない補正がかかったり、背景に所望とする補正がかからなかったりするなどの弊害が発生してしまう。 Returning to the description of FIG. In this embodiment, since the contrast correction process is applied only to the background area as the process for each area, the distance information (defocus amount) is used to separate the background and the person. At this time, if the area-by-area processing is applied without correctly separating the background, there will be adverse effects such as unfavorable correction being applied to the person who is the main subject, or desired correction not being applied to the background.

例えば、人物に対して背景が遠く離れているようなシーンではデフォーカスの分布も分散するが、距離が緩やかに変化するような奥行きのあるシーンではデフォーカスの値が一様になり、どこからが背景かを分離することが難しくなる。本実施形態では、距離による人物と背景の分離のしやすさの指標として、距離の分散すなわち分布の散らばり度合いを用いる。分散が大きければ人物と背景は分離がしやすいという判定をすることができる。そして、本実施形態では、距離情報であるデフォーカス量により人物と背景を分離できる場合と分離できない場合、すなわち分離の精度に応じて、一部の領域を抽出するための処理を変更する。具体的には、分散が大きく人物と背景が分離しやすい場合には、デフォーカスマップに基づいて一部の領域を抽出し、分散が小さく人物と背景が分離しにくい場合には、被写体検出の結果に基づいて一部の領域を検出する。これらの処理の詳細について、ステップS405~ステップS409で説明する。 For example, in a scene where the background is far away from the person, the defocus distribution is dispersed, but in a scene with depth where the distance changes slowly, the defocus value becomes uniform, and where It becomes difficult to separate the background. In the present embodiment, distance dispersion, that is, the degree of scattering of the distribution, is used as an index of how easily the person and the background can be separated by distance. If the variance is large, it can be determined that the person and the background are easily separated. In this embodiment, the processing for extracting a partial region is changed depending on whether the person and the background can be separated by the defocus amount, which is the distance information, and when they cannot be separated, that is, according to the separation accuracy. Specifically, when the variance is large and it is easy to separate the person and the background, a part of the area is extracted based on the defocus map. Detect some regions based on the results. Details of these processes will be described in steps S405 to S409.

ステップS405で、信号処理部201は、ヒストグラム701におけるデフォーカス値0~上限値th2までの分布、すなわち人物および背景が含まれるデフォーカスの分散を算出する。具体的な算出方法としては、まず分布におけるデフォーカス値0~上限値th2の平均値Daveを以下の式(1)および式(2)により算出する。ここで、Hist[i]はデフォーカス値iに対するヒストの値、Nはデフォーカス値0~上限値th2の総カウント数を表している。なお、分散を算出するデフォーカスの範囲を被写体領域と被写体領域より遠い領域のデフォーカス値0~上限値th2に限定するのは、人物と背景の分離のしやすさを判定する上で、人物よりも手前にいる前景の距離の分布に影響されないようにするためである。

Figure 0007297566000001
In step S405, the signal processing unit 201 calculates the distribution of the defocus value 0 to the upper limit value th2 in the histogram 701, that is, the defocus variance including the person and the background. As a specific calculation method, first, the average value Dave of the defocus value 0 to the upper limit value th2 in the distribution is calculated by the following formulas (1) and (2). Here, Hist[i] represents the value of the hist for the defocus value i, and N represents the total count number of the defocus value 0 to the upper limit value th2. The reason why the defocus range for calculating the variance is limited to the defocus value 0 to the upper limit value th2 of the subject area and the area farther than the subject area is that it is difficult to determine the ease of separation between the person and the background. This is to avoid being affected by the distribution of the distance of the foreground that is closer to the target than the target.
Figure 0007297566000001

そして、算出した平均値Daveを用いて、デフォーカスの分散Ddispを以下の式(3)により算出する。

Figure 0007297566000002
Then, using the calculated average value Dave, the defocus dispersion Ddisp is calculated by the following equation (3).
Figure 0007297566000002

ステップS406で、信号処理部201は、分離の精度が高いか否かを、ステップS405で算出したデフォーカスの分散Ddispが所定の閾値Dth以上か否かにより判定する。デフォーカスの分散Ddispが所定の閾値Dth以上であり、分離の精度が高いと判定できる場合には、ステップS407進む。一方、デフォーカスの分散Ddispが所定の閾値Dth未満であり、分離の精度が低いと判定できる場合には、ステップS408へ進む。 In step S406, the signal processing unit 201 determines whether the separation accuracy is high by determining whether the defocus variance Ddisp calculated in step S405 is equal to or greater than a predetermined threshold value Dth. If the defocus variance Ddisp is equal to or greater than the predetermined threshold value Dth and it can be determined that the separation accuracy is high, the process proceeds to step S407. On the other hand, if the defocus variance Ddisp is less than the predetermined threshold value Dth and it can be determined that the separation accuracy is low, the process proceeds to step S408.

ステップS407で、信号処理部201は、デフォーカスマップ601に基づいて、人物502および前景を含む書き割りマップを生成する。具体的には、デフォーカスマップ601において、デフォーカスの値が下限値th1以上の領域とそうでない領域とで2値化した書き割りマップを生成する。図8は、デフォーカスマップに基づく書き割りマップを説明する図である。書き割りマップ801では、人物502とそれよりも手前にある花の領域が白色で、それ以外の背景が黒色となっている。なお、書き割りマップ801がより被写体の輪郭に合うように、例えば特開2017-11652号公報で述べられているような入力画像501の画素値を参照した整形処理を行なってもよい。 In step S<b>407 , the signal processing unit 201 generates a kakiwari map including the person 502 and the foreground based on the defocus map 601 . Specifically, in the defocus map 601, a defocus map is generated by binarizing the areas where the defocus value is equal to or greater than the lower limit value th1 and the areas where the defocus value is not. FIG. 8 is a diagram illustrating a kakiwari map based on a defocus map. In the kakiwari map 801, the person 502 and the flower area in front of it are white, and the other background is black. Note that shaping processing may be performed with reference to the pixel values of the input image 501 as described in Japanese Unexamined Patent Application Publication No. 2017-11652, for example, so that the drawing map 801 better matches the outline of the subject.

ステップS408で、信号処理部201は、ステップS401の被写体検出結果に基づいて、人物502を含む書き割りマップを生成する。まず、被写体検出部202が検出した人物502の顔の位置およびサイズに基づいて、人型のシルエット画像を生成する。図9(A)および図9(B)は、被写体検出結果に基づく書き割りマップを説明する図である。図9(A)および図9(B)では、人物502の領域が白色で、それ以外の領域が黒色となっている。 In step S408, the signal processing unit 201 generates a writing map including the person 502 based on the subject detection result in step S401. First, based on the position and size of the face of the person 502 detected by the subject detection unit 202, a silhouette image of a person is generated. FIGS. 9A and 9B are diagrams for explaining the kakiwari map based on the subject detection result. In FIGS. 9A and 9B, the area of the person 502 is white, and the other areas are black.

図9(A)の画像901では、顔検出結果である枠510の位置に合わせた円形902とその下部に楕円形903がそれぞれシルエットとして生成されている。さらに、画像901に対して、例えば特開2017-11652号公報で述べられているような、入力画像501の画素値を参照した整形処理を行なうことで、図9(B)に示されるような、被写体の輪郭に合う書き割りマップ910を生成することができる。 In an image 901 in FIG. 9A, a circle 902 aligned with the position of the frame 510 that is the result of face detection and an ellipse 903 below it are generated as silhouettes. Further, the image 901 is subjected to shaping processing with reference to the pixel values of the input image 501 as described in Japanese Unexamined Patent Application Publication No. 2017-11652, for example. , a kakiwari map 910 can be generated that fits the outline of the subject.

ステップS409で、信号処理部201は、書き割りマップで抽出した一部領域に対して領域別に画像処理を行う。本実施形態では、信号処理部201は、ステップS407あるいはステップS408で生成した書き割りマップを用いて、入力画像501から一部領域のみコントラストが補正された画像を生成する。ここで一部領域とは、書き割りマップにおいて人物が含まれない黒色で示されている領域のことである。 In step S409, the signal processing unit 201 performs image processing on each of the partial regions extracted by the kakiwari map. In this embodiment, the signal processing unit 201 generates an image in which the contrast of only a partial region is corrected from the input image 501 using the split map generated in step S407 or step S408. Here, the partial area is a black area that does not include a person in the kakiwari map.

具体的な補正方法としては、まず画像501全体のコントラストを補正した画像を生成する。コントラストの補正方法としては、例えば特開2019-28537号公報で述べられているような低周波領域の明るさを変えることなく局所的なコントラストのみを補正する手法など、既存の技術を用いてよい。そして、コントラストを補正した画像をコントラストの補正をせずに現像した画像と、書き割りマップに基づいて合成する。これにより、書き割りマップにおいて黒色で示された背景領域のみコントラストが補正された画像を生成することが可能となる。 As a specific correction method, first, an image in which the contrast of the entire image 501 is corrected is generated. As a method of correcting the contrast, an existing technique such as a method of correcting only local contrast without changing the brightness of the low frequency region as described in Japanese Patent Laid-Open No. 2019-28537 may be used. . Then, the contrast-corrected image is synthesized with an image developed without contrast correction based on the writing division map. As a result, it is possible to generate an image in which the contrast is corrected only for the background area shown in black in the writing map.

なお、本実施形態では2つの書き割りマップ801、書き割りマップ910のどちらか一方を用いて入力画像501を補正するようにしたが、2つの書き割りマップ両方を用いてもよい。2つの書き割りマップを用いる場合、ステップS405において算出した分散Ddispに応じて、2つの書き割りマップを用いる割合を変えるようにすればよい。例えば、分散が大きいほど、距離情報に基づいた書き割りマップ801の重みを大きくしながら、2つの書き割りマップを加重加算するようにしてもよい。ステップS409において、多値となった書き割りマップに基づいてコントラストを補正した画像と補正なしの画像とを加重加算することで、急峻な効果の切り替わりを抑えることが可能となる。 In this embodiment, the input image 501 is corrected using either one of the two writing map 801 and the writing map 910, but both of the two writing maps may be used. When using two writing division maps, the ratio of using two writing division maps may be changed according to the dispersion Ddisp calculated in step S405. For example, the larger the variance, the greater the weight of the map 801 based on the distance information, and the weighted addition of the two maps may be performed. In step S409, weighted addition is performed on the contrast-corrected image and the contrast-uncorrected image based on the multi-valued writing division map, thereby making it possible to suppress abrupt switching of the effect.

以上説明したように、本実施形態によると、領域別画像処理の効果を距離情報によって制御する際に、デフォーカスの分布に基づいて領域の分割が可能かを判定することにより、領域分割の失敗による弊害が発生するのを抑えることが可能となる。 As described above, according to the present embodiment, when controlling the effect of the image processing for each region based on the distance information, it is determined whether the region can be divided based on the defocus distribution. It is possible to suppress the occurrence of adverse effects due to

なお、本実施形態では、距離情報を取得する手段として、撮像光学系の異なる瞳領域から到来する光束が生ずる複数の被写体像の位相差に基づいて距離情報を生成する構成について説明したが、他の構成や手段を代用あるいは併用しても良い。例えば複数のレンズおよび撮像素子を有する複眼カメラの構成とすることで、より精度の良い像ずれ量を検出できるようにしても良い。また、TOF(Time Of Flight)カメラや超音波により距離が計測可能な構成とすることで、模様の変化が乏しい被写体に対する測距性能を向上したりすることが可能となる。 In this embodiment, as means for acquiring distance information, a configuration for generating distance information based on phase differences between a plurality of subject images generated by light beams arriving from different pupil regions of the imaging optical system has been described. You may substitute or use together the structure and means of . For example, by configuring a compound eye camera having a plurality of lenses and imaging elements, the amount of image shift may be detected with higher accuracy. Further, by adopting a configuration in which the distance can be measured by a TOF (Time Of Flight) camera or ultrasonic waves, it is possible to improve the distance measurement performance for subjects with little pattern variation.

また、本実施形態では、主被写体が人物で背景のコントラストを補正する場合について説明したが、これに限られるものではなく、どのような被写体であってもよい。例えば、主被写体としては動物や建造物、乗り物などでもよく、該被写体を検出する技術を用いることで本実施形態を適用することが可能である。また、一部領域に対する画像処理は、コントラストの補正処理に限らず、例えば、明るさや色相、彩度、シャープネスなどを補正する処理であってもよい。 Also, in this embodiment, the case where the main subject is a person and the contrast of the background is corrected has been described, but the present invention is not limited to this, and any subject may be used. For example, the main subject may be an animal, a building, a vehicle, or the like, and the present embodiment can be applied by using a technique for detecting the subject. Image processing for a partial region is not limited to contrast correction processing, and may be processing for correcting brightness, hue, saturation, sharpness, and the like, for example.

また、本実施形態では、距離の分散を用いて背景の分離の精度を判定する場合について説明したが、これに加えて、画像が有する各種の撮影情報を参照するようにしてもよい。例えば、絞り値を大きくすればするほど深度が深くなり背景のデフォーカス量も小さくなっていくことから、デフォーカス値による分離が困難となる傾向にある。したがって、絞り値が大きいほど閾値Dthを小さく、絞り値が小さいほど閾値Dthを大きくした上で判定するようにしてもよい。また、ISO感度が大きいほど信号にノイズが増大し分散も大きくなることから、感度が大きいほど閾値Dthを大きく、感度が小さいほど閾値Dthを小さくした上で判定するようにしてもよい。また、デフォーカスの分散に限らず、標準偏差やヒストグラム上で所定以上のカウント数を有する値の最大値と最小値の差分など、他の統計量に基づいて判定を行なってもよい。 Also, in the present embodiment, the case where the background separation accuracy is determined using the variance of the distance has been described. For example, the larger the aperture value, the deeper the depth and the smaller the defocus amount of the background, so separation by the defocus value tends to be difficult. Therefore, the larger the aperture value, the smaller the threshold Dth, and the smaller the aperture value, the larger the threshold Dth. Also, the higher the ISO sensitivity, the greater the noise in the signal and the greater the variance. Therefore, the threshold Dth may be set larger for higher sensitivity and smaller for lower sensitivity. In addition, the determination may be made based on other statistical quantities such as the standard deviation and the difference between the maximum value and the minimum value of values having a count number equal to or greater than a predetermined value on the histogram, in addition to the defocus variance.

(その他の実施形態)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
(Other embodiments)
The present invention supplies a program that implements one or more functions of the above-described embodiments to a system or device via a network or a storage medium, and one or more processors in the computer of the system or device reads and executes the program. It can also be realized by processing to It can also be implemented by a circuit (for example, ASIC) that implements one or more functions.

以上、本発明の好ましい実施形態について説明したが、本発明は、これらの実施形態に限定されず、その要旨の範囲内で種々の変形および変更が可能である。 Although preferred embodiments of the present invention have been described above, the present invention is not limited to these embodiments, and various modifications and changes are possible within the scope of the gist thereof.

104 画像処理部
105 制御部
201 信号処理部
202 被写体検出部
203 撮影情報取得部
204 デフォーカス演算部
205 ヒスト算出部
104 Image processing unit 105 Control unit 201 Signal processing unit 202 Subject detection unit 203 Shooting information acquisition unit 204 Defocus calculation unit 205 Hist calculation unit

Claims (12)

画像に対応する距離情報を取得する取得手段と、
前記距離情報に応じて、画像を複数の領域に分割する第1の分割手段と、
被写体検出を行う検出手段と、
前記被写体検出の検出結果に応じて、画像を複数の領域に分割する第2の分割手段と、
前記距離情報に基づいて、画像を複数の領域に分割する分割手段を決定する決定手段と、を備え
前記決定手段は、前記距離情報と前記被写体検出の検出結果に基づいて、被写体を含む被写体領域を抽出し、前記被写体領域と前記被写体領域より遠い領域の前記距離情報の統計量に基づいて分割手段を決定することを特徴とする画像処理装置。
an acquisition means for acquiring distance information corresponding to an image;
a first dividing means for dividing an image into a plurality of regions according to the distance information;
a detecting means for detecting a subject;
a second dividing means for dividing an image into a plurality of regions according to the detection result of the subject detection;
determining means for determining dividing means for dividing an image into a plurality of regions based on the distance information ;
The determination means extracts a subject area including the subject based on the distance information and the detection result of the subject detection, and divides the subject area based on the statistics of the distance information of the subject area and an area farther than the subject area. An image processing apparatus characterized by determining
前記決定手段は、前記距離情報に基づいて、被写体を含む被写体領域と背景領域との前記距離情報による分離の精度を判定し、前記距離情報による分離の精度に応じて、画像を複数の領域に分割する分割手段を決定することを特徴とする請求項1に記載の画像処理装置。 The determining means determines accuracy of separation of a subject area including a subject and a background area based on the distance information, and divides the image into a plurality of areas according to the accuracy of separation based on the distance information. 2. The image processing apparatus according to claim 1, wherein the dividing means for dividing is determined. 前記決定手段は、前記距離情報による分離の精度に応じて、画像を複数の領域に分割する分割手段を用いる割合を変更することを特徴とする請求項2に記載の画像処理装置。 3. The image processing apparatus according to claim 2, wherein said determining means changes a ratio of using a dividing means for dividing an image into a plurality of regions according to the separation accuracy based on said distance information. 前記決定手段は、前記距離情報による分離の精度が高い場合は、前記第1の分割手段により画像を複数の領域に分割し、前記距離情報による分離の精度が低い場合は、前記第2の分割手段により画像を複数の領域に分割すると決定することを特徴とする請求項2に記載の画像処理装置。 The determining means divides the image into a plurality of regions by the first dividing means when the separation accuracy based on the distance information is high, and divides the image into a plurality of regions when the separation accuracy based on the distance information is low. 3. An image processing apparatus according to claim 2, wherein means determines to divide the image into a plurality of regions. 前記距離情報の統計量は、距離情報の分散、距離情報の標準偏差、距離情報における所定以上のカウント数を有する値の最大値と最小値との差のいずれかであることを特徴とする請求項1乃至4のいずれか1項に記載の画像処理装置。 The statistic of the distance information is any one of the variance of the distance information, the standard deviation of the distance information, and the difference between the maximum value and the minimum value of values having a count number equal to or greater than a predetermined value in the distance information. Item 5. The image processing apparatus according to any one of Items 1 to 4 . 前記決定手段は、前記分割手段を決定する際に、絞り値またはISO感度に基づくことを特徴とする請求項1乃至のいずれか1項に記載の画像処理装置。 6. The image processing apparatus according to claim 1, wherein said determining means determines said dividing means based on an aperture value or an ISO sensitivity. 前記取得手段は、撮像光学系の異なる瞳領域を通過した光束をそれぞれ受光して生成された複数の画像に基づいて得られるデフォーカス量または像ずれ量から前記距離情報を生成することを特徴とする請求項1乃至のいずれか1項に記載の画像処理装置。 The acquisition means is characterized in that the distance information is generated from a defocus amount or an image shift amount obtained based on a plurality of images generated by respectively receiving light beams that have passed through different pupil regions of the imaging optical system. The image processing apparatus according to any one of claims 1 to 6 . 前記分割された領域ごとに画像処理を行う画像処理手段をさらに備えることを特徴とする請求項1乃至のいずれか1項に記載の画像処理装置。 8. The image processing apparatus according to claim 1, further comprising image processing means for performing image processing for each of said divided areas. 前記画像処理は、明るさ、コントラスト、色相、彩度、シャープネスのいずれかを補正する処理であることを特徴とする請求項に記載の画像処理装置。 9. The image processing apparatus according to claim 8 , wherein the image processing is processing for correcting any one of brightness, contrast, hue, saturation, and sharpness. 請求項1乃至のいずれか1項に記載の画像処理装置と、像光学系の異なる瞳領域を通過した光束をそれぞれ受光して複数の画像を出力する撮像手段を備えることを特徴とする撮像装置。 10. An imaging device comprising: an image processing apparatus according to claim 1; and imaging means for receiving light beams passing through different pupil regions of an imaging optical system and outputting a plurality of images. Device. 画像に対応する距離情報を取得する工程と、
前記距離情報に応じて、第1の分離方法で画像を複数の領域に分割する工程と、
被写体検出を行う工程と、
前記被写体検出の検出結果に応じて、第2の分離方法で画像を複数の領域に分割する工程と、
前記距離情報に基づいて、画像を複数の領域に分割する分割方法を決定する工程と、を有し、
前記分割方法を決定する工程では、前記距離情報と前記被写体検出の検出結果に基づいて、被写体を含む被写体領域を抽出し、前記被写体領域と前記被写体領域より遠い領域の前記距離情報の統計量に基づいて分割方法を決定することを特徴とする画像処理方法。
obtaining distance information corresponding to the image;
dividing an image into a plurality of regions by a first separation method according to the distance information;
a step of detecting an object;
a step of dividing an image into a plurality of regions by a second separation method according to the detection result of the subject detection;
determining a division method for dividing the image into a plurality of regions based on the distance information ;
In the step of determining the division method, a subject area including the subject is extracted based on the distance information and the detection result of the subject detection, and a statistic of the distance information of the subject area and an area farther than the subject area is calculated. An image processing method, characterized in that a division method is determined based on .
コンピュータを、請求項1乃至のいずれか1項に記載の画像処理装置の各手段として機能させるためのプログラム。 A program for causing a computer to function as each means of the image processing apparatus according to any one of claims 1 to 9 .
JP2019124721A 2019-07-03 2019-07-03 Image processing device, imaging device, image processing method and program Active JP7297566B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019124721A JP7297566B2 (en) 2019-07-03 2019-07-03 Image processing device, imaging device, image processing method and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019124721A JP7297566B2 (en) 2019-07-03 2019-07-03 Image processing device, imaging device, image processing method and program

Publications (2)

Publication Number Publication Date
JP2021013056A JP2021013056A (en) 2021-02-04
JP7297566B2 true JP7297566B2 (en) 2023-06-26

Family

ID=74226925

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019124721A Active JP7297566B2 (en) 2019-07-03 2019-07-03 Image processing device, imaging device, image processing method and program

Country Status (1)

Country Link
JP (1) JP7297566B2 (en)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013250621A (en) 2012-05-30 2013-12-12 Panasonic Corp Color conversion device

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013250621A (en) 2012-05-30 2013-12-12 Panasonic Corp Color conversion device

Also Published As

Publication number Publication date
JP2021013056A (en) 2021-02-04

Similar Documents

Publication Publication Date Title
US10997696B2 (en) Image processing method, apparatus and device
CN111028189B (en) Image processing method, device, storage medium and electronic equipment
CN108055452B (en) Image processing method, device and equipment
CN102740082B (en) Image processing apparatus and control method
US9432575B2 (en) Image processing apparatus
CN110022469B (en) Image processing method, image processing device, storage medium and electronic equipment
US8184196B2 (en) System and method to generate depth data using edge detection
RU2531632C2 (en) Frame grabber, frame grabber control method and medium
US10298853B2 (en) Image processing apparatus, method of controlling image processing apparatus, and imaging apparatus
US9865064B2 (en) Image processing apparatus, image processing method, and storage medium
CN108024057B (en) Background blurring processing method, device and equipment
CN108156369B (en) Image processing method and device
CN110349163B (en) Image processing method and device, electronic equipment and computer readable storage medium
CN108053438B (en) Depth of field acquisition method, device and equipment
JP5882789B2 (en) Image processing apparatus, image processing method, and program
TW201346835A (en) Image blur level estimation method and image quality evaluation method
CN110365897B (en) Image correction method and device, electronic equipment and computer readable storage medium
JP6514504B2 (en) IMAGE PROCESSING APPARATUS, CONTROL METHOD THEREOF, AND PROGRAM
US10747089B2 (en) Imaging apparatus and control method of the same
JP7297566B2 (en) Image processing device, imaging device, image processing method and program
JP6556033B2 (en) Image processing apparatus, image processing method, and program
JP6348883B2 (en) Image capturing apparatus, image capturing method, and computer program
JP6949494B2 (en) Image processing equipment and image processing methods, imaging equipment, programs
JP2007288245A (en) Imaging apparatus, image processing method, and image processing program
JP6554009B2 (en) IMAGE PROCESSING APPARATUS, CONTROL METHOD THEREOF, PROGRAM, AND RECORDING MEDIUM

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220617

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230208

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230214

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230414

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230516

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230614

R151 Written notification of patent or utility model registration

Ref document number: 7297566

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151