JP2015041865A - Image processing apparatus and image processing method - Google Patents
Image processing apparatus and image processing method Download PDFInfo
- Publication number
- JP2015041865A JP2015041865A JP2013171638A JP2013171638A JP2015041865A JP 2015041865 A JP2015041865 A JP 2015041865A JP 2013171638 A JP2013171638 A JP 2013171638A JP 2013171638 A JP2013171638 A JP 2013171638A JP 2015041865 A JP2015041865 A JP 2015041865A
- Authority
- JP
- Japan
- Prior art keywords
- area
- region
- image
- background
- determination
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Image Processing (AREA)
- Studio Devices (AREA)
Abstract
Description
本発明は、撮影された画像について被写体と背景の領域を判別する技術に関するものである。 The present invention relates to a technique for discriminating a subject area and a background area of a photographed image.
画像処理にて疑似的に背景にぼかし効果を与える機能を実現したコンパクトデジタルカメラが数多く開発されている。その手法の一例として、合焦位置を変化させて複数枚の画像データを撮影し、その差分情報により被写体領域と背景領域とを判別し、背景領域の画像データにぼかし処理を行って被写体領域の画像データと合成する方法が挙げられる。 Many compact digital cameras have been developed that have a function to artificially blur the background in image processing. As an example of the technique, a plurality of pieces of image data are photographed by changing the in-focus position, the subject area and the background area are discriminated based on the difference information, and the image data of the background area is subjected to blurring processing. A method of combining with image data is mentioned.
特許文献1では、被写体に合焦した画像と無現遠に合焦した画像について高周波成分のパワーを比較することで被写体領域と背景領域を判別する技術が開示されている。
特許文献1では、被写体に合焦した画像と無現遠に合焦した画像について高周波成分のパワーを比較することで、被写体領域と背景領域を判別することを可能としている。
In
しかしながら、高周波成分が大きい被写体では有効であるが、被写体および背景が低コントラストシーンの場合には高周波成分が小さいため、被写体と背景の領域について誤判別してしまう問題が生じる。 However, it is effective for a subject having a high frequency component, but when the subject and the background are low-contrast scenes, the high frequency component is small.
そこで本発明の目的は、被写体の背景をぼかした画像を生成する際に適切な被写体領域と背景領域の判別が可能である画像処理装置を提供することである。 Accordingly, an object of the present invention is to provide an image processing apparatus capable of discriminating an appropriate subject area and background area when generating an image in which the background of the subject is blurred.
前述の課題を解決するために本発明の画像処理装置は、焦点位置の異なる複数枚の撮影画像を取得する取得手段と、前記撮影画像の複数の領域について前記複数枚の撮影画像の信号を比較することで被写体領域と背景領域を判別する領域判別を行う領域判別手段と、前記撮影画像にぼかし処理を行うぼかし処理手段と、前記ぼかし処理手段によるぼかし処理が行われた撮影画像と、前記ぼかし処理が行われていない撮影画像とを、前記領域判別手段によって得られた領域判別結果に従って合成し、前記背景領域のぼけた合成画像を生成する合成手段と、を備え、前記領域判別手段は、第1の領域の大きさで前記領域判別を行った後に、前記第1の領域判別の領域判別結果が前記被写体領域及び前記背景領域のいずれでもない領域について、前記第1の領域の大きさより小さい第2の領域の大きさで前記領域判別を行うことを特徴とする。 In order to solve the above-described problem, an image processing apparatus according to the present invention compares an acquisition unit that acquires a plurality of photographed images with different focal positions and a signal of the plurality of photographed images for a plurality of regions of the photographed image. Region determining means for determining an area for determining a subject area and a background area, a blur processing means for performing blur processing on the photographed image, a photographed image subjected to blur processing by the blur processing means, and the blur A synthesized image that is combined with a photographed image that has not been processed in accordance with a region discrimination result obtained by the region discriminating unit and generates a blurred composite image of the background region, the region discriminating unit comprising: After performing the region determination with the size of the first region, the region determination result of the first region determination is the previous region that is neither the subject region nor the background region. And performing the area determination by the size of the size smaller than the second region of the first region.
本発明の画像処理装置によれば、被写体の背景をぼかした画像を生成する際に適切な被写体領域と背景領域の判別が可能である。 According to the image processing apparatus of the present invention, it is possible to determine an appropriate subject area and background area when generating an image in which the background of the subject is blurred.
(第1の実施形態)
図1は本発明の実施形態を適用した画像処理装置を備える撮像装置の概略構成を示す図である。
(First embodiment)
FIG. 1 is a diagram illustrating a schematic configuration of an imaging apparatus including an image processing apparatus to which an embodiment of the present invention is applied.
本実施形態の撮像装置は光学系101およびフォーカスレンズ102を備え、これらにより入射した光を固体撮像素子上に結像させることで被写体を撮像する。光学系制御部103は、光学系101の露出(シャッタ速度および絞り値)やズーム、光学式ブレ補正等を制御し、フォーカスレンズ駆動制御部104はフォーカスレンズ102の制御を行う。フォーカスレンズ駆動制御部104は、画像データのコントラスト信号や、固体撮像素子105の撮像面や固体撮像素子105とは別途設けられた測距センサからの信号によってフォーカスレンズ102を駆動しAF(オートフォーカス)制御を行う。固体撮像素子105は、例えばベイヤー配列などの撮像面上のRGBカラーフィルタを通して結像させた光学像を電気信号に変換する。撮像系制御部106は、固体撮像素子105を駆動するための制御系である。アナログ信号処理部107は、固体撮像素子105の出力にクランプ、ゲインをかける等の処理を行う。アナログ/デジタル(A/D)変換部108は、アナログ信号のデジタル変換を行い画像データとして出力する。本実施形態では、光学系101からA/D変換部108までを含めて撮像手段とし、撮像装置は、撮像手段から出力された画像データを単独、または連続して複数フレーム記録することで静止画及び動画を撮影可能としている。また、本発明の画像処理装置は必ずしも撮像機能を有している必要はなく、予め記憶された画像データを読み出すことで取得してもよい。
The image pickup apparatus of the present embodiment includes an
デジタル信号処理部109は、A/D変換されたデジタル画像データの現像処理および圧縮処理を行って出力画像データを生成する。デジタル信号処理部109の行う現像処理とは例えば、デモザイキング処理、ホワイトバランス処理、シェーディング補正処理、色空間変換処理、ガンマ処理等のことである。内部記憶部110は、デジタル信号処理部109にて出力画像データを生成する際の画像データや、ライブ画像を表示する電子ビューファインダ(以下EVFと記す)動作用の画像データなどを一時的に格納する。
The digital
インターフェース(I/F)部111は、生成された出力画像データを最終的に保存するための外部記録装置とつながっている。画像表示部112は、EVF動作の表示機能を備え、ライブ画像のほか撮像装置の撮影条件等の各種設定情報などを表示する。
The interface (I / F)
システム制御部113は、後述するフローチャートに従って光学系制御部103やフォーカスレンズ駆動制御部104、撮像系制御部106などのシステム全体の制御を行う。なお、114は撮影スタンバイ動作を行うためのスイッチ(以下SW1と記す)、115はSW1の操作後、撮影を行う撮影スイッチ(以下SW2と記す)、116はシステムに電源を投入するためのメインスイッチ(以下メインSWと記す)である。
The
図2は図1におけるデジタル信号処理部109の構成の一例を示す図である。
FIG. 2 is a diagram showing an example of the configuration of the digital
入力した画像信号は、輝度信号処理を施す輝度信号処理部201と色信号処理を施す色信号処理部202を経て背景ぼかし画像生成部203に入力される。内部記憶部110は背景ぼかし処理時の一時記憶用途で使われる。画像圧縮部204にて圧縮して出力した画像信号は、インターフェース部111を介して外部記録装置に保存する。
The input image signal is input to the background blurred
さらに、背景ぼかし画像生成部203は、エッジ検出部205、エッジ積分値算出部206、エッジ積分値評価部207、領域マップ生成部208、ぼかし処理部209、画像合成部210から構成される。背景ぼかしが造成西部203は、各種処理の履歴情報など必要に応じて内部記憶部110に一時記憶する。
Further, the background blurred
図3は本発明の実施例を適用した撮像装置の撮影動作を表すフローチャート図である。 FIG. 3 is a flowchart showing the photographing operation of the image pickup apparatus to which the embodiment of the present invention is applied.
まず、ステップS301ではシステムに電源を投入するメインSWの状態を検出し、ONであればステップS302へ進む。ステップS302ではインターフェース部111を介した外部記録装置の残容量を調べ、残容量が0であればステップS303へ進み、そうでなければステップS304へ進む。ステップS303では残容量が0であることを警告してステップS301に戻る。警告は画像表示部112に表示するか又は図示しない音声出力部から警告音を出すか、又はその両方を行ってもよい。
First, in step S301, the state of the main SW for turning on the system is detected. If it is ON, the process proceeds to step S302. In step S302, the remaining capacity of the external recording device via the
ステップS304では、撮像手段から出力されたライブ画像を画像表示部112に表示するEVF動作を行う。ステップS305ではスイッチSW1の状態を調べ、ONであればステップS307へ進み、そうでなければステップS306へ進む。ここでSW1の機能は、AFやAE(自動露出制御)などの撮影スタンバイ動作を行うことである。ステップS306ではメインSWの状態を調べ、ONであればステップS304へ、そうでなければステップS301へ進む。ステップS307では光学系制御部103を介してAE処理を行い、ステップS308ではフォーカスレンズ駆動制御部104を介してAF処理を行う。
In step S304, an EVF operation for displaying the live image output from the imaging unit on the
撮影スタンバイ動作を済ませた後のステップS309は、SW2のONによる撮影動作スタート前準備状態であり、撮像手段から出力されたライブ画像を画像表示部112に表示して、撮影者のSW2操作を待つ。
Step S309 after the shooting standby operation is completed is a preparation state before starting the shooting operation by turning on SW2, and the live image output from the imaging unit is displayed on the
ステップS310ではSW2の状態を調べ、ONであればステップS312へ、そうでなければステップS311へ進む。ここに、SW2の機能はSW1の操作後撮影動作を開始することである。ステップS311ではSW1の状態を調べ、ONであればステップS309へ戻り、そうでなければステップS304へ戻る。ステップS312では後述する図4のフローチャートにしたがって撮影動作を行う。ステップS313ではインターフェース部111を介した外部記録装置の残容量を調べ、残容量が0であればステップS303へ進み、そうでなければステップS314へ進む。ステップS314ではSW2の状態を調べ、ONでなければステップS311へ進む。
In step S310, the state of SW2 is checked. If ON, the process proceeds to step S312; otherwise, the process proceeds to step S311. Here, the function of SW2 is to start a photographing operation after the operation of SW1. In step S311, the state of SW1 is checked. If it is ON, the process returns to step S309; otherwise, the process returns to step S304. In step S312, a photographing operation is performed according to the flowchart of FIG. In step S313, the remaining capacity of the external recording device via the
図4は、図3のフローチャートにおける撮影のサブルーチンのフローチャート図である。 FIG. 4 is a flowchart of a shooting subroutine in the flowchart of FIG.
本フローチャートは、背景ぼかし処理用に2枚の画像を撮影し、背景ぼかし生成部203による背景ぼかし処理画像を生成するまでの処理のフローを示す。
This flowchart shows a flow of processing from capturing two images for background blur processing to generating a background blur processing image by the background
本実施例においては、主要被写体に合焦した画像(以下、本画像と記す)と、背景にフォーカスが合う方向にフォーカスレンズを移動して撮影した背景検出用画像の、焦点位置の異なる2枚の画像を撮影する。ただし、焦点位置を異ならせて撮影する画像の数はこれに限らず、複数枚であればよい。 In this embodiment, two images with different focal positions, an image focused on a main subject (hereinafter referred to as a main image) and a background detection image taken by moving the focus lens in a direction in which the background is in focus. Take a picture of. However, the number of images to be photographed with different focal positions is not limited to this, and may be a plurality of images.
まず、ステップS401では、図3のフローチャートにおけるステップS308のAF処理にて設定された、主要被写体に合焦したフォーカスレンズ位置にて本画像の撮影を行う。 First, in step S401, the main image is taken at the focus lens position focused on the main subject set in the AF process of step S308 in the flowchart of FIG.
ステップS402では、背景検出用画像の撮影のためフォーカスレンズを移動する。フォーカスレンズの移動量は絞りや焦点距離などの撮影条件別にあらかじめ設定され、本画像と背景検出用画像の2つの画像のフォーカス状態の違いから生じる鮮鋭度変化から背景領域を検出可能なフォーカスレンズ移動量である。 In step S402, the focus lens is moved to capture the background detection image. The amount of movement of the focus lens is preset for each shooting condition such as aperture and focal length, and the focus lens can be detected from the sharpness change resulting from the difference in focus between the main image and the background detection image. Amount.
ステップS403では、ステップS402で移動した後のフォーカスレンズ位置で、背景検出用画像を撮影する。 In step S403, a background detection image is photographed at the focus lens position moved in step S402.
ここまでの撮影処理で、主要被写体に合焦した本画像と、より背景に合焦した背景検出用画像の2枚の撮影画像を得ることができた。以下は、背景ぼかし生成部203による背景ぼかし処理のフローである。
With the imaging processing so far, two captured images, the main image focused on the main subject and the background detection image focused more on the background, could be obtained. The following is a flow of background blur processing by the background
ステップS404においてエッジ検出部205は、本画像と背景検出用画像の2枚の撮影画像の輝度信号についてエッジ検出を行い、それぞれエッジ画像(エッジ情報)を得る。ここで、輝度信号のエッジとは、撮影画像にバンドパスフィルタ処理を施して得られるものとする。また、エッジの抽出方法は他の手法を用いても良い。
In step S404, the
ステップS405では、エッジ積分値算出部206およびエッジ積分値評価部207により後述する図5のフローチャートにしたがって、ステップS404で得られたエッジ画像に対して領域判別を行う。
In step S405, the edge integral
ステップS406において領域マップ生成部208は、ステップS405における領域判別結果に基づき、被写体領域と背景領域が判別可能な切り出しマップを生成する。切り出しマップ生成時には、背景領域と主要被写体領域の境界における不連続部分を目立たなくさせるため、ローパスフィルタをかけるなどしてもよい。本実施形態では、切り出しマップとして、被写体領域を255、背景領域を0、境界部領域はその中間値として、画素ごとの合成比率を8bitの画素値で表現した画像形式で生成している。しかし、マップの形式としてはこれに限らない。
In step S406, the area
ステップS407においてぼかし処理部209は、本画像に切り出しマップに基づくぼかし処理を行い、背景ぼけ画像を生成する。ぼかし処理は、例えばぼけ味のきれいなレンズ特性を反映させたフィルタを選択するなどして、より好印象な背景ぼかし処理が可能となる。
In step S407, the
ステップS408において画像合成部210は、切り出しマップに基づいて、被写体に合焦した(ぼかし処理なしの)本画像と、本画像にぼかし処理を行った背景ぼけ画像から画像合成を行う。
In step S408, the
具体的には、画像合成部210は、切り出しマップの画素値から求まるα[i,j](0≦α≦255)に基づき、被写体に合焦した本画像IMG1と背景ぼけ画像IMG2の画像合成を行い、合成画像Bを生成する。画像合成部210は、合成画像Bの各画素B[i,j]を以下の式(1)を用いて算出する。
B[i,j]=IMG1[i,j]*α[i,j]/255+IMG2[i,j]*(1−α)/255 ・・・式(1)
Specifically, the
B [i, j] = IMG1 [i, j] * α [i, j] / 255 + IMG2 [i, j] * (1-α) / 255 Expression (1)
図5は図4のフローチャートのステップS405における領域判別の処理を説明する図である。図5(a)は領域判別の処理のフローチャート図、図5(b)は図5(a)の領域判別の処理のフローチャートにおける領域評価の処理のフローチャート図、図5(c)は領域分割の説明図である。 FIG. 5 is a diagram for explaining the area discrimination processing in step S405 of the flowchart of FIG. FIG. 5A is a flowchart of region discrimination processing, FIG. 5B is a flowchart of region evaluation processing in the flowchart of region discrimination processing in FIG. 5A, and FIG. It is explanatory drawing.
図5(a)のフローチャートは、複数領域に分割、各領域を評価、孤立評価結果領域を補正、というサイクルを複数回行う。まず、比較的粗い領域分割(第1の領域の大きさで領域分割)にて実施した後に、被写体領域でも背景領域でもない中間領域、低コントラスト領域について、細かい領域分割(第1の領域の大きさより小さい第2の領域の大きさで領域分割)にて実施する。 In the flowchart of FIG. 5A, a cycle of dividing into a plurality of areas, evaluating each area, and correcting the isolated evaluation result area is performed a plurality of times. First, after performing a relatively coarse area division (area division with the size of the first area), fine area division (the size of the first area) is performed on the intermediate area and the low contrast area that are neither the subject area nor the background area. (Dividing the area by the size of the second area smaller than that).
ステップS501では画像全体を対象として複数の領域に分割する。分割を適用する画像は、図4のフローチャートステップS404で得られた本画像と背景検出用画像の各エッジ画像であり、領域分割は2つの画像で対応づけられている。 In step S501, the entire image is divided into a plurality of regions. The image to which the division is applied is each edge image of the main image and the background detection image obtained in the flowchart step S404 in FIG. 4, and the region division is associated with the two images.
ステップS502では、エッジ積分値算出部206およびエッジ積分値評価部207において、後述する図5(b)のフローチャートにしたがって、ステップS501で分割設定した各領域について領域評価を行う。領域評価結果は、エッジ積分値と被写体比率に応じて、被写体領域、背景領域、境界領域および低コントラスト領域、のいずれかの評価結果が得られる。
In step S502, the edge integral
ステップS503では、ステップS502の領域評価結果が周囲の領域の評価結果に対し孤立した領域について、評価結果を周りの評価結果に合わせる(反映させる)補正により孤立領域を除去する。 In step S503, for the region where the region evaluation result of step S502 is isolated from the evaluation result of the surrounding region, the isolated region is removed by correction that matches (reflects) the evaluation result to the surrounding evaluation result.
ステップS504では孤立領域除去後の領域評価結果が境界領域および低コントラスト領域であった分割領域を対象として、ステップS501で設定したサイズよりも細かいサイズにて領域分割を行う。分割を適用する画像はステップS501と同様、図4のフローチャートステップS404で得られた本画像と背景検出用画像の各エッジ画像であり、また領域分割は2つの画像で共通である。 In step S504, region division is performed with a size smaller than the size set in step S501 for the divided regions whose boundary evaluation results after the isolated region removal are boundary regions and low-contrast regions. Similar to step S501, the image to which the division is applied is each edge image of the main image and the background detection image obtained in the flowchart step S404 in FIG. 4, and the area division is common to the two images.
ステップS505では、ステップS502と同様にステップS504で設定した各領域について領域評価を行う。ステップS506では、ステップS503と同様にステップS505の領域評価結果が周りの領域の評価結果に対し孤立した領域について、評価結果を周りの評価結果に合わせる(反映させる)補正により孤立領域を除去する。 In step S505, region evaluation is performed for each region set in step S504 in the same manner as in step S502. In step S506, as in step S503, for the region where the region evaluation result in step S505 is isolated from the evaluation result of the surrounding region, the isolated region is removed by correction that matches (reflects) the evaluation result to the surrounding evaluation result.
このようにステップS504にて再度細かく領域分割された領域と再度細かく領域分割されなかった領域とで、粗い領域分割による領域評価結果と細かい領域分割による領域評価結果がそれぞれ最終的な領域判別結果となる。 As described above, the region evaluation result by the coarse region division and the region evaluation result by the fine region division are respectively the final region discrimination result for the region finely divided again in step S504 and the region not finely divided again. Become.
次に、図5(b)の領域評価の処理のフローチャート図について説明する。ここでは着目するひとつの分割領域に対する領域評価を求めるフローとして説明する。しかし、図5(a)のフローチャートのステップS502またはステップS505においては、領域評価対象となる分割領域それぞれについて図5(b)の領域評価のサブルーチンを実施する。 Next, the flowchart of the area evaluation process in FIG. 5B will be described. Here, description will be made as a flow for obtaining a region evaluation for one divided region of interest. However, in step S502 or step S505 in the flowchart of FIG. 5A, the area evaluation subroutine of FIG. 5B is executed for each divided area to be subjected to area evaluation.
ステップS511ではエッジ積分値算出部206にて、図4のフローチャートステップS404で得られた本画像のエッジ画像と背景検出用画像のエッジ画像の2つの画像に対して、着目する分割領域のエッジ積分値を算出する。以下、ステップS512〜S518は領域ごとに処理が行われる。
In step S511, the edge integration
ステップS512ではエッジ積分値評価部207おいて、着目領域における本画像のエッジ画像より求めたエッジ積分値と背景検出用画像のエッジ画像より求めた積分値を足し合わせた総エッジ積分値が所定閾値以上であるか調べる。総エッジ積分値が所定閾値以上であればステップS514へ進み、そうでなければステップS513へ進む。
In step S512, the edge integral
ステップS513では、着目領域の総エッジ積分値は所定閾値未満であることから、着目領域の領域評価結果を低コントラスト領域とする。 In step S513, since the total edge integral value of the region of interest is less than the predetermined threshold, the region evaluation result of the region of interest is set as a low contrast region.
ステップS514ではエッジ積分値評価部207おいて、本画像のエッジ画像より求めたエッジ積分値を背景検出用画像のエッジ画像より求めた積分値により除算した被写体比率の値が所定被写体閾値以上であるか調べる。被写体比率が所定被写体閾値以上であればステップS515へ進み、そうでなければステップS516へ進む。被写体比率は、本画像と背景検出用画像でピントが異なりエッジ成分が異なる被写体領域では高く算出され、背景領域では低く検出されるはずである。
In step S514, the value of the subject ratio obtained by dividing the edge integral value obtained from the edge image of the main image by the integral value obtained from the edge image of the background detection image in the edge integral
ステップS515では、被写体比率の値が所定被写体閾値以上の領域で被写体領域であることから、着目領域の領域評価結果を被写体領域とする。前述したように、切り出しマップは、被写体領域を255、背景領域を0、境界部領域はその中間値として、画素ごとの合成比率を8bitの画素値で表現した画像形式で生成しているので、被写体領域として認定される領域には255を割り当てる。 In step S515, since the subject ratio is an area that is equal to or larger than the predetermined subject threshold value, the area evaluation result of the target area is set as the subject area. As described above, the cutout map is generated in an image format in which the subject area is 255, the background area is 0, the boundary area is an intermediate value thereof, and the composition ratio for each pixel is expressed by a pixel value of 8 bits. 255 is assigned to the area recognized as the subject area.
ステップS516ではエッジ積分値評価部207おいて、被写体比率の値が所定背景閾値未満であるか調べ、所定背景閾値未満であればステップS517へ進み、そうでなければステップS518へ進む。
In step S516, the edge integral
ステップS517では、被写体比率の値が所定背景閾値未満であることから、着目領域の領域評価結果を背景領域として切り出しマップではゼロを割り当てる。 In step S517, since the value of the subject ratio is less than the predetermined background threshold, the region evaluation result of the region of interest is set as the background region, and zero is assigned in the extraction map.
ステップS518では、被写体比率の値から被写体領域か背景領域か判別が困難であるため、着目領域の領域評価結果を境界領域として切り出しマップでは0から255の中間値を割り当てる。 In step S518, since it is difficult to determine whether the subject area or the background area from the value of the subject ratio, an intermediate value from 0 to 255 is assigned in the cut-out map using the area evaluation result of the target area as a boundary area.
被写体比率の値は、着目領域が被写体あるいは背景で占められる場合には、所定被写体閾値あるいは所定背景閾値により被写体であるか背景であるかの領域評価が可能である。しかし、どちらでもない場合には、例えば被写体と背景の境界で面積的に半分ずつ占めるような着目領域であることが考えられるため、領域評価結果は境界領域とする。 When the region of interest is occupied by the subject or the background, the subject ratio value can be evaluated based on the predetermined subject threshold or the predetermined background threshold. However, if it is neither, for example, it may be a region of interest that occupies half the area at the boundary between the subject and the background, so the region evaluation result is a boundary region.
このようにして着目領域ごとに領域評価を行うが、図5(a)のフローチャートステップS502の粗い分割領域による領域評価時と、図5(a)のフローチャートステップS505の細かい分割領域による領域評価時では、各所定閾値は異なる設定を行う。これは着目領域のサイズ違いによる理由の他、粗い分割領域による領域評価時には、境界領域と判別されても次に細かい分割領域により再度領域評価される。しかし、細かい分割領域による領域判別ではさらなる再評価をしないため、なるべく境界領域の判定を減らす必要があるためである。また細かい分割領域による領域評価結果が境界領域判定であった場合には、粗い分割領域におけるエッジ積分値を考慮して領域評価結果を補正しても良い。 In this way, the region evaluation is performed for each region of interest. At the time of region evaluation by the rough divided region in the flowchart step S502 in FIG. 5A, and at the region evaluation by the fine divided region in the flowchart step S505 in FIG. Then, each predetermined threshold value is set differently. In addition to the reason for the difference in size of the region of interest, at the time of region evaluation using a rough divided region, the region evaluation is performed again using the next fine divided region even if it is determined as a boundary region. However, this is because it is necessary to reduce the determination of the boundary region as much as possible because the region is not re-evaluated in the region determination based on the fine divided regions. When the region evaluation result by the fine divided region is the boundary region determination, the region evaluation result may be corrected in consideration of the edge integral value in the rough divided region.
図5(c)の領域分割の説明図について説明する。c−0は背景ぼかし処理を行う画像の全体図で、c−1〜c−3は領域判別および領域評価における領域分割処理について一例を示した図である。なお、c−1〜c−3はc−0に示した主被写体の右耳付近の領域のみを、簡単のため切り出して示した図である。 An explanatory diagram of area division in FIG. 5C will be described. c-0 is an overall view of an image to be subjected to background blurring processing, and c-1 to c-3 are diagrams illustrating an example of region division processing in region discrimination and region evaluation. In addition, c-1 to c-3 are diagrams showing only the region near the right ear of the main subject shown in c-0 for the sake of simplicity.
c−1は粗い領域分割による領域評価結果を示した図、c−2はc−1の境界領域を細かい領域分割による領域評価結果を示した図、c−3は本実施例の効果を分かりやすく比較する例として最初から細かい領域分割による領域評価結果を示した図である。 c-1 is a diagram showing the result of area evaluation by rough area division, c-2 is a figure showing the area evaluation result by fine area division of the boundary area of c-1, and c-3 shows the effect of this embodiment. It is the figure which showed the area | region evaluation result by the fine area | region division from the beginning as an example to compare easily.
c−3のように最初から細かい領域判別を行った場合には、白飛びした肌部や表面に光沢のある金属面を持つイヤリングなどは低コントラストと判定されやすい問題があり、被写体領域であるにもかかわらず背景領域と誤って処理されるエラーの危険性が高い。一方で本実施例に示すようにc−1の後にc−2と分割領域を2段階として領域判別した場合には、粗い分割領域ではエッジ積分値が大きな値で得られる。また、低コントラスト判定された場合でも前述の孤立領域除去のような簡単な領域結果の補正が可能な利点がある。一般的な人物シーンなどに境界領域が比較的単純なシーンにおいては、例えば人の顔の一部を背景領域としてぼかし処理してしまうことなく、被写体と背景の領域判別を行うことが可能である。 When fine region discrimination is performed from the beginning as in c-3, earrings with white skin or glossy metal surfaces are likely to be judged as low contrast and are subject regions. Nevertheless, there is a high risk of errors being handled incorrectly with the background area. On the other hand, as shown in the present embodiment, when the area is discriminated with c-2 and the divided area after c-1 as two stages, the edge integral value is obtained with a large value in the coarse divided area. In addition, there is an advantage that even when a low contrast determination is made, it is possible to correct a simple region result like the above-described isolated region removal. In a scene where the boundary area is relatively simple, such as a general human scene, it is possible to discriminate between the subject and the background without blurring a part of the human face as the background area, for example. .
また、境界領域は細かい分割領域で第2の領域判別を行っているため、切り出しマップに必要な分解能も確保される。そして、再度領域判別を行う境界領域はその面積が限られるため、領域判別処理にかかる演算時間の増大も、画面全体を再度領域判別する場合と比較して少なくて済む。 In addition, since the boundary region is the second region discrimination with fine divided regions, the resolution necessary for the cut-out map is also ensured. And since the area of the boundary region where the region determination is performed again is limited, the increase in the calculation time required for the region determination processing can be reduced compared with the case where the entire screen is determined again.
本実施例の図5(a)のフローチャートステップS503およびステップS506において、エッジ積分値による領域評価結果を周辺領域との関係のみで補正しているが、これに限定されるものではない。例えば、各分割領域の色信号を利用して分割領域のグループ化処理を行うことで、同グループの領域評価結果にて補正するなど、各分割領域の色情報を領域判別の補助情報として用いてもよい。また、パターンマッチング等による公知の顔検出の結果の顔検出情報(被写体検出情報)を、主被写体領域を求める補助情報として用いてもよい。 In the flowcharts of step S503 and step S506 in FIG. 5A of the present embodiment, the region evaluation result based on the edge integral value is corrected only by the relationship with the peripheral region, but the present invention is not limited to this. For example, the color information of each divided area is used as auxiliary information for area determination, such as performing grouping processing of divided areas using the color signal of each divided area and correcting the area evaluation result of the same group. Also good. Further, face detection information (subject detection information) as a result of known face detection by pattern matching or the like may be used as auxiliary information for obtaining the main subject region.
以上のように、本実施形態では、被写体と背景の領域判別における誤判別をなくして背景領域のみにぼかし処理を行う画像処理装置を提供することが可能となる。 As described above, according to the present embodiment, it is possible to provide an image processing apparatus that performs the blurring process only on the background area without erroneous determination in the area determination of the subject and the background.
(他の実施形態)
本発明の目的は以下のようにしても達成できる。すなわち、前述した各実施形態の機能を実現するための手順が記述されたソフトウェアのプログラムコードを記録した記憶媒体を、システムまたは装置に供給する。そしてそのシステムまたは装置のコンピュータ(またはCPU、MPU等)が記憶媒体に格納されたプログラムコードを読み出して実行するのである。
(Other embodiments)
The object of the present invention can also be achieved as follows. That is, a storage medium in which a program code of software in which a procedure for realizing the functions of the above-described embodiments is described is recorded is supplied to the system or apparatus. The computer (or CPU, MPU, etc.) of the system or apparatus reads out and executes the program code stored in the storage medium.
この場合、記憶媒体から読み出されたプログラムコード自体が本発明の新規な機能を実現することになり、そのプログラムコードを記憶した記憶媒体およびプログラムは本発明を構成することになる。 In this case, the program code itself read from the storage medium realizes the novel function of the present invention, and the storage medium and program storing the program code constitute the present invention.
また、プログラムコードを供給するための記憶媒体としては、例えば、フレキシブルディスク、ハードディスク、光ディスク、光磁気ディスクなどが挙げられる。また、CD−ROM、CD−R、CD−RW、DVD−ROM、DVD−RAM、DVD−RW、DVD−R、磁気テープ、不揮発性のメモリカード、ROM等も用いることができる。 Examples of the storage medium for supplying the program code include a flexible disk, a hard disk, an optical disk, and a magneto-optical disk. Further, a CD-ROM, CD-R, CD-RW, DVD-ROM, DVD-RAM, DVD-RW, DVD-R, magnetic tape, nonvolatile memory card, ROM, or the like can also be used.
また、コンピュータが読み出したプログラムコードを実行可能とすることにより、前述した各実施形態の機能が実現される。さらに、そのプログラムコードの指示に基づき、コンピュータ上で稼動しているOS(オペレーティングシステム)等が実際の処理の一部または全部を行い、その処理によって前述した各実施形態の機能が実現される場合も含まれる。 Further, by making the program code read by the computer executable, the functions of the above-described embodiments are realized. Furthermore, when the OS (operating system) running on the computer performs part or all of the actual processing based on the instruction of the program code, the functions of the above-described embodiments are realized by the processing. Is also included.
更に、以下の場合も含まれる。まず記憶媒体から読み出されたプログラムコードが、コンピュータに挿入された機能拡張ボードやコンピュータに接続された機能拡張ユニットに備わるメモリに書き込まれる。その後、そのプログラムコードの指示に基づき、その機能拡張ボードや機能拡張ユニットに備わるCPU等が実際の処理の一部または全部を行う。 Furthermore, the following cases are also included. First, the program code read from the storage medium is written in a memory provided in a function expansion board inserted into the computer or a function expansion unit connected to the computer. Thereafter, based on the instruction of the program code, the CPU or the like provided in the function expansion board or function expansion unit performs part or all of the actual processing.
また、本発明はデジタルカメラのような撮影を主目的とした機器にかぎらず、携帯電話、パーソナルコンピュータ(ラップトップ型、デスクトップ型、タブレット型など)、ゲーム機など、撮像装置を内蔵もしくは外部接続する任意の機器に適用可能である。従って、本明細書における「撮像装置」は、撮像機能を備えた任意の電子機器を包含することが意図されている。 In addition, the present invention is not limited to devices such as digital cameras, but includes built-in or external connection of imaging devices such as mobile phones, personal computers (laptop type, desktop type, tablet type, etc.), game machines, etc. It can be applied to any device. Therefore, the “imaging device” in this specification is intended to include any electronic device having an imaging function.
101 光学系
102 フォーカスレンズ
103 光学系制御部
104 フォーカスレンズ駆動制御部
105 撮像素子
106 撮像系制御部
107 アナログ信号処理部
108 A/D変換部
109 デジタル信号処理部
110 内部記憶部
111 I/F
112 画像表示部
113 システム制御部
114 SW1
115 SW2
116 メインSW
DESCRIPTION OF
112
115 SW2
116 Main SW
Claims (8)
前記撮影画像の複数の領域について前記複数枚の撮影画像の信号を比較することで被写体領域と背景領域を判別する領域判別を行う領域判別手段と、
前記撮影画像にぼかし処理を行うぼかし処理手段と、
前記ぼかし処理手段によるぼかし処理が行われた撮影画像と、前記ぼかし処理が行われていない撮影画像とを、前記領域判別手段によって得られた領域判別結果に従って合成し、前記背景領域のぼけた合成画像を生成する合成手段と、を備え、
前記領域判別手段は、第1の領域の大きさで前記領域判別を行った後に、前記第1の領域の大きさでの領域判別結果が前記被写体領域及び前記背景領域のいずれでもない領域について、前記第1の領域の大きさより小さい第2の領域の大きさで前記領域判別を行うことを特徴とする画像処理装置。 Acquisition means for acquiring a plurality of photographed images having different focal positions;
Area discriminating means for discriminating a subject area and a background area by comparing signals of the plurality of photographed images for a plurality of areas of the photographed image;
Blur processing means for performing blur processing on the captured image;
The photographed image subjected to the blur processing by the blur processing means and the photographed image not subjected to the blur processing are synthesized according to the area discrimination result obtained by the area discriminating means, and the background area is blurred. Combining means for generating an image,
The area discriminating unit, after performing the area discrimination with the size of the first area, for an area where the area discrimination result with the size of the first area is neither the subject area nor the background area, An image processing apparatus, wherein the area determination is performed with a size of a second area smaller than a size of the first area.
前記撮影画像の複数の領域について前記複数枚の撮影画像の信号を比較することで被写体領域と背景領域を判別する領域判別を行う領域判別ステップと、
前記撮影画像にぼかし処理を行うぼかし処理ステップと、
前記ぼかし処理が行われた撮影画像と、前記ぼかし処理が行われていない撮影画像とを、前記領域判別ステップにて得られた領域判別結果に従って合成し、前記背景領域のぼけた合成画像を生成する合成ステップと、を備え、
前記領域判別ステップでは、第1の領域の大きさで前記領域判別を行った後に、前記第1の領域の大きさでの領域判別結果が前記被写体領域及び前記背景領域のいずれでもない領域について、前記第1の領域の大きさより小さい第2の領域の大きさで前記領域判別を行うことを特徴とする画像処理方法。 An acquisition step of acquiring a plurality of captured images having different focal positions;
An area determination step for performing area determination for determining a subject area and a background area by comparing signals of the plurality of captured images for a plurality of areas of the captured image;
A blur processing step for performing blur processing on the captured image;
The photographed image that has been subjected to the blurring process and the photographed image that has not been subjected to the blurring process are synthesized according to the area discrimination result obtained in the area discrimination step to generate a blurred composite image of the background area And a synthesis step to
In the region determination step, after performing the region determination with the size of the first region, the region determination result with the size of the first region is not any of the subject region and the background region. An image processing method, wherein the area determination is performed with a size of a second area smaller than a size of the first area.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013171638A JP2015041865A (en) | 2013-08-21 | 2013-08-21 | Image processing apparatus and image processing method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013171638A JP2015041865A (en) | 2013-08-21 | 2013-08-21 | Image processing apparatus and image processing method |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2015041865A true JP2015041865A (en) | 2015-03-02 |
Family
ID=52695799
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013171638A Pending JP2015041865A (en) | 2013-08-21 | 2013-08-21 | Image processing apparatus and image processing method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2015041865A (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20190028349A (en) * | 2017-09-08 | 2019-03-18 | 삼성전자주식회사 | Electronic device and method for human segmentation in image |
US10379318B2 (en) | 2015-10-02 | 2019-08-13 | Olympus Corporation | Image-capturing device, proposal-image generating device, proposal-image generating method, proposal-image generating program, and storage medium |
US10855910B2 (en) | 2018-08-27 | 2020-12-01 | Kyocera Corporation | Electronic device, method, and program |
-
2013
- 2013-08-21 JP JP2013171638A patent/JP2015041865A/en active Pending
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10379318B2 (en) | 2015-10-02 | 2019-08-13 | Olympus Corporation | Image-capturing device, proposal-image generating device, proposal-image generating method, proposal-image generating program, and storage medium |
KR20190028349A (en) * | 2017-09-08 | 2019-03-18 | 삼성전자주식회사 | Electronic device and method for human segmentation in image |
KR102117050B1 (en) * | 2017-09-08 | 2020-05-29 | 삼성전자주식회사 | Electronic device and method for human segmentation in image |
US10872420B2 (en) | 2017-09-08 | 2020-12-22 | Samsung Electronics Co., Ltd. | Electronic device and method for automatic human segmentation in image |
US10855910B2 (en) | 2018-08-27 | 2020-12-01 | Kyocera Corporation | Electronic device, method, and program |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6157242B2 (en) | Image processing apparatus and image processing method | |
JP5655667B2 (en) | Imaging apparatus, imaging control method, image processing apparatus, image processing method, and program | |
KR101303410B1 (en) | Image capture apparatus and image capturing method | |
CN111028190A (en) | Image processing method, image processing device, storage medium and electronic equipment | |
KR101521441B1 (en) | Image pickup apparatus, control method for image pickup apparatus, and storage medium | |
KR101566081B1 (en) | Image processing apparatus, image processing method, and storage medium | |
US20120056997A1 (en) | Digital photographing apparatus for generating three-dimensional image having appropriate brightness, and method of controlling the same | |
JP2008129554A (en) | Imaging device and automatic focusing control method | |
JP2004064676A (en) | Image pickup apparatus | |
US8837864B2 (en) | Image synthesis and rotation processing apparatus and image synthesis processing method | |
CN107872631B (en) | Image shooting method and device based on double cameras and mobile terminal | |
JP6116299B2 (en) | Imaging apparatus and control method thereof | |
JP2010226694A (en) | Image processor and method of image processing | |
JP2011114823A (en) | Image processing apparatus, and imaging apparatus | |
JP2013165487A (en) | Image processing apparatus, image capturing apparatus, and program | |
JP6116436B2 (en) | Image processing apparatus and image processing method | |
JP2010279054A (en) | Image pickup device, image processing device, image pickup method, and image processing method | |
JP2015041865A (en) | Image processing apparatus and image processing method | |
JP2015041901A (en) | Image processing device, its control method, control program, and imaging apparatus | |
JP2010245613A (en) | Camera, display image control method and display image control program | |
JP2015186062A (en) | Image composition processing device | |
JP6029464B2 (en) | Imaging device, control method thereof, and control program | |
JP7134601B2 (en) | Image processing device, image processing method, imaging device, and imaging device control method | |
JP2010119051A (en) | Imaging device and imaging method | |
JP2014138378A (en) | Image pickup device, control method thereof, and control program thereof |