JP5434361B2 - Image processing apparatus and image processing method - Google Patents

Image processing apparatus and image processing method Download PDF

Info

Publication number
JP5434361B2
JP5434361B2 JP2009190855A JP2009190855A JP5434361B2 JP 5434361 B2 JP5434361 B2 JP 5434361B2 JP 2009190855 A JP2009190855 A JP 2009190855A JP 2009190855 A JP2009190855 A JP 2009190855A JP 5434361 B2 JP5434361 B2 JP 5434361B2
Authority
JP
Japan
Prior art keywords
image data
image
distance
main subject
smoothed
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2009190855A
Other languages
Japanese (ja)
Other versions
JP2010226694A (en
Inventor
義一 渡邊
海克 関
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2009190855A priority Critical patent/JP5434361B2/en
Publication of JP2010226694A publication Critical patent/JP2010226694A/en
Application granted granted Critical
Publication of JP5434361B2 publication Critical patent/JP5434361B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Image Processing (AREA)
  • Studio Devices (AREA)

Description

本発明は、画像処理装置、画像処理方法及びデジタルスチルカメラに関する。   The present invention relates to an image processing apparatus, an image processing method, and a digital still camera.

コンパクトデジタルカメラで用いられる撮像素子の面積は、一眼レフカメラで用いられる撮像素子の面積や銀塩フィルムよりも小さい。そのため、コンパクトデジタルカメラでは同じ画角の画像を撮影するために必要な撮影光学系の焦点距離は一眼レフカメラよりも短い。焦点距離が短いと、撮影光学系のFナンバーを同じにしても、被写界深度が深くなってしまう。ここで、焦点距離が短くなることに比例させてFナンバーを小さくする(明るくする)ことができれば被写界深度を浅くすることができるが、撮影光学系を大口径化する必要があり、サイズおよびコストが増大してしまう。このため、コンパクトデジタルカメラで撮影すると、相対的に広い距離範囲に対して焦点が合ってしまう。これは、同じ明るさの画像を撮影したときにぼけの少ない画像が得られるという点では長所ともなるが、ポートレートのように背景を大きくぼかすような撮影は困難となり問題である。   The area of an image sensor used in a compact digital camera is smaller than the area of an image sensor used in a single-lens reflex camera or a silver salt film. For this reason, the focal length of the photographing optical system necessary for photographing an image with the same angle of view is shorter than that of a single-lens reflex camera in a compact digital camera. If the focal length is short, the depth of field will be deep even if the F number of the photographing optical system is the same. Here, if the F-number can be reduced (brightened) in proportion to the shortening of the focal length, the depth of field can be reduced, but it is necessary to increase the diameter of the imaging optical system, and the size And the cost increases. For this reason, when a picture is taken with a compact digital camera, a relatively wide distance range is in focus. This is an advantage in that an image with less blur can be obtained when images of the same brightness are taken, but it is difficult to shoot with a large background blur as in portraits.

上記した問題に対して、画像処理により背景をぼかす技術が特許文献1〜4において提案されている。これらのカメラでは、距離や画角内の位置に応じて主要被写体を抜き出し、背景部分にぼかし処理を行っている。特に、特許文献1及び2に係る技術では、画面の各領域における被写体までの距離を測定し、距離に応じて主要被写体を分離し、距離に応じたぼかし強度でぼかし処理を行っているため、より自然な画像を得ることができる。   For the above-described problems, Patent Documents 1 to 4 propose techniques for blurring the background by image processing. In these cameras, the main subject is extracted according to the distance and the position within the angle of view, and the background portion is blurred. In particular, in the techniques according to Patent Documents 1 and 2, the distance to the subject in each area of the screen is measured, the main subject is separated according to the distance, and the blurring process is performed with the blur strength according to the distance. A more natural image can be obtained.

しかしながら特許文献1に係る技術では、撮影面を縦方向、あるいは横方向に分割した測距結果に基づき主要被写体を決定すると共に、非主要被写体部分にぼかし処理を行っているが、実際の被写体は複雑な形状をしていることから、測距結果だけを用いて被写体領域を判定してしまうと、ぼけ形状が被写体と一致しないという問題、即ち、主要被写体へのぼけの食い込みの問題や、非主要被写体部分におけるぼけの抜けの問題が発生してしまう。また、特許文献1に係る技術のぼかし処理においては、平均化に用いるデータ数を主要被写体との距離に応じて連続的に変化させてぼかし処理を行っているため、処理に時間がかかるという問題や、専用のハードウェアを構成する必要がありコストが増大するという問題が生じる。   However, in the technique according to Patent Document 1, the main subject is determined based on the distance measurement result obtained by dividing the photographing surface in the vertical direction or the horizontal direction, and the non-main subject portion is blurred. Because it has a complicated shape, if the subject area is determined using only the distance measurement result, the problem is that the blur shape does not match the subject, i.e. A problem of missing blur in the main subject portion occurs. Further, in the blurring process of the technique according to Patent Document 1, since the blurring process is performed by continuously changing the number of data used for averaging according to the distance from the main subject, the process takes time. In addition, there is a problem that it is necessary to configure dedicated hardware and the cost increases.

さらに特許文献2に係る技術では、多重フォーカス法により、撮影対象範囲の複数の点までの距離を検出し、検出した距離に基づいてぼかし処理をおこなっているが、距離を計測できる被写体が、コントラストの高いエッジ部分を含む被写体に限られるため、非主要被写体の種類によっては正しい測距結果を得ることができず、非主要被写体部分にぼけの抜けが発生してしまう。また、特許文献2に係る技術のぼかし処理においては、距離から求めた錯乱円径の差に相当する範囲が分散するように、画素毎にフィルタ特性を変えてぼかし処理を行っているため、処理に時間がかかるという問題や、専用のハードウェアを構成する必要がありコストが増大するという問題が生じる。   Furthermore, in the technique according to Patent Document 2, the distance to a plurality of points in the shooting target range is detected by the multi-focus method, and blurring processing is performed based on the detected distance. Therefore, depending on the type of the non-main subject, a correct distance measurement result cannot be obtained, and the non-main subject portion is blurred. Further, in the blurring process of the technique according to Patent Document 2, the blurring process is performed by changing the filter characteristics for each pixel so that the range corresponding to the difference in the circle of confusion obtained from the distance is dispersed. The problem that it takes a long time, and the problem that the cost increases because it is necessary to configure dedicated hardware.

これに対して特許文献5では、CCDAFによって測距を行うと共に、主要被写体を抽出することで、特別なハードウェアや処理を必要とすることなく、背景(非主要被写体に相当する。)画像のぼかし処理を行う技術が開示されている。かかる技術によれば、簡易な構成でぼかし処理を行うことができる。しかしながら、特許文献5に係る技術では、主要被写体領域の判定においては測距結果を用いて輪郭抽出を行っているものの、背景部分については考慮されておらず、ぼけ形状が被写体と一致しない場合がある。よって、被写体抽出の高精度化が望まれる。   On the other hand, in Patent Document 5, distance measurement is performed by CCDAF and a main subject is extracted, so that a background (corresponding to a non-main subject) image is not required without requiring special hardware or processing. A technique for performing a blurring process is disclosed. According to such a technique, the blurring process can be performed with a simple configuration. However, in the technique according to Patent Document 5, although the contour extraction is performed using the distance measurement result in the determination of the main subject region, the background portion is not considered and the blur shape may not match the subject. is there. Therefore, higher accuracy in subject extraction is desired.

本発明は、以上の様な状況を鑑みて為されたものであって、被写体によらず高品位なぼかし画像が得られると共に、高速に処理できる画像処理装置、画像処理方法及びデジタルスチルカメラを提供することを目的としている。   The present invention has been made in view of the above situation, and provides an image processing apparatus, an image processing method, and a digital still camera that can obtain a high-quality blurred image regardless of a subject and can perform high-speed processing. It is intended to provide.

上記課題を解決するために本発明に係る画像処理装置、画像処理方法及びデジタルスチルカメラは、具体的には下記(1)〜(7)、(9)〜(15)および(17)に記載の技術的特徴を有する。
(1):主要被写体画像データと非主要被写体画像データとを含む画像データと、主要被写体までの距離と非主要被写体までの距離とからなる距離情報が入力され、前記画像データにぼかし処理を行う画像処理装置であって、前記距離情報を所定の段数からなる分割距離情報に分割する距離分割手段と、前記画像データを輝度及び/または色度に基づいて領域判定して領域判定結果を出力する領域判定手段と、前記分割距離情報と前記領域判定結果とを対応づけてラベルデータを出力するラベリング手段と、前記所定の段数に応じた異なる処理をもって前記画像データを平滑化して平滑化画像データを出力する平滑化手段と、前記画像データと前記平滑化画像データとを前記ラベルデータに基づいて合成した合成画像データを出力する合成処理手段と、を具備し、前記ラベリング手段は、前記主要被写体画像データを含む領域の境界に重なり合う小領域において、小領域の分割距離情報を0にする重み付けを行うことを特徴とする画像処理装置である。
In order to solve the above problems, an image processing apparatus, an image processing method, and a digital still camera according to the present invention are specifically described in the following (1) to (7), (9) to (15), and (17). It has the following technical features.
(1): Image data including main subject image data and non-main subject image data, and distance information including a distance to the main subject and a distance to the non-main subject are input, and blur processing is performed on the image data. An image processing apparatus, a distance dividing unit that divides the distance information into divided distance information having a predetermined number of steps, and area determination of the image data based on luminance and / or chromaticity, and outputting an area determination result An area determination unit, a labeling unit that outputs the label data by associating the division distance information with the region determination result, and smoothing the image data by smoothing the image data with different processing according to the predetermined number of stages. Smoothing means for outputting; and a combining process for outputting combined image data obtained by combining the image data and the smoothed image data based on the label data. Comprising means, wherein the labeling means is in the small region of overlap in the boundary region including the main object image data, the image processing apparatus characterized by performing weighting to 0 divided distance information of the small area is there.

(2):前記距離分割手段は、前記距離情報をN段からなる分割距離情報に分割し、
前記平滑化手段は、前記画像データを(N−1)の異なる処理をもって平滑化して、(N−1)の異なる平滑化画像データを出力することを特徴とする上記(1)に記載の画像処理装置である。(但し、Nは2以上の整数である。)
(2): The distance dividing unit divides the distance information into divided distance information composed of N stages,
The image according to (1), wherein the smoothing means smoothes the image data by (N-1) different processes and outputs (N-1) different smoothed image data. It is a processing device. (However, N is an integer of 2 or more.)

(3):前記画像データを縮小する縮小手段を備え、前記領域判定手段は、前記縮小手段で縮小した画像データにおける領域を判定することを特徴とする上記(1)または(2)に記載の画像処理装置である。 (3): The apparatus according to (1) or (2), further including a reduction unit that reduces the image data, wherein the region determination unit determines a region in the image data reduced by the reduction unit. An image processing apparatus.

(4):前記ラベルデータを拡大する拡大手段を備えることを特徴とする上記(3)に記載の画像処理装置である。 (4) The image processing apparatus according to (3), further including an enlargement unit that enlarges the label data.

(5):前記合成画像データを平滑化する合成画像データ平滑化手段を備えることを特徴とする上記(1)乃至(4)のいずれか1項に記載の画像処理装置である。 (5) The image processing apparatus according to any one of (1) to (4), further including a composite image data smoothing unit that smoothes the composite image data.

(6):前記合成処理手段は、前記画像データ及び前記平滑化画像データを加重加算して合成することを特徴とする上記(1)乃至(4)のいずれか1項に記載の画像処理装置である。 (6): The image processing apparatus according to any one of (1) to (4), wherein the synthesis processing unit synthesizes the image data and the smoothed image data by weighted addition. It is.

(7):前記ラベルデータを平滑化した平滑化ラベルデータを出力するラベルデータ平滑化手段を備え、
前記合成処理手段は、前記平滑化ラベルデータによって前記画像データ及び前記平滑化画像データを加重加算して合成することを特徴とする上記(6)に記載の画像処理装置である。
(7): comprising label data smoothing means for outputting smoothed label data obtained by smoothing the label data;
The image processing apparatus according to (6), wherein the combining processing unit combines the image data and the smoothed image data by weighted addition using the smoothed label data.

(9):入力された主要被写体画像データと非主要被写体画像データとを含む画像データにぼかし処理を行う画像処理方法であって、入力された主要被写体までの距離と非主要被写体までの距離とからなる距離情報を所定の段数からなる分割距離情報に分割する距離分割工程と、前記画像データを輝度及び/または色度に基づいて領域判定して領域判定結果を出力する領域判定工程と、前記分割距離情報と前記領域判定結果とを対応づけてラベルデータを出力するラベリング工程と、前記所定の段数に応じた異なる処理をもって前記画像データを平滑化して平滑化画像データを出力する平滑化工程と、前記画像データと前記平滑化画像データとを前記ラベルデータに基づいて合成した合成画像データを出力する合成処理工程と、を具備し、前記ラベリング工程は、前記主要被写体画像データを含む領域の境界に重なり合う小領域において、小領域の分割距離情報を0にする重み付けを行うことを特徴とする画像処理方法である。 (9): An image processing method for performing blur processing on image data including input main subject image data and non-main subject image data, wherein the distance to the input main subject and the distance to the non-main subject are A distance dividing step of dividing the distance information consisting of a predetermined number of steps into a distance dividing step, a region determining step of determining the region of the image data based on luminance and / or chromaticity, and outputting a region determination result, A labeling step of associating the division distance information with the region determination result and outputting label data; and a smoothing step of smoothing the image data by different processing according to the predetermined number of steps and outputting smoothed image data And a synthesis processing step of outputting synthesized image data obtained by synthesizing the image data and the smoothed image data based on the label data. Labeling step, in a small region of overlap in the boundary region including the main object image data, an image processing method characterized by performing weighting to 0 divided distance information of the small area.

(10):前記距離分割工程は、前記距離情報をN段からなる分割距離情報に分割し、前記平滑化工程は、前記画像データを(N−1)の異なる処理をもって平滑化して、(N−1)の異なる平滑化画像データを出力することを特徴とする上記(9)に記載の画像処理方法である。(但し、Nは2以上の整数である。) (10): The distance dividing step divides the distance information into N pieces of divided distance information, and the smoothing step smoothes the image data by (N−1) different processes, and (N The image processing method according to (9), wherein the smoothed image data different in (-1) is output. (However, N is an integer of 2 or more.)

(11):前記画像データを縮小する縮小工程を備え、前記領域判定工程は、前記縮小工程で縮小した画像データにおける領域を判定することを特徴とする上記(9)または(10)に記載の画像処理方法である。 (11): The method according to (9) or (10), further including a reduction process for reducing the image data, wherein the area determination process determines an area in the image data reduced in the reduction process. This is an image processing method.

(12):前記ラベルデータを拡大する拡大工程を備えることを特徴とする上記(11)に記載の画像処理方法である。 (12) The image processing method according to (11), further including an enlargement step of enlarging the label data.

(13):前記合成画像データを平滑化する合成画像データ平滑化工程を備えることを特徴とする上記(9)乃至(12)のいずれか1項に記載の画像処理方法である。 (13) The image processing method according to any one of (9) to (12), further including a composite image data smoothing step for smoothing the composite image data.

(14):前記合成処理工程は、前記画像データ及び前記平滑化画像データを加重加算して合成することを特徴とする上記(9)乃至(12)のいずれか1項に記載の画像処理方法である。 (14) The image processing method according to any one of (9) to (12), wherein the synthesis processing step combines the image data and the smoothed image data by weighted addition. It is.

(15):前記ラベルデータを平滑化した平滑化ラベルデータを出力するラベルデータ平滑化工程を備え、前記合成処理工程は、前記平滑化ラベルデータによって前記画像データ及び前記平滑化画像データを加重加算して合成することを特徴とする上記(14)に記載の画像処理方法である。 (15): a label data smoothing step for outputting smoothed label data obtained by smoothing the label data, wherein the synthesis processing step performs weighted addition of the image data and the smoothed image data by the smoothed label data The image processing method according to (14), wherein the image processing method is combined.

(17):上記(1)乃至(7)のいずれか1項に記載の画像処理装置を備えたことを特徴とするデジタルスチルカメラである。 (17): A digital still camera comprising the image processing apparatus according to any one of (1) to (7) above.

上記(1)、(2)、(9)または(10)に記載の構成によれば、主要被写体と非主要被写体(例えば背景)とを適切に分離することができ、高品位なぼかし画像が得られると共に、ぼかし処理を高速に行うことができる。   According to the configuration described in the above (1), (2), (9) or (10), the main subject and the non-main subject (for example, the background) can be appropriately separated, and a high-quality blurred image can be obtained. As a result, blurring can be performed at high speed.

上記(3)、(4)、(11)または(12)に記載の構成によれば、さらにぼかし処理を更に高速に行うことができる。   According to the configuration described in the above (3), (4), (11) or (12), the blurring process can be further performed at higher speed.

上記(5)または(13)に記載の構成によれば、さらに高品位なぼかし画像が得られる。   According to the configuration described in the above (5) or (13), a higher-quality blurred image can be obtained.

上記(6)または(14)に記載の構成によれば、元の画像データと平滑化された平滑化画像データ間や、異なる強度で平滑化された平滑化画像データ間のつなぎ目を目立たなくすることができ、高品位なぼかし画像が得られる。   According to the configuration described in (6) or (14) above, the joint between the original image data and the smoothed smoothed image data or between the smoothed image data smoothed with different intensities is made inconspicuous. And a high-quality blurred image can be obtained.

上記(7)または(15)に記載の構成によれば、元の画像データと平滑化された平滑化画像データ間や、異なる強度で平滑化された平滑化画像データ間のつなぎ目をさらに目立たなくすることができ、さらに高品位なぼかし画像が得られる。   According to the configuration described in (7) or (15) above, the joints between the original image data and the smoothed smoothed image data or between the smoothed image data smoothed with different intensities are more inconspicuous. And a higher-quality blurred image can be obtained.

上記(17)に記載の構成によれば、高品位かつ高速なぼかし処理を行うデジタルスチルカメラを実現することができる。   According to the configuration described in (17) above, it is possible to realize a digital still camera that performs high-quality and high-speed blurring.

本発明によれば、被写体によらず高品位なぼかし画像が得られると共に、高速に処理できる画像処理装置、画像処理方法及びデジタルスチルカメラを提供することができる。   According to the present invention, it is possible to provide an image processing apparatus, an image processing method, and a digital still camera that can obtain a high-quality blurred image regardless of a subject and can perform high-speed processing.

本発明に係るデジタルスチルカメラ装置及び接続機器の構成を示すブロック図である。It is a block diagram which shows the structure of the digital still camera apparatus and connection apparatus which concern on this invention. 本発明に係るデジタルスチルカメラにおける一実施の形態の外観を示す上面図である。It is a top view which shows the external appearance of one Embodiment in the digital still camera concerning this invention. 図2のデジタルスチルカメラの外観を示す正面図である。It is a front view which shows the external appearance of the digital still camera of FIG. 図2のデジタルスチルカメラの外観を示す背面図である。It is a rear view which shows the external appearance of the digital still camera of FIG. 本発明に係るデジタルスチルカメラにおける第1の実施の形態および第2の実施の形態の動作フローである。It is an operation | movement flow of 1st Embodiment and 2nd Embodiment in the digital still camera concerning this invention. 本発明に係るデジタルスチルカメラにおける第1の実施の形態の画像処理を示す図である。It is a figure which shows the image processing of 1st Embodiment in the digital still camera concerning this invention. 本発明に係るデジタルスチルカメラにおける第1の実施の形態のAF評価値の変化を示す図である。It is a figure which shows the change of AF evaluation value of 1st Embodiment in the digital still camera concerning this invention. 本発明に係るデジタルスチルカメラにおける第1の実施の形態のAF評価値のHPFで演算対象となる画素を示す図である。It is a figure which shows the pixel used as calculation object by HPF of AF evaluation value of 1st Embodiment in the digital still camera concerning this invention. 本発明に係るデジタルスチルカメラにおける第1の実施の形態のAFエリアの被写体までの距離と所定範囲を示す図である。It is a figure which shows the distance to the to-be-photographed object and the predetermined range of AF area of 1st Embodiment in the digital still camera concerning this invention. 本発明に係るデジタルスチルカメラにおける第1の実施の形態のラベリングの領域割り当てを説明するための説明図である。It is explanatory drawing for demonstrating the area allocation of labeling of 1st Embodiment in the digital still camera concerning this invention. 本発明に係るデジタルスチルカメラにおける第1の実施の形態の平滑化工程及び合成処理工程を説明するための説明図である。It is explanatory drawing for demonstrating the smoothing process and synthetic | combination process of 1st Embodiment in the digital still camera concerning this invention. 本発明に係るデジタルスチルカメラにおける第1の実施の形態のフィルタ係数の分布を示す図である。It is a figure which shows distribution of the filter coefficient of 1st Embodiment in the digital still camera concerning this invention. 本発明に係るデジタルスチルカメラにおける第2の実施の形態のラベルデータのビット割当を説明するための説明図である。It is explanatory drawing for demonstrating the bit allocation of the label data of 2nd Embodiment in the digital still camera concerning this invention. 本発明に係るデジタルスチルカメラにおける第2の実施の形態の平滑化工程及び合成処理工程を説明するための説明図である。It is explanatory drawing for demonstrating the smoothing process and synthetic | combination process of 2nd Embodiment in the digital still camera concerning this invention. 本発明に係る画像処理装置に入力される画像データのサンプル図である。It is a sample figure of the image data input into the image processing device concerning the present invention. 図15に示すサンプル図に測距結果を重ね合わせた図である。FIG. 16 is a diagram in which ranging results are superimposed on the sample diagram shown in FIG. 15. 本発明にかかる画像処理装置のその他の実施の形態における構成を示すブロック図である。It is a block diagram which shows the structure in other embodiment of the image processing apparatus concerning this invention. 図15に示すサンプル図における領域の分割の例を示すための図である。It is a figure for showing the example of the division | segmentation of the area | region in the sample figure shown in FIG. 本発明にかかる画像処理装置のその他の実施の形態1における領域分割の処理フローの例を示す図である。It is a figure which shows the example of the processing flow of the area | region division in the other Embodiment 1 of the image processing apparatus concerning this invention. 距離情報取得部108の詳細内部構成を示す図である。It is a figure which shows the detailed internal structure of the distance information acquisition part. 図15に示すサンプル図に顔検出結果を重ね合わせた図である。FIG. 16 is a diagram in which face detection results are superimposed on the sample diagram shown in FIG. 15. 誤測距ブロックEのブロック距離と周辺のブロックのブロック距離との差を示すグラフである。It is a graph which shows the difference of the block distance of the erroneous ranging block E, and the block distance of a surrounding block. 誤測距ブロックEと周辺のブロックとの配置関係を示す説明図である。It is explanatory drawing which shows the arrangement | positioning relationship between the erroneous ranging block E and a surrounding block. 5×5のGaussianフィルタの一例を示す図である。It is a figure which shows an example of a 5x5 Gaussian filter. ぼけ関数DB110の一例を示す図である。It is a figure which shows an example of the blur function DB110. デジタルカメラのハードウェア構成を示すブロック図である。It is a block diagram which shows the hardware constitutions of a digital camera. 本発明にかかる画像処理装置のその他の実施の形態1におけるぼかし処理の処理フローの例を示す図である。It is a figure which shows the example of the processing flow of the blurring process in other Embodiment 1 of the image processing apparatus concerning this invention. その他の実施の形態2における画像処理装置のハードウェア構成を示すブロック図である。FIG. 10 is a block diagram illustrating a hardware configuration of an image processing apparatus according to another embodiment 2. 本発明にかかる画像処理装置のその他の実施の形態2におけるぼかし処理の処理フローの例を示す図である。It is a figure which shows the example of the process flow of the blurring process in other Embodiment 2 of the image processing apparatus concerning this invention.

本発明に係る画像処理装置は、主要被写体画像データと非主要被写体画像データとを含む画像データと、主要被写体までの距離と非主要被写体までの距離とからなる距離情報とが入力され、前記画像データにぼかし処理を行う画像処理装置であって、前記距離情報を所定の段数からなる分割距離情報に分割する距離分割手段と、前記画像データを輝度及び/または色度に基づいて領域判定して領域判定結果を出力する領域判定手段と、前記分割距離情報と前記領域判定結果とを対応づけてラベルデータを出力するラベリング手段と、前記所定の段数に応じた異なる処理をもって前記画像データを平滑化して平滑化画像データを出力する平滑化手段と、前記画像データと前記平滑化画像データとを前記ラベルデータに基づいて合成した合成画像データを出力する合成処理手段と、を具備することを特徴とする。   The image processing apparatus according to the present invention receives image data including main subject image data and non-main subject image data, and distance information including a distance to the main subject and a distance to the non-main subject, and the image An image processing apparatus that performs blurring processing on data, a distance dividing unit that divides the distance information into divided distance information having a predetermined number of steps, and area determination of the image data based on luminance and / or chromaticity Area determination means for outputting an area determination result, labeling means for outputting label data in association with the division distance information and the area determination result, and smoothing the image data with different processing according to the predetermined number of steps Smoothing means for outputting smoothed image data, and a composite image obtained by combining the image data and the smoothed image data based on the label data Characterized by comprising a synthesis processing means for outputting over data, the.

次に、本発明に係る画像処理装置、画像処理方法及びデジタルスチルカメラについてさらに詳細に説明する。
尚、以下に述べる実施の形態は、本発明の好適な実施の形態であるから技術的に好ましい種々の限定が付されているが、本発明の範囲は以下の説明において本発明を限定する旨の記載がない限り、これらの態様に限られるものではない。
Next, the image processing apparatus, the image processing method, and the digital still camera according to the present invention will be described in more detail.
Although the embodiments described below are preferred embodiments of the present invention, various technically preferable limitations are attached thereto, but the scope of the present invention is intended to limit the present invention in the following description. Unless otherwise described, the present invention is not limited to these embodiments.

〔第1の実施の形態〕
以下、図面を参照しながら本発明の第1の実施の形態について具体的に説明する。
図1に本発明に係るデジタルスチルカメラ装置及び接続機器の構成を示す。図1において、01は、デジタルスチルカメラ装置である。02は、デジタルスチルカメラ装置01全体の制御を行うために設けられた、CPU、NANDフラッシュメモリ、SDRAM、タイマー等からなるシステム制御部である。03は、撮像のために設けられた、光学系部品を駆動するためのモータや、CCDを駆動するためのCCD駆動回路、A/D変換器等からなる、撮像部である。
[First Embodiment]
Hereinafter, the first embodiment of the present invention will be described in detail with reference to the drawings.
FIG. 1 shows the configuration of a digital still camera device and connection equipment according to the present invention. In FIG. 1, 01 is a digital still camera device. Reference numeral 02 denotes a system control unit including a CPU, a NAND flash memory, an SDRAM, a timer, and the like, which are provided to control the entire digital still camera device 01. Reference numeral 03 denotes an imaging unit that is provided for imaging and includes a motor for driving optical system components, a CCD drive circuit for driving a CCD, an A / D converter, and the like.

04は、撮像部で得られた画像信号(画像データ)に種々の画像処理を施すと共に、撮像部03のCCD駆動タイミング、レンズ駆動モータを制御してズーミング、フォーカシング、露出調整等を行い、また、画像の圧縮伸長を行うために設けられた画像処理用DSP(デジタルシグナルプロセッサ)、RAM等からなる画像処理部である。05は、画像処理部04で処理された画像信号をLCDへ表示するための信号処理を行い、また、ユーザーインターフェイスのための種々のグラフィック画像を生成しLCDへ表示するために設けられたD/A変換器、オンスクリーンディスプレイコントローラ等からなる表示制御部である。   04 performs various image processing on the image signal (image data) obtained by the imaging unit and controls the CCD drive timing and lens drive motor of the imaging unit 03 to perform zooming, focusing, exposure adjustment, etc. The image processing unit includes an image processing DSP (digital signal processor), a RAM, and the like, which are provided to compress and decompress images. 05 performs signal processing for displaying the image signal processed by the image processing unit 04 on the LCD, and generates various graphic images for the user interface and displays them on the LCD. A display control unit including an A converter, an on-screen display controller, and the like.

06は、画像を表示し、また、ユーザーインターフェイスのためのグラフィックを表示するために設けられたLCDである。07は、記録メディアとのインターフェイスのために設けられたメモリカードコントローラ等からなる記録メディアインターフェイス部である。08は、圧縮された画像信号や画像に纏わる種々の情報を記憶するために設けられたフラッシュメモリ等からなる、デジタルスチルカメラ装置01から着脱可能な記録メディアである。   Reference numeral 06 denotes an LCD provided for displaying an image and displaying a graphic for a user interface. Reference numeral 07 denotes a recording medium interface unit including a memory card controller or the like provided for an interface with the recording medium. Reference numeral 08 denotes a recording medium that is detachable from the digital still camera device 01 and includes a flash memory or the like provided to store a compressed image signal and various information associated with the image.

09は、ダイヤル等のユーザーインターフェイスの状態検出を行い、またメインCPUへの主電源制御を行うために設けられた、サブCPU等からなるハードキーインターフェイス部である。10は、USB接続してデータ通信を行うために設けられた、通信コントローラからなる通信インターフェイス部である。11は、デジタルスチルカメラ装置01とUSB接続して、デジタルスチルカメラ装置01からの画像を転送して再生したり、デジタルスチルカメラ装置01へ各種設定を行うためのPC(パーソナルコンピュータ)である。   Reference numeral 09 denotes a hard key interface unit composed of a sub CPU and the like, which is provided for detecting the state of a user interface such as a dial and controlling main power to the main CPU. Reference numeral 10 denotes a communication interface unit including a communication controller, which is provided for performing data communication through USB connection. Reference numeral 11 denotes a PC (personal computer) that is connected to the digital still camera device 01 via USB, transfers images from the digital still camera device 01, plays back, and makes various settings to the digital still camera device 01.

12は、撮影モードを設定するための、モードダイヤルである。13は、撮影を指示するための、レリーズキーである。14は、撮像を行うためのCCDである。15は、光学像をCCD14上に結像させるための、レンズである。   Reference numeral 12 denotes a mode dial for setting a photographing mode. Reference numeral 13 denotes a release key for instructing photographing. Reference numeral 14 denotes a CCD for imaging. Reference numeral 15 denotes a lens for forming an optical image on the CCD 14.

図2は本発明のデジタルスチルカメラの一実施の形態の外観を示す上面図である。図3は図2のデジタルスチルカメラの外観を示す正面図である。図4は図2のデジタルスチルカメラの外観を示す背面図である。
図2〜4において、デジタルスチルカメラ本体1の上面には、レリーズシャッタ(SW1)62、モードダイヤル(SW2)63、およびサブLCD64が配置されている。デジタルスチルカメラ本体1の正面には、SDカード/電池蓋65、ストロボ発光部66、光学ファインダ67、リモコン受光部69、鏡胴ユニット70が配置されている。デジタルスチルカメラ本体1の背面には、AFLED71、ストロボLED72、ズームスイッチ(ワイド)(SW3)73、ズームスイッチ(遠隔)(SW4)74、セルフタイマ/削除スイッチ(SW5)75、メニュースイッチ(SW6)76、上/ストロボスイッチ(SW7)77が配置されている。さらに、デジタルスチルカメラ本体1の背面には、右スイッチ(SW8)78、ディスプレイスイッチ(SW9)79、下/ストロボスイッチ(SW10)80、左/画像確認スイッチ(SW11)81、オーケースイッチ(SW12)82、LCDモニタ83および電源スイッチ(SW13)84が配置されている。またさらに、デジタルスチルカメラ本体1の背面には、光学ファインダ67が正面と同様の位置に配置されている。この光学ファインダ67は、装置の正面から背面まで挿通した状態で固定されている。
FIG. 2 is a top view showing an appearance of an embodiment of the digital still camera of the present invention. FIG. 3 is a front view showing an appearance of the digital still camera of FIG. FIG. 4 is a rear view showing the appearance of the digital still camera of FIG.
2 to 4, a release shutter (SW 1) 62, a mode dial (SW 2) 63, and a sub LCD 64 are arranged on the upper surface of the digital still camera body 1. An SD card / battery cover 65, a strobe light emitting unit 66, an optical viewfinder 67, a remote control light receiving unit 69, and a lens barrel unit 70 are arranged on the front surface of the digital still camera body 1. On the back of the digital still camera body 1, there are an AF LED 71, a strobe LED 72, a zoom switch (wide) (SW3) 73, a zoom switch (remote) (SW4) 74, a self-timer / delete switch (SW5) 75, a menu switch (SW6). 76, an up / strobe switch (SW7) 77 is arranged. Further, on the back of the digital still camera body 1, a right switch (SW8) 78, a display switch (SW9) 79, a down / strobe switch (SW10) 80, a left / image confirmation switch (SW11) 81, an okay switch (SW12) 82, an LCD monitor 83, and a power switch (SW13) 84 are arranged. Furthermore, an optical viewfinder 67 is disposed on the back surface of the digital still camera body 1 at the same position as the front surface. The optical finder 67 is fixed in a state where it is inserted from the front side to the back side of the apparatus.

まず、従来の起動動作について説明する。利用者が電源ボタン84を押下すると、ハードキーインターフェイス部09はメインCPUへの電源供給をオンする。システム制御部02内のメインCPUは、まずNANDフラッシュメモリのブート部からアクセス(プログラム実行)を開始し、ブートプログラムによってプログラム・データをSDRAMへ転送する。SDRAMへの転送が完了すると、プログラムの実行ポインタ(プログラムカウンタ)を、転送したSDRAM上のプログラムに移し、以降はSDRAM上のプログラムにより起動処理を開始する。   First, a conventional startup operation will be described. When the user presses the power button 84, the hard key interface unit 09 turns on the power supply to the main CPU. The main CPU in the system control unit 02 first starts access (program execution) from the boot unit of the NAND flash memory, and transfers program data to the SDRAM by the boot program. When the transfer to the SDRAM is completed, the program execution pointer (program counter) is moved to the transferred program on the SDRAM, and thereafter, the startup process is started by the program on the SDRAM.

起動処理には、OS(オペレーティングシステム)の初期化や鏡胴の繰りだし処理、記録メディアの初期化処理などが含まれる。鏡胴の繰り出し処理は、画像処理部04を介して撮像部03のレンズ駆動モータに所定の間隔(2mS)毎にパルス信号を与えることで行う。また、記録メディア08の初期化処理は、記録メディアインターフェイス部07を介して記録メディア08への電源とクロックを供給した後、記録メディア08へ初期化コマンドを発する。実際の初期化処理は記録メディア08内で行われ、システム制御部02はその完了を検知するために記録メディア08のステータスを10mS間隔でポーリングする。   The startup processing includes OS (operating system) initialization, lens barrel extension processing, recording media initialization processing, and the like. The lens barrel feeding process is performed by applying a pulse signal to the lens driving motor of the imaging unit 03 at predetermined intervals (2 mS) via the image processing unit 04. Also, in the initialization process of the recording medium 08, after supplying power and a clock to the recording medium 08 via the recording medium interface unit 07, an initialization command is issued to the recording medium 08. The actual initialization process is performed in the recording medium 08, and the system control unit 02 polls the status of the recording medium 08 at intervals of 10 mS in order to detect the completion.

続いて撮影時の動作について説明する。利用者は撮影に先立ち、図2〜4に示されている種々のキー、ダイヤルを操作し、撮影モード(高画質モード、低画質モード等)を決定する。利用者の操作内容はハードキーインターフェイス部09を通じてシステム制御部02で判別され、システム制御部02は、操作に応じて表示制御部05へガイダンスグラフィックを生成して、利用者に次操作を促す。システム制御部02は、撮影モードが決定されると、モードに応じた処理パラメータを画像処理部04へ設定する。   Next, the operation during shooting will be described. Prior to shooting, the user operates various keys and dials shown in FIGS. 2 to 4 to determine a shooting mode (high image quality mode, low image quality mode, etc.). The user's operation content is determined by the system control unit 02 through the hard key interface unit 09, and the system control unit 02 generates a guidance graphic to the display control unit 05 according to the operation, and prompts the user to perform the next operation. When the photographing mode is determined, the system control unit 02 sets processing parameters corresponding to the mode in the image processing unit 04.

あるいはまた、利用者はズームスイッチ73,74を操作し、画角(構図)を決定する。利用者の操作内容はハードキーインターフェイス部09を通じてシステム制御部02で判別され、システム制御部02は、操作に応じて撮像部03を制御しレンズを駆動する。撮像部03は画像処理部04からの制御に従い、実際の撮影に先だって、モニタリング画像を表示するための撮像動作を開始する。   Alternatively, the user operates the zoom switches 73 and 74 to determine the angle of view (composition). The user's operation content is determined by the system control unit 02 through the hard key interface unit 09, and the system control unit 02 controls the imaging unit 03 in accordance with the operation to drive the lens. In accordance with control from the image processing unit 04, the imaging unit 03 starts an imaging operation for displaying a monitoring image prior to actual shooting.

撮像されたデータは連続的に画像処理部04へ送られ、画像処理部04では色空間変換、ガンマ補正、ホワイトバランス調整などの処理を施した後、画像データを表示制御部05へ送る。表示制御部05では、画像データを信号処理してLCD06へ表示し、利用者へ撮像状態を提示する。レリーズボタン13が押されると、その操作はモード設定と同様にしてハードキーインターフェイス部09を通じてシステム制御部02で判別される。   The imaged data is continuously sent to the image processing unit 04. The image processing unit 04 performs processing such as color space conversion, gamma correction, and white balance adjustment, and then sends the image data to the display control unit 05. In the display control unit 05, the image data is signal-processed and displayed on the LCD 06, and the imaging state is presented to the user. When the release button 13 is pressed, the operation is discriminated by the system control unit 02 through the hard key interface unit 09 as in the mode setting.

撮像部03は画像処理部04からの制御に従い、フォーカス合わせを行った後、取り込んだ画像を画像処理部04へ送り、画像処理部04は、撮影モードに応じた画像処理、圧縮処理を行う。システム制御部02は、圧縮された画像データを読み出し、さらにヘッダー情報を付加した後、記録メディアインターフェイス部07を通じて記録メディア08へ書き込む。以上で一連の撮影動作を完了する。   The imaging unit 03 performs focus adjustment according to the control from the image processing unit 04 and then sends the captured image to the image processing unit 04. The image processing unit 04 performs image processing and compression processing according to the shooting mode. The system control unit 02 reads the compressed image data, adds header information, and then writes the compressed image data to the recording medium 08 through the recording medium interface unit 07. This completes a series of shooting operations.

次いで、本発明において特徴となる画像処理の動作フローについてより詳細に説明する。
先ず、本発明の第1の実施の形態である、元の画像データを平滑化して平滑化画像データを1面作成して元の画像データと合成し、必要に応じてこれを繰り返す(本実施の形態の場合3回繰り返す)例について説明する。
Next, the operation flow of image processing that is a feature of the present invention will be described in more detail.
First, according to the first embodiment of the present invention, the original image data is smoothed to create one surface of the smoothed image data, and is synthesized with the original image data. This is repeated as necessary (this embodiment). An example will be described in which this is repeated three times.

動作フローを図5(A)に示す。この動作フローはレリーズボタン13が押された後の、撮影時の動作を示している。
撮影動作を開始すると、システム制御部02は画像処理部04及び撮像部03を制御し、CCDAFのスキャン動作を行う(step01−001)。
続いてシステム制御部02は、撮影領域内の位置毎のピーク位置の判定を行う(step01−002)。
The operation flow is shown in FIG. This operation flow shows an operation at the time of shooting after the release button 13 is pressed.
When the photographing operation is started, the system control unit 02 controls the image processing unit 04 and the imaging unit 03 to perform a CCDAF scanning operation (step 01-001).
Subsequently, the system control unit 02 determines the peak position for each position in the imaging region (step 01-002).

ここでCCDAFの概要ついて説明する。
一般に、デジタルカメラやビデオカメラのように二次元撮像素子を有する電子撮像装置では、撮像素子で光電変換された映像信号によって画面の鮮鋭度を検出し、この鮮鋭度が最大になるようにフォーカシングレンズの位置を制御して焦点調節を行う。通常、この鮮鋭度は、ピントがぼけている状態では小さく、ピントが合うにつれて大きくなり、ピントが完全に合った状態で最大値に達する。
CCDAFは、無限端から近端までフォーカスレンズを徐々に動かすとともに、複数の位置で被写体を撮像し、撮像された複数の画像データのうち、もっとも鮮鋭度が高い画像が得られたフォーカスレンズの位置を合焦位置とする方法である。
Here, an outline of CCDAF will be described.
In general, in an electronic image pickup apparatus having a two-dimensional image pickup device such as a digital camera or a video camera, a sharpness of a screen is detected by a video signal photoelectrically converted by the image pickup device, and a focusing lens is set so that the sharpness is maximized. The focus is adjusted by controlling the position of. Normally, the sharpness is small when the focus is blurred, increases as the focus is achieved, and reaches a maximum value when the focus is completely achieved.
The CCDAF gradually moves the focus lens from the infinite end to the near end, images the subject at a plurality of positions, and the position of the focus lens from which the image with the highest sharpness is obtained among the plurality of imaged images. Is a method of setting the in-focus position.

以下、図6を参照しながら説明する。
図6(A)において、100は画像の撮影領域全体、101は1つのAF評価値エリアを示している。
図6(A)に示すように、AF評価値エリアは、撮影領域内を均等に分割した16×12の小領域となっており、CCDAFにより各小領域101毎のAF評価値(小領域101内の画像のコントラストの積算値)が得られる。
Hereinafter, a description will be given with reference to FIG.
In FIG. 6A, reference numeral 100 denotes an entire image capturing area, and reference numeral 101 denotes one AF evaluation value area.
As shown in FIG. 6A, the AF evaluation value area is a small area of 16 × 12 obtained by equally dividing the photographing area, and the AF evaluation value (small area 101) for each small area 101 is determined by CCDAF. (The integrated value of the contrast of the image).

システム制御部02は、各小領域101毎に、CCDAFのスキャンにより得られたレンズ位置毎のAF評価値を、所定のアルゴリズムに基づき解析し、AF評価値のピーク位置に相当するレンズの位置を判定する。
さらにシステム制御部02は、各小領域101毎に、現在のズーム位置からレンズの駆動位置を距離情報に変換する。
The system control unit 02 analyzes the AF evaluation value for each lens position obtained by the CCDAF scan for each small region 101 based on a predetermined algorithm, and determines the lens position corresponding to the peak position of the AF evaluation value. judge.
Further, the system control unit 02 converts the driving position of the lens from the current zoom position into distance information for each small area 101.

このCCDAFにおけるレンズ位置(合焦距離)とAF評価値との関係の一例を図7に示す。
図7において、横軸はレンズ位置及びレンズ位置に対応した合焦する距離、縦軸はAF評価値を示している。
また、901は遠距離にある被写体(例えば非主要被写体である図6(C)の背景の空部分102)のスキャンに伴うAF評価値の変化を示した波形、902は同じく中距離にある被写体(例えば非主要被写体である図6(C)の背景の縁石部分103)のスキャンに伴うAF評価値の変化を示した波形、903は同じく近距離にある被写体(例えば主要被写体である図6(C)の人物部分104)のスキャンに伴うAF評価値の変化を示した波形である。
ここで、AF評価値はAF評価値エリア101内の各画素に対し、水平方向の画素間でHPF(ハイパスフィルター)の演算を行い、得られた高周波成分を加算したものである。
An example of the relationship between the lens position (focus distance) and the AF evaluation value in this CCDAF is shown in FIG.
In FIG. 7, the horizontal axis indicates the lens position and the focusing distance corresponding to the lens position, and the vertical axis indicates the AF evaluation value.
Reference numeral 901 denotes a waveform indicating a change in AF evaluation value associated with a scan of a subject at a long distance (for example, the sky portion 102 in the background in FIG. 6C, which is a non-main subject), and 902 is a subject at the same intermediate distance. For example, a waveform indicating a change in AF evaluation value accompanying a scan of the background curb portion 103 in FIG. 6C, which is a non-main subject, and reference numeral 903 denotes an object at a short distance (for example, FIG. It is a waveform showing the change of the AF evaluation value accompanying the scanning of the human part 104) in C).
Here, the AF evaluation value is obtained by performing HPF (high pass filter) calculation between the pixels in the horizontal direction for each pixel in the AF evaluation value area 101 and adding the obtained high frequency components.

HPFの係数は、例えば、ki={−1,−2,6,−2,−1}といった値が用いられる。
k0は注目画素の水平方向−2の座標の画素に乗算される係数、k1は注目画素の水平方向−1の座標の画素に乗算される係数、k2は注目画素に乗算される係数、k3は注目画素の水平方向+1の座標の画素に乗算される係数、k4は注目画素の水平方向+2の座標の画素に乗算される係数である。
As the HPF coefficient, for example, a value such as ki = {− 1, −2, 6, −2, −1} is used.
k0 is a coefficient to be multiplied by the pixel of the pixel in the horizontal direction-2 of the target pixel, k1 is a coefficient to be multiplied to the pixel of the pixel of interest in the horizontal direction-1 coordinate, k2 is a coefficient to be multiplied by the target pixel, and k3 is A coefficient to be multiplied by a pixel having a coordinate in the horizontal direction + 1 of the target pixel, and k4 is a coefficient to be multiplied by a pixel having a coordinate in the horizontal direction + 2 of the target pixel.

このAF評価値の演算を、図8に示すAF評価値エリア内の5画素を抜き出したものを例に挙げて具体的に説明する。
図8において、1001は、注目画素の水平方向−2の座標の画素、1002は、注目画素の水平方向−1の座標の画素、1003は、注目画素、1004は、注目画素の水平方向+1の座標の画素、1005は、注目画素の水平方向+2の座標の画素を示している。AF評価値は、下記式(1)で求められる。
The calculation of the AF evaluation value will be specifically described with an example in which five pixels in the AF evaluation value area shown in FIG. 8 are extracted.
In FIG. 8, reference numeral 1001 denotes a pixel having a coordinate in the horizontal direction-2 of the target pixel, 1002 a pixel having a coordinate in the horizontal direction-1 of the target pixel, 1003 a target pixel, and 1004 a horizontal pixel of the target pixel + 1. A coordinate pixel 1005 indicates a pixel having a coordinate in the horizontal direction +2 of the target pixel. The AF evaluation value is obtained by the following formula (1).

(AF評価値) = k0×(1001の画素の値) + k1×(1002の画素の値) + k2×(1003の画素の値) + k3×(1004の画素の値) + k4×(1005の画素の値) ・・・式(1)   (AF evaluation value) = k0 × (value of pixel 1001) + k1 × (value of pixel 1002) + k2 × (value of pixel 1003) + k3 × (value of pixel 1004) + k4 × (1005) Pixel value) (1)

AF評価値から距離情報を取得するには、下記式(2−1)で示されるガウスの結像方程式、
1/a+1/b=1/f ・・・式(2−1)
から、下記式(2−2)として求められる。
a=bf/(b−f) ・・・式(2−2)
In order to obtain distance information from the AF evaluation value, a Gaussian imaging equation represented by the following equation (2-1):
1 / a + 1 / b = 1 / f Expression (2-1)
From the above, it is obtained as the following formula (2-2).
a = bf / (b−f) Expression (2-2)

ここで、a:レンズから被写体までの距離、b:レンズから撮像素子間の距離、f:レンズの焦点距離、である。レンズから被写体までの距離aが求める距離情報である。レンズの焦点距離fは、撮影時のズーム位置により一意に求められる。レンズから撮像素子間の距離bは、AF評価値のピークの得られたフォーカスレンズの位置から一意に求められる。以上により、画角100内の全領域のAF評価値エリア101毎の距離情報を得ることができる。   Here, a is the distance from the lens to the subject, b is the distance between the lens and the image sensor, and f is the focal length of the lens. The distance information from the lens to the subject is the distance information to be obtained. The focal length f of the lens is uniquely obtained from the zoom position at the time of shooting. The distance b between the lens and the image sensor is uniquely determined from the position of the focus lens where the peak of the AF evaluation value is obtained. As described above, it is possible to obtain distance information for each AF evaluation value area 101 of the entire region within the angle of view 100.

なお、被写体のコントラストが低く、ピークが得られなかったエリアについては、その周辺のエリアのピーク位置で補完処理を行うと良い。   For areas where the contrast of the subject is low and no peak is obtained, it is preferable to perform the complementing process at the peak position of the surrounding area.

以上の様に、実際の距離情報はAF評価値のピーク位置から一意に求められるため、以降の説明ではピーク位置を距離と同義のものとして説明する。   As described above, since the actual distance information is uniquely obtained from the peak position of the AF evaluation value, the following description will be made assuming that the peak position is synonymous with the distance.

図6(A)の各領域(AF評価値エリア101)の中の値は、step01−002で判定された各領域でのピーク位置を示している。
続いてシステム制御部02は、測距結果(ピーク位置;距離情報)を、所定の段数N段(本実施の形態ではN=4)に分割して分割距離情報とする(step01−003;距離分割工程)。この所定の段数Nは2以上の任意の整数である。このときNが大きくなるほどぼかし画像はより高品位となるが、Nが大きくなり過ぎると処理に時間がかかるため好ましくない。
The value in each area (AF evaluation value area 101) in FIG. 6A indicates the peak position in each area determined in step 01-002.
Subsequently, the system control unit 02 divides the distance measurement result (peak position; distance information) into a predetermined number of stages N (N = 4 in the present embodiment) as division distance information (step 01-003; distance) Division process). The predetermined number of stages N is an arbitrary integer of 2 or more. At this time, as N becomes larger, the blurred image becomes higher quality, but if N becomes too large, processing takes time, which is not preferable.

このstep01−002では、まず、システム制御部02は、AFエリア107の被写体(主要被写体)までの距離と、所定範囲内の距離にあるAF評価値エリア101をまとめて主要被写体ブロックとして判定する。
図6(A)において、網掛けで示された107はAFエリアを示している。このAFエリア107は画角100内の中心である必要はなく、撮像対象となる主要被写体に対応した画角100内の任意の位置をユーザーが指定することができる。
In step 01-002, the system control unit 02 first determines the AF evaluation value area 101 within the predetermined range and the distance to the subject (main subject) in the AF area 107 as a main subject block.
In FIG. 6 (A), 107 indicated by shading indicates an AF area. The AF area 107 does not need to be the center in the angle of view 100, and the user can specify an arbitrary position in the angle of view 100 corresponding to the main subject to be imaged.

AFエリア107の被写体までの距離と、主要被写体ブロックを決定するための所定範囲を、図9を参照しながら説明する。
図9において、横軸は無限遠から近距離に向けた距離、1101から1105、および1108は、図6(C)のような被写体を、step01−002で測距した、各部の距離を示している。
The distance to the subject in the AF area 107 and the predetermined range for determining the main subject block will be described with reference to FIG.
In FIG. 9, the horizontal axis indicates the distance from infinity to the short distance, 1101 to 1105, and 1108 indicate the distance of each part obtained by measuring the subject as illustrated in FIG. 6C in step 01-002. .

1101は、背景の空部分102までの距離、1102は、背景の縁石部分103までの距離、1103は、人物104の頭部までの距離、1104は、人物104の顔部までの距離、1105は、人物104の胸部までの距離である。1108は、背景の町並み105と海106までの距離である。   1101 is the distance to the sky part 102 of the background, 1102 is the distance to the curb part 103 of the background, 1103 is the distance to the head of the person 104, 1104 is the distance to the face of the person 104, 1105 is , The distance to the chest of the person 104. Reference numeral 1108 denotes the distance between the background townscape 105 and the sea 106.

AFエリア107は、図6(A)に示すように、人物の顔部に設定されており、AFエリア107の被写体までの距離は1104と等しい。   As shown in FIG. 6A, the AF area 107 is set on the face of a person, and the distance to the subject in the AF area 107 is equal to 1104.

1106、1107は、主要被写体ブロックを決定するための所定範囲を示しており、1106は近距離側の範囲、1107は遠距離側の範囲である。
図9の例では、1103、1104、1105が所定範囲に含まれる。
以上のような判定に基づき、本実施の形態では図6(B)の114で示したエリアを、主要被写体ブロックとして判定する。
Reference numerals 1106 and 1107 denote predetermined ranges for determining the main subject block. Reference numeral 1106 denotes a range on the near side, and 1107 denotes a range on the far side.
In the example of FIG. 9, 1103, 1104, and 1105 are included in the predetermined range.
Based on the above determination, in this embodiment, the area indicated by 114 in FIG. 6B is determined as the main subject block.

尚、この所定範囲1106、1107は、レンズの焦点距離とAFエリアの被写体までの距離に基づき、あらかじめシステム制御部02内に記憶されているテーブルを参照することで設定される。
設定は、レンズの焦点距離が長い場合には所定範囲は短く、レンズの焦点距離が短い場合には所定範囲は長く設定され、また、AFエリアの被写体までの距離が長い場合には所定範囲は長く、AFエリアの被写体までの距離が短い場合には所定範囲は短く、設定される。
あるいは、他の方法として、図6(A)の測距結果(距離情報)の値の分布から自動決定するようにしても良い。
The predetermined ranges 1106 and 1107 are set by referring to a table stored in advance in the system control unit 02 based on the focal length of the lens and the distance to the subject in the AF area.
When the focal length of the lens is long, the predetermined range is short, when the focal length of the lens is short, the predetermined range is set long, and when the distance to the subject in the AF area is long, the predetermined range is When the distance to the subject in the AF area is short and the predetermined range is short, the predetermined range is set.
Alternatively, as another method, it may be automatically determined from the distribution of the distance measurement result (distance information) value in FIG.

図6(B)の各領域(AF評価値エリア101)の値が0となっているブロックが主要被写体ブロックである。
本実施の形態における非主要被写体である背景部分については、主要被写体ブロック以外の領域の図6(A)の測距結果(距離情報)の値の分布から、値を残りの3段階に分割する。
本実施の形態では、値が11未満である領域(図6(B)の値が3)、値が11以上15未満である領域(図6(B)の値が2)、値が15以上である領域(図6(B)の値が1)の3段階に分割している。
尚、本実施の形態では非主要被写体は背景のみから構成されているが、本発明における非主要被写体とは主要被写体の前景のみから構成されていても良く、背景と前景とから構成されていても良い。
A block in which the value of each area (AF evaluation value area 101) in FIG. 6B is 0 is a main subject block.
For the background portion which is a non-main subject in the present embodiment, the value is divided into the remaining three stages from the distribution of the distance measurement result (distance information) values in FIG. 6A in the area other than the main subject block. .
In the present embodiment, the region where the value is less than 11 (the value in FIG. 6B is 3), the region where the value is 11 or more and less than 15 (the value in FIG. 6B is 2), and the value is 15 or more. Is divided into three stages (the value in FIG. 6B is 1).
In this embodiment, the non-main subject is composed only of the background. However, the non-main subject in the present invention may be composed only of the foreground of the main subject, and is composed of the background and the foreground. Also good.

続けてシステム制御部02は、画像処理部04を制御して、撮影画像(画像データ)を別画像として所定の画像サイズ(本実施の形態では320×240)に縮小(step01−004;縮小工程)し、縮小して得られた画像を元に領域判定を行う(step01−005;領域判定工程)。   Subsequently, the system control unit 02 controls the image processing unit 04 to reduce the captured image (image data) as a separate image to a predetermined image size (320 × 240 in the present embodiment) (step 01-004; reduction process) Then, region determination is performed based on the image obtained by reduction (step 01-005; region determination step).

領域の判定は、画像データの輝度と色差に基づき、隣接する画素との差が所定の値(本実施の形態では10)未満の場合には同一の領域として判定を行う(下記式(3)参照。)。尚、本実施の形態では画像データの輝度と色差に基づき領域の判定を行っているが、本発明における領域判定は、画像データの輝度または色差に基づき行うものであっても良い。   The region is determined based on the brightness and color difference of the image data, and when the difference between adjacent pixels is less than a predetermined value (10 in the present embodiment), the region is determined as the same region (formula (3) below) reference.). In this embodiment, the area is determined based on the luminance and color difference of the image data. However, the area determination in the present invention may be performed based on the luminance or color difference of the image data.

abs(Y1−Y0)+abs(U1−U0)+abs(V1−V0) < 10
・・・式(3)
abs (Y1-Y0) + abs (U1-U0) + abs (V1-V0) <10
... Formula (3)

上記式(3)において、Y0、U0、V0が基準となる画素の輝度または色差、Y1、U1、V1が隣接する画素の輝度または色差の値である。
abs()は、括弧内の値の絶対値を得る処理を示している。
基準となる画素の位置を画像全体に移動しながら判定を行うことで、明るさと色の近い領域を判定することができる。
In the above equation (3), Y0, U0, and V0 are the luminance or color difference of the reference pixel, and Y1, U1, and V1 are the luminance or color difference values of adjacent pixels.
abs () indicates processing for obtaining the absolute value of the value in parentheses.
By performing the determination while moving the position of the reference pixel to the entire image, it is possible to determine an area close to brightness and color.

step01−005の領域判定工程の結果である領域判定結果を図6(D)に示す。図6(D)において太線及び/または細線で囲まれた各領域が、輝度や色差に基づいて画像データのグルーピングを行った領域判定の結果である。
尚、本実施の形態では後述するように非主要被写体である背景の領域の全てにぼけ処理を行うが、主要被写体からの位置が所定の範囲内である非主要被写体に対してはぼけ処理を行わないことが望ましい。即ち、非主要被写体領域の中で、主要被写体からの位置が所定の距離の範囲外である非主要被写体の領域に対してぼけ処理を行うことが望ましい。
FIG. 6D shows a region determination result that is a result of the region determination step in step 01-005. In FIG. 6D, each area surrounded by a thick line and / or a thin line is a result of area determination in which image data is grouped based on luminance and color difference.
In this embodiment, as will be described later, blur processing is performed on all the background areas that are non-main subjects, but blur processing is performed on non-main subjects whose positions from the main subject are within a predetermined range. It is desirable not to do so. In other words, it is desirable to perform the blur process on the non-main subject region whose position from the main subject is outside the range of the predetermined distance in the non-main subject region.

続けてシステム制御部02は、領域の割当(ラベリング)を行う(step01−006;ラベリング工程)。
ラベリングは、step01−005で領域判定した各領域(図6(D);領域判定結果)と、step01−003で分割した測距結果(図6(B);分割距離情報)を重ね合わせて判定する。即ち、領域判定工程により抽出された各領域がそれぞれ有する画素は、N段の分割距離情報のいずれと多く重なるかをカウントし、重なりの多い段の分割距離情報に各領域をそれぞれ割り当てたラベリングデータを出力する。
Subsequently, the system control unit 02 performs area allocation (labeling) (step 01-006; labeling step).
The labeling is determined by superimposing each area determined in step 01-005 (FIG. 6D; area determination result) and the distance measurement result divided in step 01-003 (FIG. 6B; divided distance information). To do. That is, each pixel extracted in the region determination step counts which of the N-stage division distance information overlaps with each other, and labeling data in which each area is assigned to the division distance information of the stage with many overlaps. Is output.

このラベリングの方法について、図10を用いて具体的に説明する。
図10において、太線で囲まれた700は分割距離情報が0(1段目)のAF評価値エリア、同じく701は分割距離情報が1(2段目)のAF評価値エリア、同じく702は分割距離情報が2(3段目)のAF評価値エリア、同じく703は分割距離情報が3(4段目)のAF評価値エリアを示している。これらの領域700,701,702,703は図示のとおり太線で囲まれた領域であって、20×20個の細線で囲まれた画素705からそれぞれ構成されている。前述したように、領域判定は320×240に縮小した画像で行っているため、16×12のAF評価値エリアと重ね合わせると、各AF評価値エリアが20×20画素を含むことになる。
また、波線で囲んだ円形の領域704は、重ね合わせた領域判定結果で示される1つの領域である。
This labeling method will be specifically described with reference to FIG.
In FIG. 10, 700 surrounded by a thick line is an AF evaluation value area with division distance information 0 (first stage), 701 is an AF evaluation value area with division distance information 1 (second stage), and 702 is a division. An AF evaluation value area with distance information 2 (third stage), and 703 similarly indicate an AF evaluation value area with division distance information 3 (fourth stage). These regions 700, 701, 702, and 703 are regions surrounded by thick lines as shown in the figure, and are composed of pixels 705 surrounded by 20 × 20 thin lines. As described above, since the area determination is performed with an image reduced to 320 × 240, when overlapped with the 16 × 12 AF evaluation value area, each AF evaluation value area includes 20 × 20 pixels.
A circular area 704 surrounded by a wavy line is one area indicated by the overlapped area determination result.

システム制御部02は、領域704内に重なり合っている各AF評価値エリア700〜703が有する画素数をカウントし、カウントされた画素数が最も多い分割距離情報に領域704の割り当てを行うが、その際に、分割距離情報が0のAF評価値エリア(主要被写体領域)と重なる画素に対しては、所定の重み付け(本実施の形態では3倍でカウント)を行い、判定する。尚、本実施の形態では各領域内でカウントされた画素数が最も多い分割距離情報が複数ある場合は、0に近いものを優先して割り当てを行う。   The system control unit 02 counts the number of pixels included in each of the AF evaluation value areas 700 to 703 overlapping in the area 704, and assigns the area 704 to the division distance information having the largest number of counted pixels. At this time, a predetermined weighting (in the present embodiment, counting by 3) is performed on a pixel that overlaps the AF evaluation value area (main subject area) whose division distance information is 0, and the determination is made. In the present embodiment, when there are a plurality of pieces of division distance information having the largest number of pixels counted in each area, assignment close to 0 is preferentially performed.

図10の例における本実施の形態の具体的な算出について説明する。
分割距離情報が0の領域の画素数は77画素で、3倍の重み付けを行うため231画素相当、分割距離情報が1の領域の画素数は120画素、分割距離情報が2の領域の画素数は204画素、分割距離情報が3の領域の画素数は143画素となり、領域704には、測距結果0を割り当てる。割り当てでは、領域判定に用いた画素数(320×240)画素に等しいラベルデータを作成し、この領域704の位置に相当するラベルデータの値を0に設定する。
A specific calculation of the present embodiment in the example of FIG. 10 will be described.
The number of pixels in the area where the division distance information is 0 is 77 pixels, which is equivalent to 231 pixels because the weight is tripled. The number of pixels in the area where the division distance information is 1 is 120 pixels, and the number of pixels in the area where the division distance information is 2 The number of pixels in the area of 204 pixels and the division distance information 3 is 143 pixels, and the distance measurement result 0 is assigned to the area 704. In the allocation, label data equal to the number of pixels (320 × 240) used for area determination is created, and the value of label data corresponding to the position of the area 704 is set to zero.

この分割距離情報が0の領域への重み付けを行うことにより、領域判定結果において小領域が生成され、それが分割距離情報の境界に重なり合っているような場合に、その小領域を0にすることができ、結果として(その小領域が主要被写体の場合)主要被写体へぼけが食い込むことを防止することができる。
本実施例では主要被写体に対して3倍の重み付けを行っているが、これ以外の値でも良い。あるいは、割り当てを行う領域において、主要被写体領域に相当する分割距離情報である「0」との重なりが1画素以上ある場合には当該領域にラベル値「0」を設定するような方法も有効である。
By weighting the area whose division distance information is 0, a small area is generated in the area determination result, and the small area is set to 0 when it overlaps the boundary of the division distance information. As a result (when the small area is the main subject), it is possible to prevent the main subject from being blurred.
In this embodiment, the main subject is weighted three times, but other values may be used. Alternatively, in the area to be allocated, when there is an overlap of “1” or more with “0” that is the division distance information corresponding to the main subject area, a method of setting the label value “0” in the area is also effective. is there.

同様に判定において、分割距離情報が1の領域が割り当てられた場合にはラベル値1を、分割距離情報が2の領域が割り当てられた場合にはラベル値2を、分割距離情報が3の領域が割り当てられた場合にはラベル値3を設定して320×240のラベルデータを作成する。   Similarly, in the determination, when a region with division distance information 1 is assigned, label value 1 is assigned. When a region with division distance information 2 is assigned, label value 2 is given, and region with division distance information 3 is given. Is assigned, label value 3 is set to generate 320 × 240 label data.

図6の例では、図6(D)の太線で囲った領域が、ラベルデータの設定結果を示しており、108の領域(本実施の形態における主要被写体の領域に相当する。)には0が、109及び110の領域には1が、111及び112の領域には2が、113の領域には3が設定される。   In the example of FIG. 6, the area surrounded by the thick line in FIG. 6D shows the label data setting result, and the area 108 (corresponding to the main subject area in this embodiment) is 0. However, 1 is set in the areas 109 and 110, 2 is set in the areas 111 and 112, and 3 is set in the area 113.

以上のように、step01−005,006での処理は、縮小した画像を元に行われる。step01−005,006で説明したような複雑な処理は、CPUで行う必要がある為、縮小した画像を元に行うことで高速に処理することができる。   As described above, the processing in steps 01-005 and 006 is performed based on the reduced image. Since complicated processing as described in steps 01-005 and 006 needs to be performed by the CPU, it can be performed at high speed by performing it based on the reduced image.

続けてシステム制御部02は、ラベルデータの拡大を行う(step01−007;拡大処理)。拡大は最近傍法により0、1、2、3以外の中間値が生成されないように行い、撮影画像データのサイズと同じサイズに拡大する。   Subsequently, the system control unit 02 enlarges the label data (step 01-007; enlargement process). Enlargement is performed so that intermediate values other than 0, 1, 2, and 3 are not generated by the nearest neighbor method, and the image is enlarged to the same size as the size of the captured image data.

以下、平滑化工程と合成処理工程について、図11を参照しながら説明する。
システム制御部02は、画像処理部04を制御し、撮影画像データ(元画像データ)のコピーを生成し(step01−008、図11(1))、更に、撮影画像データ(元画像データ)のぼかし画像(平滑化画像データ)を生成する(step01−009、図11(2);平滑化工程の一部)。
Hereinafter, the smoothing step and the synthesis processing step will be described with reference to FIG.
The system control unit 02 controls the image processing unit 04 to generate a copy of the captured image data (original image data) (step 01-008, FIG. 11 (1)), and further, the captured image data (original image data) A blurred image (smoothed image data) is generated (step 01-009, FIG. 11 (2); part of the smoothing step).

ここで、ぼかし処理(平滑化画像データの生成)の詳細について図5(C)のフローに基づいて説明する。
システム制御装置02は、ラベルデータのラベル値に基づき、下記表1に示すような処理内容を決定する(step03−001)。
Here, the details of the blurring process (generation of smoothed image data) will be described based on the flow of FIG.
Based on the label value of the label data, the system control device 02 determines the processing contents as shown in Table 1 below (step 03-001).

表1において、ラベル値はラベルデータの値(値の大きい方が大きなぼけを生ずる)、縮小処理はラベル値により決定する縮小処理の縮小率(画像の一辺の長さの比)、を示している。即ち、大きなぼけを得る場合には、画像をより小さく縮小してから空間フィルタ処理を行う。このときの縮小処理は、バイリニア法により、画像データの画素数を減らすようにサンプリングを行う。
尚、縮小処理の縮小率の分母の値16は、画像の水平サイズと垂直サイズの公約数となる値が設定されており、縮小後の画像サイズは水平方向、垂直方向共に小数点以下の端数を生じない。
In Table 1, the label value indicates the value of the label data (a larger value causes greater blur), and the reduction process indicates the reduction ratio (the ratio of the length of one side of the image) of the reduction process determined by the label value. Yes. That is, when obtaining a large blur, the spatial filter process is performed after the image is further reduced. In the reduction processing at this time, sampling is performed by the bilinear method so as to reduce the number of pixels of the image data.
Note that the denominator value 16 of the reduction ratio of the reduction process is a value that is a common divisor of the horizontal size and vertical size of the image, and the reduced image size has a fractional part in both the horizontal and vertical directions. Does not occur.

これにより、縮小処理や拡大処理における丸めによる誤差を排除することができ、縮小拡大後の画像サイズを正確に元画像に合わせることができ、ひいては、後述する合成処理の処理結果の画像品位を向上することができる。   As a result, errors due to rounding in the reduction processing and enlargement processing can be eliminated, the image size after reduction and enlargement can be accurately adjusted to the original image, and as a result, the image quality of the processing result of the synthesis processing described later is improved. can do.

ラベル値が、1の場合には、縮小処理を行わずに空間フィルタの処理(ぼかし処理)のみを行う(step03−002、003)。
空間フィルタの処理は、システム制御部02からの設定に基づき画像処理部04で実行される。
空間フィルタ処理では、下記式(4)のように入力画像(In(x,y))にフィルタ係数(k(ix,iy))を演算し、出力画像(Out(x,y))を得る。
When the label value is 1, only the spatial filter process (blurring process) is performed without performing the reduction process (steps 03-002, 003).
Spatial filter processing is executed by the image processing unit 04 based on settings from the system control unit 02.
In the spatial filter processing, the filter coefficient (k (ix, iy)) is calculated for the input image (In (x, y)) as shown in the following equation (4) to obtain the output image (Out (x, y)). .

ここで、In:入力画像、Out:出力画像、k:フィルタ係数、fs:フィルタサイズ(本実施の形態では7)、である。また上記式4において、座標の演算結果(x+ix―fs/2、及びy+iy−fs/2)は、整数に切り捨て、かつ、入力画像内を指し示す様にクリップされる。
次に、フィルタ係数の例を図12に示す。
Here, In: input image, Out: output image, k: filter coefficient, fs: filter size (7 in this embodiment). In Equation 4, the coordinate calculation results (x + ix−fs / 2 and y + iy−fs / 2) are clipped so as to be rounded down to an integer and point to the input image.
Next, an example of the filter coefficient is shown in FIG.

ラベル値が2以上の場合には、一旦画像を縮小処理した後、空間フィルタの処理(ぼかし処理)を行い、しかる後に拡大処理を行うことで元のサイズに戻す(step03−004〜006)。
拡大処理では、step03−004で行われる縮小率の逆数分の拡大処理を行い、結果、画像データのサイズは元の大きさとなる。
尚、拡大処理は、バイリニア法により、画像の画素数を増やすようにサンプリングを行う。
When the label value is 2 or more, after the image is once reduced, the spatial filter process (blurring process) is performed, and then the enlargement process is performed to restore the original size (steps 03-004 to 006).
In the enlargement process, the enlargement process corresponding to the reciprocal of the reduction ratio performed in step 03-004 is performed, and as a result, the size of the image data becomes the original size.
In the enlargement process, sampling is performed so as to increase the number of pixels of the image by the bilinear method.

これらの縮小、空間フィルタ、拡大の処理は、システム制御部02からの設定に基づき画像処理部04で実行される。また、ラベル値が0である領域とは主要被写体に対応した領域であるため、対応したぼかし処理は存在せず、ラベル値が1,2,3の場合にのみ対応したぼかし処理が存在する。即ち、前記N段に分割した場合、N−1通りの異なるぼかし処理を行うことでN−1通りの平滑化画像データを生成する。   These reduction, spatial filter, and enlargement processes are executed by the image processing unit 04 based on settings from the system control unit 02. In addition, since the area where the label value is 0 is an area corresponding to the main subject, there is no corresponding blurring process, and there is a corresponding blurring process only when the label values are 1, 2, and 3. That is, when divided into N stages, N-1 different smoothing processes are performed to generate N-1 smoothed image data.

以下、図5(A)のフローに戻り説明する。
合成処理(step01−010;合成処理工程)では、step01−008で生成したコピー画像(元の画像データ)に、step01−009でぼかし処理を施した画像(平滑化画像データ)を合成する。
合成は、ラベルデータのラベル値に基づいて行われ、ラベル値1に対応したぼかし処理を行った画像(平滑化画像データの1つ)のラベル値が1の位置の画素を、コピー画像に上書き処理する(図11(3))。
以上と同様の処理を、ラベル値2、3に対して繰り返し行う(step01−009〜011、図11(4)〜(7))ことで合成画像データを得る。
Hereinafter, the description will return to the flow of FIG.
In the synthesis process (step 01-010; synthesis process step), the image (smoothed image data) subjected to the blurring process in step 01-009 is synthesized with the copy image (original image data) generated in step 01-008.
Compositing is performed based on the label value of the label data, and the copy image is overwritten with the pixel at the position where the label value of the image (one of the smoothed image data) subjected to the blurring process corresponding to the label value 1 is 1 Process (FIG. 11 (3)).
The same processing as described above is repeated for the label values 2 and 3 (steps 01-009 to 011 and FIGS. 11 (4) to (7)) to obtain composite image data.

続いてシステム制御部02は、各ラベル値同士の境目に位置する画素に対して、空間フィルタの処理を行う(step01−012、図11(8);合成画像データ平滑化工程)。
この空間フィルタの処理(ぼかし処理)は、step03−003と同じ処理であっても良いし、図12のフィルタ係数を全て1にした様な簡略化した処理であっても良い。
この処理により、各ラベル値の異なる領域の間のつなぎ目を目立たなくする事が出来る。
最後に、以上の処理をした画像を、従来と同様に圧縮、記録して処理を完了する(step01−013)。
Subsequently, the system control unit 02 performs a spatial filter process on the pixel located at the boundary between the label values (step 01-012, FIG. 11 (8); synthesized image data smoothing step).
This spatial filter processing (blurring processing) may be the same processing as step 03-003, or may be simplified processing in which all the filter coefficients in FIG.
By this processing, the joint between the regions having different label values can be made inconspicuous.
Finally, the image subjected to the above processing is compressed and recorded in the same manner as in the prior art, and the processing is completed (step 01-013).

〔第2の実施の形態〕
次に、本発明の第2の実施の形態である、元の画像データを平滑化して平滑化画像データを(必要に応じて複数面、本実施の形態では3面)作成した後に、加重加算により元の画像データと合成する例について説明する。
[Second Embodiment]
Next, the second embodiment of the present invention, the original image data is smoothed to create smoothed image data (multiple planes as required, three planes in this embodiment), and then weighted addition An example of combining with original image data will be described.

動作フローを図5(B)に示す。本動作フローは第1の実施の形態と同様に、レリーズボタン13が押された後の、撮影時の動作を示している。尚、これ以外の動作については説明を省略する。
また、step02−001〜005の動作は、step01−001〜005の動作と同じであるため説明を省略する。
The operation flow is shown in FIG. This operation flow shows the operation at the time of shooting after the release button 13 is pressed, as in the first embodiment. Note that description of other operations is omitted.
Further, since the operation of step 02-001 to 005 is the same as the operation of step 01-001 to 005, the description thereof is omitted.

step02−006において、システム制御部02は、領域の割当(ラベリング)を行うが、第1の実施の形態とはラベルデータのフォーマットが異なる。   In step 02-006, the system control unit 02 performs area allocation (labeling), but the format of the label data is different from that of the first embodiment.

ラベルデータのフォーマットの例を図13に示す。
図13は、1画素に相当するラベルデータのビット割当を示しており、上位2ビット(bit7,bit6)は、第1の実施の形態と同じ内容のラベル値、下位6ビット(bit5〜bit0)は、後述する加重加算の係数を示している。
その他の動作(領域に重なりあった画素をカウントし、画素数の多い分割距離情報に割り当てを行う等)については、第1の実施の形態と同じであるため説明を省略する。
An example of the format of the label data is shown in FIG.
FIG. 13 shows the bit allocation of label data corresponding to one pixel, and the upper 2 bits (bit7, bit6) are the label value having the same contents as the first embodiment, and the lower 6 bits (bit5 to bit0). Indicates a coefficient of weighted addition described later.
Other operations (such as counting pixels overlapped in a region and assigning them to division distance information with a large number of pixels) are the same as those in the first embodiment, and thus the description thereof is omitted.

システム制御部02は、第1の実施の形態と同様に各領域が有するそれぞれの画素に対して分割距離情報が0の領域が割り当てられた場合にはラベル値0を、分割距離情報が1の領域が割り当てられた場合にはラベル値1を、分割距離情報が2の領域が割り当てられた場合にはラベル値2を、分割距離情報が3の領域が割り当てられた場合にはラベル値3を設定したラベルデータを作成する。これと同時に、加重加算の係数部分は、0に初期化する。   As in the first embodiment, the system control unit 02 assigns a label value of 0 when a region with division distance information of 0 is assigned to each pixel of each region, and a division distance information of 1. When an area is assigned, label value 1 is assigned. When an area with division distance information 2 is assigned, label value 2 is assigned. When an area with division distance information 3 is assigned, label value 3 is assigned. Create the set label data. At the same time, the coefficient part of the weighted addition is initialized to zero.

続けて、システム制御部02は、ラベルデータに対して空間フィルタの処理(平滑化)を行い、平滑化ラベルデータを生成する(step02−007;ラベルデータ平滑化手段)。
この処理は、step03−003と同じ処理であっても良いし、図12のフィルタ係数を全て1にしたような簡略化した処理であっても良い。
Subsequently, the system control unit 02 performs spatial filter processing (smoothing) on the label data to generate smoothed label data (step 02-007; label data smoothing means).
This processing may be the same processing as step 03-003, or may be simplified processing in which all the filter coefficients in FIG.

この処理により、上位2ビットのラベル値が加重加算部に分散され、ラベルデータをbit6とbit5の間に小数点を置いたデータとして見た場合に、1.5や、2.5といった中間値が生成されることになる。
これにより、後述する加重加算において、ラベル値が異なる各領域の間のつなぎ目を目立たなくすることができる。
By this processing, the upper 2 bits of the label value are distributed to the weighted addition unit, and when the label data is viewed as data with a decimal point between bits 6 and 5, intermediate values such as 1.5 and 2.5 are obtained. Will be generated.
Thereby, in the weighted addition mentioned later, the joint between each area | region where a label value differs can be made not conspicuous.

更にシステム制御部02は、平滑化ラベルデータの拡大を行う(step02−008;拡大工程)が、第1の実施の形態とは異なり、拡大はバイリニア法により行う。
これにより、加重加算の係数値が更に分散することになり、後述する加重加算において、ラベル値の異なる各領域の間のつなぎ目をより目立たなくすることができる。
Further, the system control unit 02 enlarges the smoothed label data (step 02-008; enlargement step). Unlike the first embodiment, the enlargement is performed by the bilinear method.
As a result, the coefficient values of the weighted addition are further dispersed, and in the weighted addition described later, the joints between regions having different label values can be made less noticeable.

以下、平滑化工程と合成処理工程について、図14を参照しながら説明する。
システム制御部02は、画像処理部04を制御し、撮影画像データ(元の画像データ)のぼかし画像である平滑化画像データを生成する。
平滑化工程については、第1の実施の形態と同じであり、ラベル値1、2、3に対して繰り返し行い(step02−009〜010)、各々別のぼかし画像(N−1の異なる平滑化画像データ;本実施の形態の場合3つ)を生成する(図14(1)〜(3))。
Hereinafter, the smoothing step and the synthesis processing step will be described with reference to FIG.
The system control unit 02 controls the image processing unit 04 to generate smoothed image data that is a blurred image of captured image data (original image data).
The smoothing process is the same as in the first embodiment, and is repeated for the label values 1, 2, and 3 (step 02-009 to 010), and each of the blurred images (N-1 different smoothing) is performed. Image data (three in the case of the present embodiment) is generated (FIGS. 14 (1) to (3)).

合成処理工程(step02−011)では、撮影画像データ(元の画像データ)とstep02−009〜010で生成した3つの平滑化画像データ(図14(1)〜(3))を合成処理する。
合成は、ラベルデータのラベル値及び加重加算の係数、即ち平滑化ラベルデータに基づき行う。
In the composition processing step (step 02-011), the photographed image data (original image data) and the three smoothed image data (FIGS. 14 (1) to (3)) generated in steps 02-009 to 010 are combined.
The synthesis is performed based on the label value of the label data and the weighted addition coefficient, that is, the smoothed label data.

ラベル値が0の場合には、撮影画像データ(元の画像データ)とラベル値1で平滑化処理を行った画像(図14(1))間で下記式(5−1)により加重加算を行う。   When the label value is 0, weighted addition is performed between the captured image data (original image data) and the image smoothed with the label value 1 (FIG. 14 (1)) by the following equation (5-1). Do.

合成画像データの画素値 = ((元の画像データの画素値 × (64 − 加重加算係数)) + (ラベル値1で平滑化処理を行った平滑化画像データの画素値 × 加重加算係数)) / 64
・・・式(5−1)
Pixel value of composite image data = ((pixel value of original image data × (64−weighted addition coefficient)) + (pixel value of smoothed image data smoothed with label value 1 × weighted addition coefficient)) / 64
... Formula (5-1)

ラベル値が1の場合には、ラベル値1で平滑化処理を行った画像(図14(1))とラベル値2で平滑化処理を行った画像(図14(2))間で下記式(5−2)により加重加算を行う。   When the label value is 1, the following expression is applied between the image smoothed with the label value 1 (FIG. 14 (1)) and the image smoothed with the label value 2 (FIG. 14 (2)). Weighted addition is performed according to (5-2).

合成画像データの画素値 = ((ラベル値1で平滑化処理を行った平滑化画像データの画素値 × (64 − 加重加算係数)) + (ラベル値2で平滑化処理を行った平滑化画像データの画素値 × 加重加算係数)) / 64
・・・式(5−2)
Pixel value of composite image data = ((pixel value of smoothed image data smoothed with label value 1 × (64−weighted addition coefficient)) + (smoothed image smoothed with label value 2) Pixel value of data × weighted addition coefficient)) / 64
... Formula (5-2)

ラベル値が2の場合には、ラベル値2で平滑化処理を行った画像(図14(2))とラベル値3で平滑化処理を行った画像(図14(3))間で下記式(5−3)により加重加算を行う。   When the label value is 2, the following expression is applied between the image smoothed with the label value 2 (FIG. 14 (2)) and the image smoothed with the label value 3 (FIG. 14 (3)). Weighted addition is performed according to (5-3).

合成画像データの画素値 = ((ラベル値2で平滑化処理を行った平滑化画像データの画素値 × (64 − 加重加算係数)) + (ラベル値3で平滑化処理を行った平滑化画像データの画素値 × 加重加算係数)) / 64
・・・式(5−3)
Pixel value of composite image data = ((pixel value of smoothed image data smoothed with label value 2 × (64−weighted addition coefficient)) + (smoothed image smoothed with label value 3) Pixel value of data × weighted addition coefficient)) / 64
... Formula (5-3)

ラベル値が3の場合には、(合成画像データの画素値 = ラベル値3で平滑化処理を行った平滑化画像データの画素値)とする。   When the label value is 3, (pixel value of composite image data = pixel value of smoothed image data smoothed with label value 3).

以上の合成処理工程により、ラベル値の異なる各領域の間のつなぎ目を目立たなくする事が出来る。
最後に、以上の処理をした画像を、従来と同様に圧縮、記録して処理を完了する(step02−012)。
By the above synthesis processing step, the joint between the regions having different label values can be made inconspicuous.
Finally, the image subjected to the above processing is compressed and recorded in the same manner as in the prior art to complete the processing (step 02-012).

以上、元の画像データを平滑化して平滑化画像データを1面作成して元の画像データと合成し、必要に応じてこれを繰り返す例(第1の実施の形態)、及び、元の画像データを平滑化して平滑化画像データを(必要に応じて複数面、本実施の形態では3面)作成した後に、加重加算により元の画像データと合成する例(第2の実施の形態)の2つの実施の形態について説明したが、これらの差異についてさらに説明する。   As described above, the original image data is smoothed, one surface of the smoothed image data is created and synthesized with the original image data, and this is repeated as necessary (first embodiment), and the original image An example (second embodiment) in which data is smoothed and smoothed image data is created (multiple planes as required, three planes in this embodiment) and then synthesized with the original image data by weighted addition. Although two embodiments have been described, these differences will be further described.

第1の実施の形態は第2の実施の形態に対して、使用するメモリを少なくすることができる。図11において、第1の実施の形態は(1)、(3)、(5)、(7)、(8)は同じメモリ領域を使用しており、また、(2)、(4)、(6)は同じメモリ領域を用いることができ、第2の実施の形態が元の画像データと同じサイズの3面のメモリ(図14(1)〜(3))を必要とするのに対し、2面のメモリ領域があれば処理することができる。   The first embodiment can use less memory than the second embodiment. In FIG. 11, in the first embodiment, (1), (3), (5), (7), (8) use the same memory area, and (2), (4), (6) can use the same memory area, whereas the second embodiment requires three-plane memories (FIGS. 14 (1) to (3)) of the same size as the original image data. If there are two memory areas, it can be processed.

一方で、第2の実施の形態は第1の実施の形態に対し、より高品位な画質を得ることができる。第1の実施の形態が合成後の画像に対してつなぎ目を空間フィルタにより補正しているのに対し、第2の実施の形態ではあらかじめつなぎ目を考慮したラベルデータを生成しているため、ラベル値の異なる各領域の間のつなぎ目をより自然に処理することができる。   On the other hand, the second embodiment can obtain higher quality image quality than the first embodiment. While the first embodiment corrects the joint for the synthesized image by a spatial filter, the second embodiment generates label data in consideration of the joint in advance. The joints between the different regions can be processed more naturally.

以上説明した第1及び第2の実施の形態のそれぞれにおいては、ラベル値に基づき、ぼかし処理の処理内容(ぼかし量)を決定する例について示したが、更に、ラベル値の元となる測距結果(図6(A))に基づいてぼかし処理の処理内容(ぼかし量)を決定するようにしても良い。その場合、システム制御部02内に、step01−003で説明した各ラベル値を決定する距離範囲に応じた、表1に相当する処理内容決定のテーブルを保持しておくことで実現できる。   In each of the first and second embodiments described above, the example of determining the processing content (blurring amount) of the blurring process based on the label value has been described, but further, the distance measurement from which the label value is based The processing content (blurring amount) of the blurring process may be determined based on the result (FIG. 6A). In that case, it can be realized by holding a processing content determination table corresponding to Table 1 in the system control unit 02 corresponding to the distance range for determining each label value described in step 01-003.

更には、利用者がぼかし強度を設定する事ができるようにしても良い。その場合、システム制御部02内に、利用者の設定したぼかし強度に応じた、表1に相当する処理内容決定のテーブルを保持しておくことで実現できる。   Further, the user may be able to set the blur intensity. In that case, it can be realized by holding a processing content determination table corresponding to Table 1 in the system control unit 02 according to the blur intensity set by the user.

次に、本発明のその他の実施の形態(第2の発明)について説明する。
本発明のその他の実施の形態にかかる画像処理装置は、画像データと、距離情報とが入力され、前記画像データにぼかし処理を行う画像処理装置であって、前記画像データを輝度及び/または色度に基づいて複数の領域に分割する領域分割手段と、前記画像データを複数のブロックに分割するブロック分割手段と、前記距離情報に基づいて前記複数のブロック毎にブロック距離を設定するブロック距離設定手段と、前記複数の領域を前記ブロック距離に基づいて判定して主要被写体領域と非主要被写体領域とに分割する主要被写体領域抽出手段と、前記複数のブロックの中で前記主要被写体領域と前記非主要被写体領域との境界線を有するブロックに対して、当該ブロック内における前記主要被写体領域中の画素には、当該画素の距離に、または前記主要被写体領域に属するブロックにおけるブロック距離に基づき、第1の補正距離を設定し、当該ブロック内における前記非主要被写体領域中の画素には、当該画素の距離に、または当該ブロックに隣接し、且つ前記非主要被写体領域に属するブロックにおけるブロック距離に基づき、第2の補正距離を設定する補正距離設定手段と、前記ブロック距離、前記第1の補正距離及び前記第2の補正距離に基づいて前記画像データにぼかし処理を行うぼかし処理手段と、を具備することを特徴とする。
また、前記複数のブロックの中で前記非主要被写体領域に属するブロックであり、且つ誤測距により適正なブロック距離が設定されていない誤測距ブロックを判定する誤測距ブロック判定手段と、前記誤測距ブロックのブロック距離を、当該誤測距ブロックの周辺のブロックであり、且つ前記非主要被写体領域に属するブロックのブロック距離により補正して、補正ブロック距離を設定する誤測距ブロック補正手段と、を具備し、前記ぼかし処理手段は、前記ブロック距離、前記第1の補正距離、前記第2の補正距離、及び前記補正ブロック距離に基づいて前記画像データにぼかし処理を行うことが好ましい。
以下、図面を参照しながら本発明のその他の実施の形態についてさらに詳細に説明する。
Next, another embodiment (second invention) of the present invention will be described.
An image processing apparatus according to another embodiment of the present invention is an image processing apparatus that receives image data and distance information and performs a blurring process on the image data, and the image data is converted into luminance and / or color. Area dividing means for dividing the image data into a plurality of areas based on the degree, block dividing means for dividing the image data into a plurality of blocks, and a block distance setting for setting the block distance for each of the plurality of blocks based on the distance information Means, a main subject region extracting means for determining the plurality of regions based on the block distance and dividing the main subject region into a main subject region and a non-main subject region, and the main subject region and the non-subject in the plurality of blocks. For a block having a boundary line with the main subject area, the pixels in the main subject area in the block are kept at the distance of the pixel. Sets a first correction distance based on a block distance in a block belonging to the main subject region, and a pixel in the non-main subject region in the block is adjacent to the pixel distance or adjacent to the block. And a correction distance setting means for setting a second correction distance based on a block distance in a block belonging to the non-main subject area, and based on the block distance, the first correction distance, and the second correction distance. And a blur processing means for performing blur processing on the image data.
In addition, an erroneous ranging block determination unit that determines an erroneous ranging block that is a block belonging to the non-main subject area among the plurality of blocks and in which an appropriate block distance is not set due to erroneous ranging, and An erroneous ranging block correction unit that corrects the block distance of the erroneous ranging block based on the block distance of a block that is a peripheral block of the erroneous ranging block and belongs to the non-main subject area, and sets a corrected block distance. Preferably, the blur processing unit performs blur processing on the image data based on the block distance, the first correction distance, the second correction distance, and the correction block distance.
Hereinafter, other embodiments of the present invention will be described in more detail with reference to the drawings.

〔その他の実施の形態1〕
図15は画像処理装置に入力される画像データのサンプル図であり、7×10のブロックに分割されている。Aはオブジェクト1、Bはオブジェクト2、Cはオブジェクト3をそれぞれ表し、ここではAが主要被写体、B及びCが非主要被写体である。
図16は図15に示すサンプル図に測距結果を重ね合わせた図である。図16中のAで表される人物のオブジェクト1の輪郭部にある輪郭部ブロックDは、Aと、B及び/またはCが重なるブロックである。換言すると、輪郭部ブロックDは、(後述する)主要被写体領域と非主要被写体領域との境界線を有するブロックである。
輪郭部ブロックDでは複数の被写体が重なっているため、輪郭部ブロックDの(後述する)ブロック距離は正確なものとならない。このため、輪郭部ブロックDにブロック距離をそのまま適用するとぼけの食い込みやぼけ抜けが発生してしまう。また、非主要被写体に属する誤測距ブロックEは、被写体の動きや輝度値が低いなどの影響により正確な測距ができず、適正なブロック距離が設定されない。
[Other Embodiment 1]
FIG. 15 is a sample diagram of image data input to the image processing apparatus, which is divided into 7 × 10 blocks. A represents object 1, B represents object 2, and C represents object 3, where A is the main subject and B and C are non-main subjects.
FIG. 16 is a diagram in which the distance measurement results are superimposed on the sample diagram shown in FIG. A contour block D in the contour of the person object 1 represented by A in FIG. 16 is a block in which A and B and / or C overlap. In other words, the contour block D is a block having a boundary line between a main subject region and a non-main subject region (described later).
Since a plurality of subjects overlap in the contour block D, the block distance (described later) of the contour block D is not accurate. For this reason, if the block distance is applied as it is to the contour block D, blurring and blurring occur. Further, the erroneous ranging block E belonging to the non-main subject cannot be accurately measured due to the influence of the subject's movement or the luminance value, and an appropriate block distance is not set.

図17は本発明にかかる画像処理装置のその他の実施の形態における構成を示すブロック図である。
本実施の形態にかかる画像処理装置は、画像入力部101、画像領域分割部102、主要被写体抽出部103、画像ぼかし処理部104、画像合成処理部105、画像出力部106、カメラパラメータ入力部107、距離情報取得部108、ぼけ関数取得部109、ぼけ関数DB110、主要被写体周辺誤測距ブロック修正部111、主要被写体以外領域の誤測距ブロック修正部112を備えている。
次に、各部について説明する。
FIG. 17 is a block diagram showing a configuration in another embodiment of the image processing apparatus according to the present invention.
An image processing apparatus according to the present embodiment includes an image input unit 101, an image region dividing unit 102, a main subject extracting unit 103, an image blur processing unit 104, an image composition processing unit 105, an image output unit 106, and a camera parameter input unit 107. A distance information acquisition unit 108, a blur function acquisition unit 109, a blur function DB 110, a main subject surrounding erroneous ranging block correction unit 111, and an erroneous ranging block correction unit 112 for an area other than the main subject.
Next, each part will be described.

(画像入力部101)
画像入力部101では、デジタルカメラなどの撮影装置、もしくはスキャナーなどの画像入力装置により画像データが入力される。
(Image input unit 101)
In the image input unit 101, image data is input by an imaging device such as a digital camera or an image input device such as a scanner.

(画像領域分割部102)
領域分割手段である画像領域分割部102では、画像処理により画像データを複数の領域に分割する。
画像のエッジ、色などの情報を利用し、画像のコントラスト、色の特性が近い画素をまとめて一つの領域にして、画像データを複数の領域に分割する。図18に示すように、色とコントラストの近い画素を集める塊、Aオブジェクト1、Bオブジェクト2、C背景の領域に分割される。
画像データの領域の分割は図18に示すように、ほぼ同じ色の領域を一つの塊として、抽出する。画像データにおいて隣り合う画素の色の差を計算して、色差がある閾値以下であれば同じ塊と判断する。もしくは、コントラストがほぼ同じの塊を一つの領域として抽出する方法であってもよい。
(Image area dividing unit 102)
An image area dividing unit 102 which is an area dividing unit divides image data into a plurality of areas by image processing.
By using information such as the edge and color of the image, pixels having similar image contrast and color characteristics are grouped into a single region, and the image data is divided into a plurality of regions. As shown in FIG. 18, it is divided into a block for collecting pixels having similar colors and contrast, A object 1, B object 2, and C background area.
As shown in FIG. 18, the image data area is divided by extracting areas of almost the same color as one lump. The difference in color between adjacent pixels in the image data is calculated. Alternatively, a method of extracting a block having substantially the same contrast as one region may be used.

図19は本発明にかかる画像処理装置のその他の実施の形態における領域分割の処理フローの例を示す図である。各工程step04−1〜5について、順に説明する。
step04−1:画像を色空間変換(YUV変換)
まず画像を色空間変換し、RGB画像をYUVに変換する。ここで、Yは画像の輝度であり、UとVは画素の色特性を現す。Uは輝度信号とB信号の差分であり、Vは輝度とR信号の差分である。
FIG. 19 is a diagram showing an example of a process flow of area division in another embodiment of the image processing apparatus according to the present invention. Each process step04-1-5 is demonstrated in order.
Step04-1: Image color space conversion (YUV conversion)
First, the image is color space converted, and the RGB image is converted to YUV. Here, Y is the luminance of the image, and U and V represent the color characteristics of the pixel. U is the difference between the luminance signal and the B signal, and V is the difference between the luminance and the R signal.

step04−2:フィルタ処理
次にY、U、Vそれぞれの成分に対してフィルタリング処理を行う。フィルタリングの処理により、ノイズ成分や急激に変化する小さい領域を平均化し、同じ特性の塊を作りやすくする。フィルタリングのフィルタについては、ノイズ除去、平滑効果が得られるものであれば良く、例えば、平滑効果があるGaussianを使っても良い。
step 04-2: Filter processing Next, filtering processing is performed on each of the Y, U, and V components. The filtering process averages noise components and small areas that change rapidly, making it easier to create a lump with the same characteristics. Any filtering filter may be used as long as noise removal and a smoothing effect can be obtained. For example, Gaussian having a smoothing effect may be used.

step04−3:領域生成
フィルタリングしたY、U、V成分では、隣り合う画素の差分がある閾値より小さければ、同じ塊と判断し、塊を生成する。このとき、Y、U、Vそれぞれに閾値を設定する。閾値の設定は実験により、予め調整し、設定しておく。それぞれの閾値は、予めメモリに保存しておく。
このようにして、特性差の少ない小領域を生成する。このとき、色成分であるU、Vの閾値で領域分割しても良いし、輝度値Yの閾値も含めてそれぞれの閾値で領域分割しても良い。
図18に示すように同じ色の塊であるオブジェクトA、オブジェクトB、背景Cが分離される。
step04-3: region generation If the difference between the adjacent Y, U, and V components is smaller than a certain threshold, it is determined that they are the same lump, and a lump is generated. At this time, threshold values are set for Y, U, and V, respectively. The threshold value is adjusted and set in advance by experiment. Each threshold value is stored in the memory in advance.
In this way, a small area with a small characteristic difference is generated. At this time, the region may be divided by the threshold values of U and V that are color components, or the region may be divided by the respective threshold values including the threshold value of the luminance value Y.
As shown in FIG. 18, an object A, an object B, and a background C that are the same color block are separated.

step04−4:微小領域削除
ノイズや孤立点の影響で、極小さい微小領域が生成される場合がある。ここで、領域面積の閾値を設けて、閾値面積より小さい微小領域を隣の領域と融合する。融合するとき隣の領域との輝度、色差が最も少ない領域と合成する。最小面積の閾値は調整でき、予め設定する。
step04-4: Deletion of micro area In some cases, an extremely small micro area may be generated due to the influence of noise or isolated points. Here, a threshold for the area of the area is provided, and a small area smaller than the threshold area is merged with the adjacent area. When merging, it is combined with the area with the least brightness and color difference with the adjacent area. The threshold for the minimum area can be adjusted and set in advance.

step04−5:領域分割結果出力
微小領域削除後、融合した領域を出力する。融合した領域は色の近いもしくはコントラストの変化が少ない融合領域である。
図18に示すように同じ色、コントラストの塊であるオブジェクトA、オブジェクトB、背景Cが分離される。
Step 04-5: Output region division result After the minute region is deleted, the fused region is output. The fused region is a fused region that is close in color or has little change in contrast.
As shown in FIG. 18, objects A, B, and background C, which are the same color and contrast mass, are separated.

(距離情報取得部108)
距離情報取得部108は、画像データを複数のブロックに分割し、複数のブロック毎に距離情報(ブロック距離)を取得する。(ブロック分割手段、ブロック距離設定手段)
尚、本実施の形態では画像データを7×10の正方形に等分割するが、複数のブロックの数や形状は任意であることは言うまでもない。
(Distance information acquisition unit 108)
The distance information acquisition unit 108 divides the image data into a plurality of blocks, and acquires distance information (block distance) for each of the plurality of blocks. (Block division means, block distance setting means)
In this embodiment, the image data is equally divided into 7 × 10 squares, but it goes without saying that the number and shape of a plurality of blocks are arbitrary.

図20に距離情報取得部108の詳細内部構成を示す。
縮小画像入力部201は複数の異なる焦点位置の画像データを入力し、カメラレンズのフォーカスを調整するレンズ焦点調整部205はレンズの焦点を調整する。
エッジ情報計算部202は入力された異なる焦点の複数枚の画像データから複数の画像ブロックに分割し、それぞれのブロックでのコントラスト値の平均値を求める。複数枚の画像データ内での同じ位置のブロックのコントラスト値を比較し、最もコントラスト値の高い画像はそのブロックに焦点があっていると判断され、その画像フレームの焦点位置から、距離情報計算部203が撮影距離(ブロック距離)を計算する。すべてのブロックでの撮影距離情報を計算すると、ブロックごとの距離情報(ブロック距離)を取得できる。距離情報出力部204は取得した距離情報(ブロック距離)を出力する。
尚、距離情報取得部はこの形態に限られるものではなく、別の距離測定センサーを使用して距離情報を取得しても良い。
FIG. 20 shows a detailed internal configuration of the distance information acquisition unit 108.
A reduced image input unit 201 inputs image data at a plurality of different focal positions, and a lens focus adjustment unit 205 that adjusts the focus of the camera lens adjusts the focus of the lens.
The edge information calculation unit 202 divides the input image data of a plurality of different focal points into a plurality of image blocks, and obtains an average value of contrast values in each block. The contrast value of the block at the same position in a plurality of image data is compared, and it is determined that the image with the highest contrast value is focused on the block. From the focal position of the image frame, the distance information calculation unit 203 calculates the shooting distance (block distance). When shooting distance information for all blocks is calculated, distance information (block distance) for each block can be acquired. The distance information output unit 204 outputs the acquired distance information (block distance).
The distance information acquisition unit is not limited to this form, and the distance information may be acquired using another distance measurement sensor.

(主要被写体抽出部103)
主要被写体抽出手段である主要被写体抽出部103は、画像領域分割部102で分割された小領域を組み合わせ、意味のあるオブジェクトを抽出する。オブジェクトは画像の前景と背景、人物を意味する。オブジェクト抽出するとき、色情報、エッジ情報、距離情報を利用できる。図15に示すようにブロック単位で距離情報が取れる場合、距離情報を参考値として、分割した小領域を組み合わせて、オブジェクトを抽出する。例えば、領域分割処理では人物の頭、体をそれぞれ、小領域とし2つの領域として分割されることもあるが、距離情報では頭領域内のブロックと体領域内ブロックの距離ほぼ同じであり、頭と体を組み合わせて、一つのオブジェクトとして抽出する。また、隣の木の距離は異なるので、別のオブジェクトとして抽出する。
(Main subject extraction unit 103)
A main subject extraction unit 103 as a main subject extraction unit combines small areas divided by the image area division unit 102 and extracts meaningful objects. An object means the foreground, background, and person of an image. When extracting an object, color information, edge information, and distance information can be used. As shown in FIG. 15, when distance information can be obtained in units of blocks, an object is extracted by combining the divided small areas using the distance information as a reference value. For example, in the area division processing, the head and body of a person may be divided into two areas, each of which is a small area. In distance information, the distance between the block in the head area and the block in the body area is approximately the same. And body are extracted as one object. Also, because the distance between adjacent trees is different, it is extracted as another object.

尚、意味のあるオブジェクトとは前景、背景を区別することを意味する。本発明では非主要被写体のぼかしを目的とするため、前景、背景区別できて、オブジェクト間の距離が分かればよい。
図18に示すようにオブジェクトA、オブジェクトB、と背景Cの距離差が分かれば、それぞれを分離できる。
画像領域分割部102によりオブジェクトの塊A、B、Cを作ったので、距離情報から、オブジェクトA、BとCの距離の違いが分かれば、それぞれに対してぼかし処理すればよい。
そのため、図面の図15に示すように、A、B、Cのそれぞれの領域に確信度の高いブロックがあれば、そのブロックを用いて、オブジェクト間の距離情報を得られる。また、距離情報が取れない部分があっても、処理は可能である。例として、各オブジェクトの中で、1つのブロックで距離情報を得らたら、オブジェクトの距離情報として使える。ほかのブロックの距離情報が取られなくでもよい。
尚、確信度の高いブロックとは、オブジェクト領域と重なるオブジェクト画素のみ持っているブロックである。図16に示すようにオブジェクトAにおけるブロックDを除いた中央部の4つブロックは確信度の高いブロックである。
A meaningful object means that the foreground and the background are distinguished. Since the present invention aims to blur non-main subjects, the foreground and background can be distinguished, and the distance between objects need only be known.
As shown in FIG. 18, if the distance difference between the object A, the object B, and the background C is known, they can be separated.
Since the object regions A, B, and C are created by the image area dividing unit 102, if the difference between the distances of the objects A, B, and C is known from the distance information, each of them may be blurred.
Therefore, as shown in FIG. 15 of the drawing, if there is a block with high certainty in each of the areas A, B, and C, distance information between objects can be obtained using the block. Further, even if there is a portion where distance information cannot be obtained, processing is possible. As an example, if distance information is obtained in one block in each object, it can be used as object distance information. The distance information of other blocks may not be taken.
A block with a high certainty factor is a block having only object pixels overlapping the object area. As shown in FIG. 16, the four blocks in the central portion excluding the block D in the object A are blocks with high certainty.

次に、主要被写体抽出方法について説明する。カメラパラメータ入力部107から撮影のフォーカス位置を入力する。カメラのフォーカス位置は主要被写体にフォーカスするので、フォーカス位置と同じ距離のオブジェクトは主要被写体となる。例えば図18に示すオブジェクトAの人物にフォーカス位置になると、同じ距離の人物は主要被写体になる。そして、主要被写体が属する領域を主要被写体領域、属しない領域を非主要被写体領域とする。
図21に示すように顔検知を行う場合、顔領域が含まれるオブジェクトが主要被写体となる。また、複数顔が検知されたときは、主要顔領域が含まれるオブジェクトが主要被写体となる。顔位置はカメラパラメータとして、カメラパラメータ入力部107を介してカメラ等から入力される。
尚、主要顔領域とは、顔検出で検出された矩形顔領域である。図21で、オブジェクトAの顔領域に重なる黒い矩形枠領域は主要顔領域である。
Next, the main subject extraction method will be described. A shooting focus position is input from the camera parameter input unit 107. Since the focus position of the camera focuses on the main subject, an object having the same distance as the focus position becomes the main subject. For example, when the focus position is on the person of the object A shown in FIG. 18, the person at the same distance becomes the main subject. A region to which the main subject belongs is set as a main subject region, and a region to which the main subject does not belong is set as a non-main subject region.
As shown in FIG. 21, when face detection is performed, an object including a face area is a main subject. When a plurality of faces are detected, an object including the main face area becomes the main subject. The face position is input as a camera parameter from the camera or the like via the camera parameter input unit 107.
The main face area is a rectangular face area detected by face detection. In FIG. 21, a black rectangular frame region overlapping the face region of the object A is a main face region.

(主要被写体周辺誤測距ブロック修正部111)
補正距離設定手段である主要被写体周辺誤測距ブロック修正部111は、主要被写体抽出部103で抽出された主要被写体の領域情報(主要被写体領域)を用いて、カメラなどから得られた距離情報を補正処理する。即ち、複数のブロックの中で主要被写体領域と非主要被写体領域との境界線を有するブロックに対して、得られたブロック距離に換えて新たな距離を設定する。
(Main subject peripheral erroneous ranging block correction unit 111)
The main subject peripheral erroneous ranging block correction unit 111 serving as a correction distance setting unit uses the main subject region information (main subject region) extracted by the main subject extraction unit 103 to obtain distance information obtained from a camera or the like. Perform correction processing. That is, a new distance is set instead of the obtained block distance for a block having a boundary line between the main subject region and the non-main subject region among the plurality of blocks.

図16に示すように人物主要オブジェクトの周辺にある輪郭部ブロックDは正確なブロック距離が設定されていない。例えば、これらのブロックの半分を主要被写体領域が占め、残りの半分を背景領域が占めるため、ブロック内のコントラストの平均値を取ると、正確なブロック距離とならない。このため、輪郭部ブロックDでは、主要被写体領域中の画素は主要被写体の距離をこれらの画素の距離(第1の補正距離)とする。残りのブロック内の画素(非主要被写体領域中の画素)は非主要被写体領域に属する隣のブロックの距離で画素の距離(第2の補正距離)を設定する。このように補正して、主要被写体へのぼけ食い込みを解消できる。   As shown in FIG. 16, an accurate block distance is not set for the contour block D around the person main object. For example, since the main subject area occupies half of these blocks and the background half occupies the other half, taking an average value of the contrast in the block does not provide an accurate block distance. For this reason, in the contour block D, the pixels in the main subject region have the distance of the main subject as the distance between these pixels (first correction distance). For the pixels in the remaining blocks (pixels in the non-main subject region), the pixel distance (second correction distance) is set by the distance between adjacent blocks belonging to the non-main subject region. By correcting in this way, blurring into the main subject can be eliminated.

尚、図16に示すように主要被写体領域であるAオブジェクト1の中心部にあるブロック(主要被写体領域の中で輪郭部ブロックDを除いたブロック)のすべてブロックを平均して、オブジェクト1の距離、即ち主要被写体の距離とする。こうすることで、主要被写体領域の全ての画素に同一の距離が設定されることとなる。ただし、主要被写体領域に属するブロックがいずれも輪郭部ブロックDであるような場合には、当該輪郭部ブロックDに含まれる主要被写体領域中の画素に基づき距離(第1の補正距離)を設定する。   In addition, as shown in FIG. 16, the distance of the object 1 is obtained by averaging all the blocks in the central portion of the object A that is the main subject area (blocks excluding the contour block D in the main subject area). That is, the distance of the main subject. In this way, the same distance is set for all the pixels in the main subject area. However, when all the blocks belonging to the main subject region are the contour block D, the distance (first correction distance) is set based on the pixels in the main subject region included in the contour block D. .

輪郭部ブロックDにおける非主要被写体領域中の画素に設定する距離は、非主要被写体領域に属する隣のブロックの距離で画素の距離(第2の補正距離)を設定するが、隣接するブロックに非主要被写体領域に属するものがない場合は、当該輪郭部ブロックDに含まれる非主要被写体領域中の画素に基づき距離(第2の補正距離)を設定する。   The distance set for the pixels in the non-main subject area in the contour block D is the distance of the adjacent block belonging to the non-main subject area (second correction distance). If nothing belongs to the main subject area, the distance (second correction distance) is set based on the pixels in the non-main subject area included in the contour block D.

(主要被写体以外の領域の誤測距ブロック修正部112)
次に非主要被写体領域にある誤測距ブロックEを除去する。図16のC背景領域にある誤測距ブロックEは、周りの適正なブロック距離が設定されたブロックに比べて、距離差が急に増える傾向がある。この場合、周りのブロックの距離値で補間処理し、誤測距ブロックEの距離値(ブロック距離)を補正ブロック距離に置き換える。(誤測距ブロック補正手段)
(Error ranging block correction unit 112 for areas other than the main subject)
Next, the erroneous ranging block E in the non-main subject area is removed. In the erroneous ranging block E in the background area C in FIG. 16, the distance difference tends to increase abruptly as compared to the surrounding blocks in which appropriate block distances are set. In this case, interpolation processing is performed using the distance values of the surrounding blocks, and the distance value (block distance) of the erroneous ranging block E is replaced with the corrected block distance. (Error ranging block correction means)

具体例を挙げると、例えば図22に示すように、主要被写体以外の領域(非主要被写体領域)に存在する誤測距ブロックEの特性として、周囲のブロックとの距離情報(ブロック距離)の違いがあげられる。その違いを利用して、誤測距ブロックEを検出する。
図23に示すように、誤測距ブロックEは周辺のブロックF,G,H,Iそれぞれのブロックとのブロック距離の差を判定し、設定された閾値Thre1より大きい場合、誤測距ブロックと判断する。
誤測距ブロックEが誤測距であると判断された場合、周辺のブロックF,G,H,Iにより補間し、誤測距ブロックEのブロック距離を補正ブロック距離に置き換える。
補間には例えば、下記式(6)で画素補間する方法が挙げられる。尚、下記式(6)でなくでも、周辺のブロックを用いて他の補間方式により求めてもよい。
As a specific example, for example, as shown in FIG. 22, the difference in distance information (block distance) from surrounding blocks as a characteristic of the erroneous ranging block E existing in a region other than the main subject (non-main subject region). Is given. Using the difference, the erroneous ranging block E is detected.
As shown in FIG. 23, the erroneous ranging block E determines the difference of the block distances from the surrounding blocks F, G, H, and I, and if it is larger than the set threshold Thre1, to decide.
When it is determined that the erroneous ranging block E is an erroneous ranging, interpolation is performed using the surrounding blocks F, G, H, and I, and the block distance of the erroneous ranging block E is replaced with the corrected block distance.
As the interpolation, for example, a method of performing pixel interpolation by the following equation (6) can be mentioned. Instead of the following equation (6), it may be obtained by other interpolation methods using surrounding blocks.

(画像ぼかし処理部104)
以上のようにして取得されたブロック距離、第1補正距離、第2補正距離、及び補正ブロック距離に基づき、ぼかし処理手段により画像データにぼかし処理を行う。非主要画像データである背景にぼかし処理を行うとき、距離に応じて異なるぼかし処理を行う。ぼけ関数取得部109はカメラパラメータと撮影距離によりぼけ関数DB110からぼけ関数のデータを取得する。ぼかし処理を行うときには、ぼけ関数取得部109から得られたぼけ関数を用いて、抽出したオブジェクトごとにぼかし処理を行う。ぼけ関数は一種のローパースフィルタであり、撮影距離、カメラパラメータによって予め計算しておく。図24は5×5のGaussianフィルタの一例である。ぼけ関数であるフィルタの各要素は、撮影距離、カメラパラメータにより計算したものである。
(Image blur processing unit 104)
Based on the block distance, the first correction distance, the second correction distance, and the correction block distance acquired as described above, the blur processing unit performs blur processing on the image data. When performing blur processing on the background that is non-main image data, different blur processing is performed according to the distance. The blur function acquisition unit 109 acquires blur function data from the blur function DB 110 based on the camera parameters and the shooting distance. When performing blur processing, blur processing is performed for each extracted object using the blur function obtained from the blur function acquisition unit 109. The blur function is a kind of low-pass filter, which is calculated in advance according to the shooting distance and camera parameters. FIG. 24 shows an example of a 5 × 5 Gaussian filter. Each element of the filter, which is a blur function, is calculated based on the shooting distance and camera parameters.

(ぼけ関数DB110)
ぼけ関数DB110はカメラのパラメータ、例えば、焦点距離、開口の大きさ、撮影距離、瞳形状などの各種のカメラパラメータの設計値から計算した、ぼけ関数のデータセットである。パラメータを入力すれば、撮影距離にあわせて、ぼけ関数のデータを得られる。
ぼかし関数DBのデータ構造を図25に示すように、焦点距離L、Fナンバーの値、開口の形によって、ぼかし関数フィルタfの内容が変わる。fはN×Nのフィルタである。各要素の値はカメラのパラメータ、撮影距離によって、変化する。カメラレンズの設計値から予め、ぼかしデータベースのデータを計算しておく。
(Blur function DB110)
The blur function DB 110 is a data set of blur functions calculated from design values of various camera parameters such as camera parameters, for example, focal length, aperture size, shooting distance, and pupil shape. If parameters are input, blur function data can be obtained according to the shooting distance.
As shown in FIG. 25, the data structure of the blurring function DB changes the content of the blurring function filter f depending on the focal length L, the F number value, and the shape of the aperture. f is an N × N filter. The value of each element varies depending on camera parameters and shooting distance. The blur database data is calculated in advance from the design value of the camera lens.

(画像合成部105、画像処理出力部106)
最後に、画像合成部105でぼかし処理された各オブジェクトを合成し、画像処理出力部106により画像を出力する。
(Image composition unit 105, image processing output unit 106)
Finally, the objects subjected to the blurring process by the image composition unit 105 are synthesized, and the image processing output unit 106 outputs an image.

(デジタルカメラ)
次に、上述した画像処理を実施する撮像装置の一例であるデジタルカメラのハードウェア構成について説明する。図26は、本実施の形態にかかるデジタルカメラのハードウェア構成を示すブロック図である。尚、以下に示す一連の処理の流れを図27に示す。
図26に示すように被写体光は、まず撮影光学系1を通してCCD(Charge Coupled Device)3に入射される。また、撮影光学系1とCCD3との間は、メカシャッタ2が配置されており、このメカシャッタ2によりCCD3への入射光を遮断することが出来る。なお、撮影光学系1及びメカシャッタ2は、モータドライバ6より駆動される。
(Digital camera)
Next, a hardware configuration of a digital camera that is an example of an imaging apparatus that performs the above-described image processing will be described. FIG. 26 is a block diagram showing a hardware configuration of the digital camera according to the present embodiment. A flow of a series of processes shown below is shown in FIG.
As shown in FIG. 26, the subject light first enters a CCD (Charge Coupled Device) 3 through the photographing optical system 1. A mechanical shutter 2 is disposed between the photographing optical system 1 and the CCD 3, and incident light on the CCD 3 can be blocked by the mechanical shutter 2. The photographing optical system 1 and the mechanical shutter 2 are driven by a motor driver 6.

CCD3は、撮像面に結像された光学像を電気信号に変換して、アナログの画像データとして出力する。CCD3から出力された画像情報は、CDS(Correlated Double Sampling:相関2重サンプリング)回路4によりノイズ成分を除去され、A/D変換器5によりデジタル値に変換された後、画像処理回路8に対して出力される。   The CCD 3 converts an optical image formed on the imaging surface into an electrical signal and outputs it as analog image data. The image information output from the CCD 3 is subjected to removal of noise components by a CDS (Correlated Double Sampling) circuit 4 and converted to a digital value by an A / D converter 5, and then to an image processing circuit 8. Is output.

画像処理回路8は、画像データを一時格納するSDRAM(SynchronousDRAM)12を用いて、YCrCb変換処理や、ホワイトバランス制御処理、コントラスト補正処理、エッジ強調処理、色変換処理などの各種画像処理を行う。なお、ホワイトバランス処理は、画像情報の色濃さを調整し、コントラスト補正処理は、画像情報のコントラストを調整する画像処理である。エッジ強調処理は、画像情報のシャープネスを調整し、色変換処理は、画像情報の色合いを調整する画像処理である。また、画像処理回路8は、信号処理や画像処理が施された画像情報を液晶ディスプレイ16(以下、「LCD16」と略記する)に表示する。   The image processing circuit 8 performs various image processing such as YCrCb conversion processing, white balance control processing, contrast correction processing, edge enhancement processing, and color conversion processing using an SDRAM (Synchronous DRAM) 12 that temporarily stores image data. The white balance process is an image process that adjusts the color density of image information, and the contrast correction process is an image process that adjusts the contrast of image information. The edge enhancement process adjusts the sharpness of image information, and the color conversion process is an image process that adjusts the hue of image information. The image processing circuit 8 displays the image information subjected to signal processing and image processing on a liquid crystal display 16 (hereinafter abbreviated as “LCD 16”).

また、信号処理、画像処理が施された画像情報は、圧縮伸張回路13を介して、メモリカード14に記録される。上記画像圧縮伸張回路13は、操作部15から取得した指示によって、画像処理回路8から出力される画像情報を圧縮してメモリカード14に出力すると共に、メモリカード14から読み出した画像情報を伸張して画像処理回路8に出力する回路である。   The image information subjected to the signal processing and the image processing is recorded in the memory card 14 via the compression / decompression circuit 13. The image compression / decompression circuit 13 compresses the image information output from the image processing circuit 8 according to the instruction acquired from the operation unit 15 and outputs the compressed image information to the memory card 14 and also decompresses the image information read from the memory card 14. This is a circuit for outputting to the image processing circuit 8.

また、CCD3、CDS回路4及びA/D変換器5は、タイミング信号を発生するタイミング信号発生器7を介してCPU(Central Processing Unit)9によって、タイミングが制御されている。さらに、画像処理回路8、画像圧縮伸張回路13、メモリカード14も、CPU9によって制御されている。   The timing of the CCD 3, the CDS circuit 4, and the A / D converter 5 is controlled by a CPU (Central Processing Unit) 9 via a timing signal generator 7 that generates a timing signal. Further, the image processing circuit 8, the image compression / decompression circuit 13, and the memory card 14 are also controlled by the CPU 9.

撮像装置において、CPU9はプログラムに従って各種演算処理を行い、プログラムなどを格納した読み出し専用メモリであるROM(Read Only Memory)11および各種の処理過程で利用するワークエリア、各種データ格納エリアなどを有する読み出し書き込み自在のメモリであるRAM(Random Access Memory)10などを内蔵し、これらがバスラインによって相互接続されている。   In the imaging apparatus, the CPU 9 performs various arithmetic processes in accordance with a program, and has a ROM (Read Only Memory) 11 that is a read-only memory storing the program, a work area used in various processes, and various data storage areas. A RAM (Random Access Memory) 10 that is a writable memory is built in, and these are interconnected by a bus line.

撮像装置は、まず被写体の距離情報を測定する。レンズの駆動部6を動かしながら、焦点位置を変え、複数枚の縮小画像を入力する。つまり、異なる撮影距離の複数枚縮小画像がメモリSDRAMに入力される。その後本撮影を行い、背景ぼけ処理用の大きいサイズの画像を入力する。   The imaging apparatus first measures distance information of the subject. While moving the lens drive unit 6, the focal position is changed and a plurality of reduced images are input. That is, a plurality of reduced images having different shooting distances are input to the memory SDRAM. After that, the main photographing is performed, and a large size image for background blur processing is input.

次に、距離測定プログラムが呼び出され、各画像をブロックに分割し、同じ位置ブロック内のコントラスト値の合計を計算する。もっともコントラストの高いブロックはこの位置にフォーカスがあっていると判断し、それフレームの結像位置とする。結像位置から、被写体距離を計算する。このようにして、すべてのブロックに対応する撮影距離(ブロック距離)を測定した。   Next, the distance measurement program is called to divide each image into blocks and calculate the sum of contrast values in the same position block. The block with the highest contrast is determined to be in focus at this position, and is set as the image forming position of the frame. The subject distance is calculated from the imaging position. In this way, the photographing distance (block distance) corresponding to all blocks was measured.

次に領域分割、オブジェクト抽出プログラムがメモリから呼び出され、オブジェクト抽出処理を行う。まず、画像のエッジ情報、色情報を使って、画像を小領域に分割する。次に、小領域をまとめて、オブジェクトを抽出する。オブジェクトを抽出するとき、色の特性、エッジの特性から共通の属性がある小領域を集める。また、測定した距離情報も領域の融合情報として利用する。距離の近い小領域は同じグループにして、オブジェクト候補とする。このようにして、画像を複数のオブジェクトに分離する。ここで、オブジェクトは人物、前景、背景など意味のある領域である。それぞれの領域での撮影距離は異なる。図15に示すように、画像がブロックに分割されてなり、各ブロック内では先ほど距離測定ソフトウェアでそれぞれの距離が測定されている。
画像はAオブジェクト1、Bオブジェクト2および背景Cに分割され、前述したように、A,B,Cの距離はそれぞれのオブジェクト内に属するブロックから得られる。
Next, an area division / object extraction program is called from the memory to perform object extraction processing. First, an image is divided into small areas using edge information and color information of the image. Next, the objects are extracted by grouping the small areas. When extracting an object, small areas having common attributes are collected from color characteristics and edge characteristics. The measured distance information is also used as region fusion information. Small areas with a short distance are grouped together as object candidates. In this way, the image is separated into a plurality of objects. Here, the object is a meaningful area such as a person, foreground, or background. The shooting distance in each area is different. As shown in FIG. 15, the image is divided into blocks, and each distance is measured by the distance measurement software earlier in each block.
The image is divided into an A object 1, a B object 2, and a background C. As described above, the distances A, B, and C are obtained from blocks belonging to the respective objects.

次にカメラパラメータによる主要被写体を抽出する。主要被写体を抽出するとき、カメラのフォーカスに合わせた部分の距離による主要被写体を抽出する。もしくは、人物撮影するとき、顔領域検出による検出した主要顔領域により、主要被写体を決める。
更に、主要被写体領域と非主要被写体領域の境界線の属する輪郭部ブロックDと、背景にある誤測距ブロックEとを削除し、距離情報を補正処理する。
そして、補正処理した距離情報により、オブジェクトA,B,Cのぼかし関数を求める。オブジェクトAは主要被写体と判断された場合、Aに対してぼかし処理を行わない。
Next, a main subject is extracted based on camera parameters. When the main subject is extracted, the main subject is extracted according to the distance of the portion matched with the focus of the camera. Alternatively, when photographing a person, the main subject is determined based on the main face area detected by the face area detection.
Further, the contour block D to which the boundary line between the main subject region and the non-main subject region and the erroneous ranging block E in the background are deleted, and the distance information is corrected.
Then, blurring functions of the objects A, B, and C are obtained based on the corrected distance information. When the object A is determined to be the main subject, the blurring process is not performed on A.

オブジェクトBとオブジェクトCの距離は異なる。遠いものに対して強いローパースフィルタをかける、即ち、強くぼかす。ぼかす効果は、入力したカメラパラメータと同じカメラのぼけを再生する。例えば、一眼レフのパラメータを入力すると、その一眼レフカメラと同じ背景ぼけのある画像が作成される。   The distance between object B and object C is different. Apply a strong low-pass filter to distant objects, that is, blur it strongly. The blur effect reproduces the same camera blur as the input camera parameters. For example, when a single lens reflex parameter is input, an image with the same background blur as that single lens reflex camera is created.

本実施の形態のデジタルカメラで実行される画像処理プログラムは、上述した背景ぼかし機能を含むモジュール構成となっており、実際のハードウェアとしてはCPU(プロセッサ)が記憶媒体から画像処理プログラムを読み出して実行することにより各部が主記憶装置上にロードされ、距離測定、領域分割オブジェクト抽出、ぼかし処理、画像合成、画像を圧縮して、メモリカードに画像が生成されるようになっている。   The image processing program executed by the digital camera according to the present embodiment has a module configuration including the above-described background blurring function. As actual hardware, a CPU (processor) reads an image processing program from a storage medium. By executing, each unit is loaded on the main storage device, and distance measurement, area division object extraction, blurring processing, image composition, image compression are performed, and an image is generated on the memory card.

(その他の実施の形態2)
その他の実施の形態2にかかる画像処理装置は、撮像装置に代えて画像処理装置を用いる例である。ここでは、上述のその他の実施の形態1と異なる部分について説明する。
(Other embodiment 2)
Another image processing apparatus according to the second embodiment is an example in which an image processing apparatus is used instead of the imaging apparatus. Here, parts different from those of the first embodiment will be described.

本実施の形態では記録した画像ファイルを撮影装置から画像入力部により入力する。この入力した画像データに対して、背景(非主要被写体)をぼかす処理を行う。
図28は、本実施の形態にかかる画像処理装置のハードウェア構成を示すブロック図である。尚、本実施の形態の一連の処理の流れを図29に示す。
画像処理装置1000は、各部を集中的に制御するCPU(Central Processing Unit)24を備えており、このCPU24には、BIOSなどを記憶した読出し専用メモリであるROM(Read Only Memory)22と、各種データを書換え可能に記憶してCPUの作業エリアとして機能するRAM(Random Access Memory)21とがバスで接続されており、マイクロコンピュータを構成している。さらにバスには、制御プログラムが記憶されたHDD25と、CD(Compact Disc)−ROMを読み取るCD−ROMドライブ26と、プリンタ部等との通信を司るインタフェースであるI/F23とが接続されている。
In the present embodiment, the recorded image file is input from the imaging device by the image input unit. A process of blurring the background (non-main subject) is performed on the input image data.
FIG. 28 is a block diagram showing a hardware configuration of the image processing apparatus according to the present embodiment. FIG. 29 shows a flow of a series of processes according to the present embodiment.
The image processing apparatus 1000 includes a CPU (Central Processing Unit) 24 that centrally controls each unit. The CPU 24 includes a ROM (Read Only Memory) 22 that is a read-only memory that stores a BIOS and the like. A RAM (Random Access Memory) 21 that stores data so as to be rewritable and functions as a work area of the CPU is connected by a bus to constitute a microcomputer. Further, an HDD 25 in which a control program is stored, a CD-ROM drive 26 that reads a CD (Compact Disc) -ROM, and an I / F 23 that is an interface that manages communication with a printer unit and the like are connected to the bus. .

図28に示すCD−ROM28は、所定の制御プログラムが記憶されている。CPU24は、CD−ROM28に記憶されている制御プログラムをCD−ROMドライブ26で読み取り、HDD25にインストールする。これにより、上述したような各種の処理を行うことが可能な状態となる。また、メモリカード29には、画像情報などが格納され、メモリカードドライバ27で読み取られる。   A CD-ROM 28 shown in FIG. 28 stores a predetermined control program. The CPU 24 reads the control program stored in the CD-ROM 28 with the CD-ROM drive 26 and installs it in the HDD 25. Thereby, it will be in the state which can perform various processes as mentioned above. The memory card 29 stores image information and the like and is read by the memory card driver 27.

なお、記憶媒体としては、CD−ROMやメモリカードのみならず、DVDなどの各種の光ディスク、各種光磁気ディスク、フレキシブルディスクなどの各種磁気ディスク、半導体メモリ等、各種方式のメディアを用いることができる。また、インターネットなどのネットワークからプログラムをダウンロードし、HDD25にインストールするようにしてもよい。この場合に、送信側のサーバでプログラムを記憶している記憶装置も、記憶媒体である。なお、プログラムは、所定のOS(Operating System)上で動作するものであってもよいし、その場合に各種処理の一部の実行をOSに肩代わりさせるものであってもよいし、ワープロソフトなど所定のアプリケーションソフトやOSなどを構成する一群のプログラムファイルの一部として含まれているものであってもよい。   As a storage medium, not only a CD-ROM and a memory card but also various types of media such as various optical disks such as DVDs, various magnetic disks such as various magneto-optical disks and flexible disks, and semiconductor memories can be used. . Alternatively, the program may be downloaded from a network such as the Internet and installed in the HDD 25. In this case, the storage device that stores the program in the server on the transmission side is also a storage medium. Note that the program may operate on a predetermined OS (Operating System), in which case the OS may execute a part of various processes, or a word processor software, etc. It may be included as part of a group of program files that constitute predetermined application software, OS, or the like.

また、本実施の形態の画像処理装置で実行される背景ぼかしプログラムを、インターネット等のネットワークに接続されたコンピュータ上に格納し、ネットワーク経由でダウンロードさせることにより提供するように構成してもよい。また、本実施の形態の画像処理装置で実行される画像処理プログラムをインターネット等のネットワーク経由で提供または配布するように構成してもよい。   The background blurring program executed by the image processing apparatus according to the present embodiment may be stored on a computer connected to a network such as the Internet and provided by being downloaded via the network. Further, the image processing program executed by the image processing apparatus of the present embodiment may be provided or distributed via a network such as the Internet.

また、本実施の形態の画像処理プログラムを、ROM等に予め組み込んで提供するように構成してもよい。   Further, the image processing program according to the present embodiment may be provided by being incorporated in advance in a ROM or the like.

本実施の形態は、撮影する際(画像を記録する時)に距離測定が必要であり、測定した各ブロックの距離情報が画像ファイルに記録される。カメラのパラメータはファイルに記録される。パラメータとして、フォーカス位置の距離情報、顔検知されるとき、主要顔の画面上の位置情報が記録される。
背景ぼかし処理プログラムは距離情報を読み出し、カメラパラメータを用いて、ぼかしデータベースからぼかしフィルタの値を引き出し、ぼかし処理を行う。処理方法は上述したその他の実施の形態1と同じである。
In this embodiment, distance measurement is required when shooting (when an image is recorded), and the measured distance information of each block is recorded in an image file. Camera parameters are recorded in a file. As parameters, the distance information of the focus position and the position information of the main face on the screen when the face is detected are recorded.
The background blur processing program reads the distance information, uses the camera parameters, extracts the blur filter value from the blur database, and performs the blur processing. The processing method is the same as in the first embodiment described above.

本実施の形態の画像処理装置で実行される画像処理プログラムは、インストール可能な形式又は実行可能な形式のファイルでCD−ROM、フレキシブルディスク(FD)、CD−R、DVD(Digital Versatile Disk)等のコンピュータで読み取り可能な記録媒体に記録されて提供される。   An image processing program executed by the image processing apparatus according to the present embodiment is a file in an installable or executable format, such as a CD-ROM, a flexible disk (FD), a CD-R, a DVD (Digital Versatile Disk), or the like. And recorded on a computer-readable recording medium.

(図1〜図14の符号の説明)
01 デジタルスチルカメラ装置
02 システム制御部
03 撮像部
04 画像処理部
05 表示制御部
06 LCD
07 記録メディアインターフェイス部
08 記録メディア
09 ハードキーインターフェイス部
10 通信インターフェイス部
11 PC
12 モードダイヤル
13 レリーズ
14 CCD
15 レンズ
62 レリーズシャッタ(SW1)
63 モードダイヤル(SW2)
64 サブLCD
65 SDカード/電池蓋
66 ストロボ発光部
67 光学ファインダ
69 リモコン受光部
70 鏡胴ユニット
71 AFLED
72 ストロボLED
73ズームスイッチ(ワイド)(SW3)
74 ズームスイッチ(遠隔)(SW4)
75 セルフタイマ/削除スイッチ(SW5)
76 メニュースイッチ(SW6)
77 上/ストロボスイッチ(SW7)
78 右スイッチ(SW8)
79 ディスプレイスイッチ(SW9)
80 下/ストロボスイッチ(SW10)
81 左/画像確認スイッチ(SW11)
82 オーケースイッチ(SW12)
83 LCDモニタ
84 電源スイッチ(SW13)
100 画像の撮影領域
101 AF評価値エリア
102 空部分
103 縁石部分
104 人物
105 町並み
106 海
107 AFエリア
108〜113 領域
700 分割距離情報が0(1段目)のAF評価値エリア
701 分割距離情報が1(2段目)のAF評価値エリア
702 分割距離情報が2(3段目)のAF評価値エリア
703 分割距離情報が3(4段目)のAF評価値エリア
704 領域判定結果で示される1つの領域
705 画素
901 遠距離にある被写体のスキャンに伴うAF評価値の変化を示した波形
902 中距離にある被写体のスキャンに伴うAF評価値の変化を示した波形
903 近距離にある被写体のスキャンに伴うAF評価値の変化を示した波形
1001 注目画素の水平方向−2の座標の画素
1002 注目画素の水平方向−1の座標の画素
1003 注目画素
1004 注目画素の水平方向+1の座標の画素
1005 注目画素の水平方向+2の座標の画素
1101 背景の空部分102までの距離
1102 背景の縁石部分103までの距離
1103 人物104の頭部までの距離
1104 人物104の顔部までの距離
1105 人物104の胸部までの距離
1108 背景の町並み105と海106までの距離
(図15〜図29の符号の説明)
A オブジェクト1
B オブジェクト2
C 背景
D 輪郭部ブロック
E 誤測距ブロック
F,G,H,I 周辺のブロック
1 撮影光学系
2 メカシャッタ
3 CCD
4 CDS回路
5 A/D変換器
6 モータドライバ
7 タイミング信号発生器
8 画像処理回路
9 CPU
10 RAM
11 ROM
12 SDRAM
13 画像圧縮伸張回路
14 メモリ
15 操作部
16 LCD
21 RAM(Random Access Memory)
22 ROM(Read Only Memory)
23 I/F
24 CPU(Central Processing Unit)
25 HDD
26 CD−ROMドライブ
27 メモリカードドライバ
28 CD−ROM
29 メモリカード
101 画像入力部
102 画像領域分割部
103 主要被写体抽出部
104 画像ぼかし処理部
105 画像合成処理部
106 画像出力部
107 カメラパラメータ入力部
108 距離情報取得部
109 ぼけ関数取得部
110 ぼけ関数DB
111 主要被写体周辺誤測距ブロック修正部
112 主要被写体以外領域の誤測距ブロック修正部
201 縮小画像入力部
202 エッジ情報計算部
203 距離情報計算部
204 距離情報出力部
205 レンズ焦点調整部
1000 画像処理装置
(Explanation of symbols in FIGS. 1 to 14)
01 Digital still camera device 02 System control unit 03 Imaging unit 04 Image processing unit 05 Display control unit 06 LCD
07 Recording media interface unit 08 Recording media 09 Hard key interface unit 10 Communication interface unit 11 PC
12 Mode dial 13 Release 14 CCD
15 Lens 62 Release shutter (SW1)
63 Mode dial (SW2)
64 Sub LCD
65 SD card / battery cover 66 Strobe light emitting unit 67 Optical viewfinder 69 Remote control light receiving unit 70 Lens barrel unit 71 AFLED
72 Strobe LED
73 Zoom switch (Wide) (SW3)
74 Zoom switch (remote) (SW4)
75 Self-timer / deletion switch (SW5)
76 Menu switch (SW6)
77 Up / Strobe switch (SW7)
78 Right switch (SW8)
79 Display switch (SW9)
80 Down / Strobe switch (SW10)
81 Left / image confirmation switch (SW11)
82 OK switch (SW12)
83 LCD monitor 84 Power switch (SW13)
100 Image shooting area 101 AF evaluation value area 102 Sky part 103 Curb part 104 Person 105 Townscape 106 Sea 107 AF area 108-113 area 700 AF evaluation value area 701 with division distance information 0 (first stage) AF evaluation value area 702 with 1 (second stage) AF evaluation value area 703 with division distance information of 2 (third stage) AF evaluation value area 704 with division distance information of 3 (fourth stage) One region 705 Pixel 901 Waveform 902 showing a change in AF evaluation value accompanying a scan of a subject at a long distance Waveform 903 showing a change in AF evaluation value accompanying a scan of a subject at a middle distance 903 of a subject at a short distance Waveform 1001 showing a change in AF evaluation value accompanying scanning 1001 Pixel 1002 in the horizontal direction of the target pixel Horizontal direction of the target pixel Pixel 1 of coordinate 1003 Pixel of interest 1004 Pixel of horizontal coordinate of pixel of interest +1 Pixel 1005 of horizontal coordinate of pixel of interest 1102 Pixel of pixel of horizontal direction +2 of coordinate 1101 Distance to sky portion 102 of background 1102 Distance to curb portion 103 of background 1103 104 Distance to the head 1104 Distance to the face of the person 104 1105 Distance to the chest of the person 104 Distance to the townscape 105 and the sea 106 in the background (description of symbols in FIGS. 15 to 29)
A Object 1
B Object 2
C Background D Contour Block E False Distance Measuring Blocks F, G, H, I Surrounding Block 1 Imaging Optical System 2 Mechanical Shutter 3 CCD
4 CDS circuit 5 A / D converter 6 Motor driver 7 Timing signal generator 8 Image processing circuit 9 CPU
10 RAM
11 ROM
12 SDRAM
13 Image Compression / Expansion Circuit 14 Memory 15 Operation Unit 16 LCD
21 RAM (Random Access Memory)
22 ROM (Read Only Memory)
23 I / F
24 CPU (Central Processing Unit)
25 HDD
26 CD-ROM drive 27 Memory card driver 28 CD-ROM
29 memory card 101 image input unit 102 image region dividing unit 103 main subject extraction unit 104 image blurring processing unit 105 image composition processing unit 106 image output unit 107 camera parameter input unit 108 distance information acquisition unit 109 blur function acquisition unit 110 blur function DB
111 Main subject peripheral erroneous ranging block correction unit 112 False ranging block correction unit 201 for areas other than the main subject Reduced image input unit 202 Edge information calculation unit 203 Distance information calculation unit 204 Distance information output unit 205 Lens focus adjustment unit 1000 Image processing apparatus

特開平11−266388号公報JP-A-11-266388 特開2003−37767号公報JP 2003-37767 A 特開2003−101858号公報JP 2003-101858 A 特開平9−318870号公報JP 9-318870 A 特開2009−27298号公報JP 2009-27298 A

Claims (15)

主要被写体画像データと非主要被写体画像データとを含む画像データと、主要被写体までの距離と非主要被写体までの距離とからなる距離情報とが入力され、前記画像データにぼかし処理を行う画像処理装置であって、
前記距離情報を所定の段数からなる分割距離情報に分割する距離分割手段と、
前記画像データを輝度及び/または色度に基づいて領域判定して領域判定結果を出力する領域判定手段と、
前記分割距離情報と前記領域判定結果とを対応づけてラベルデータを出力するラベリング手段と、
前記所定の段数に応じた異なる処理をもって前記画像データを平滑化して平滑化画像データを出力する平滑化手段と、
前記画像データと前記平滑化画像データとを前記ラベルデータに基づいて合成した合成画像データを出力する合成処理手段と、を具備し、
前記ラベリング手段は、前記主要被写体画像データを含む領域の境界に重なり合う小領域において、小領域の分割距離情報を0にする重み付けを行うことを特徴とする画像処理装置。
An image processing apparatus that receives image data including main subject image data and non-main subject image data, and distance information including a distance to the main subject and a distance to the non-main subject, and performs blur processing on the image data Because
Distance dividing means for dividing the distance information into divided distance information having a predetermined number of steps;
A region determination means for determining a region based on luminance and / or chromaticity and outputting a region determination result;
Labeling means for associating the division distance information with the region determination result and outputting label data;
Smoothing means for smoothing the image data by different processing according to the predetermined number of stages and outputting smoothed image data;
Combining processing means for outputting combined image data obtained by combining the image data and the smoothed image data based on the label data,
The image processing apparatus according to claim 1, wherein the labeling unit performs weighting so that the division distance information of the small area is set to 0 in the small area overlapping the boundary of the area including the main subject image data.
前記距離分割手段は、前記距離情報をN段からなる分割距離情報に分割し、
前記平滑化手段は、前記画像データを(N−1)の異なる処理をもって平滑化して、(N−1)の異なる平滑化画像データを出力することを特徴とする請求項1に記載の画像処理装置。
(但し、Nは2以上の整数である。)
The distance dividing means divides the distance information into divided distance information consisting of N stages,
2. The image processing according to claim 1, wherein the smoothing unit smoothes the image data with (N−1) different processes and outputs (N−1) different smoothed image data. apparatus.
(However, N is an integer of 2 or more.)
前記画像データを縮小する縮小手段を備え、
前記領域判定手段は、前記縮小手段で縮小した画像データにおける領域を判定することを特徴とする請求項1または2に記載の画像処理装置。
A reduction means for reducing the image data;
The image processing apparatus according to claim 1, wherein the region determination unit determines a region in the image data reduced by the reduction unit.
前記ラベルデータを拡大する拡大手段を備えることを特徴とする請求項3に記載の画像処理装置。   The image processing apparatus according to claim 3, further comprising an enlargement unit that enlarges the label data. 前記合成画像データを平滑化する合成画像データ平滑化手段を備えることを特徴とする請求項1乃至4のいずれか1項に記載の画像処理装置。   The image processing apparatus according to claim 1, further comprising a composite image data smoothing unit that smoothes the composite image data. 前記合成処理手段は、前記画像データ及び前記平滑化画像データを加重加算して合成することを特徴とする請求項1乃至4のいずれか1項に記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the synthesis processing unit synthesizes the image data and the smoothed image data by weighted addition. 前記ラベルデータを平滑化した平滑化ラベルデータを出力するラベルデータ平滑化手段を備え、
前記合成処理手段は、前記平滑化ラベルデータによって前記画像データ及び前記平滑化画像データを加重加算して合成することを特徴とする請求項6に記載の画像処理装置。
Label data smoothing means for outputting smoothed label data obtained by smoothing the label data,
The image processing apparatus according to claim 6, wherein the synthesis processing unit synthesizes the image data and the smoothed image data by weighted addition using the smoothed label data.
入力された主要被写体画像データと非主要被写体画像データとを含む画像データにぼかし処理を行う画像処理方法であって、
入力された主要被写体までの距離と非主要被写体までの距離とからなる距離情報を所定の段数からなる分割距離情報に分割する距離分割工程と、
前記画像データを輝度及び/または色度に基づいて領域判定して領域判定結果を出力する領域判定工程と、
前記分割距離情報と前記領域判定結果とを対応づけてラベルデータを出力するラベリング工程と、
前記所定の段数に応じた異なる処理をもって前記画像データを平滑化して平滑化画像データを出力する平滑化工程と、
前記画像データと前記平滑化画像データとを前記ラベルデータに基づいて合成した合成画像データを出力する合成処理工程と、を具備し、
前記ラベリング工程は、前記主要被写体画像データを含む領域の境界に重なり合う小領域において、小領域の分割距離情報を0にする重み付けを行うことを特徴とする画像処理方法。
An image processing method for performing blur processing on image data including input main subject image data and non-main subject image data,
A distance dividing step of dividing the distance information composed of the input distance to the main subject and the distance to the non-main subject into divided distance information having a predetermined number of steps;
A region determination step of determining a region based on luminance and / or chromaticity and outputting a region determination result;
A labeling step of associating the division distance information with the region determination result and outputting label data;
A smoothing step of smoothing the image data with different processing according to the predetermined number of stages and outputting smoothed image data;
A composite processing step of outputting composite image data obtained by combining the image data and the smoothed image data based on the label data,
The image processing method according to claim 1, wherein in the labeling step, weighting is performed so that division distance information of a small area is set to 0 in a small area overlapping a boundary of the area including the main subject image data.
前記距離分割工程は、前記距離情報をN段からなる分割距離情報に分割し、
前記平滑化工程は、前記画像データを(N−1)の異なる処理をもって平滑化して、(N−1)の異なる平滑化画像データを出力することを特徴とする請求項8に記載の画像処理方法。
(但し、Nは2以上の整数である。)
The distance dividing step divides the distance information into divided distance information composed of N stages,
9. The image processing according to claim 8, wherein the smoothing step smoothes the image data with (N-1) different processes and outputs smoothed image data with different (N-1). Method.
(However, N is an integer of 2 or more.)
前記画像データを縮小する縮小工程を備え、
前記領域判定工程は、前記縮小工程で縮小した画像データにおける領域を判定することを特徴とする請求項8または9に記載の画像処理方法。
A reduction process for reducing the image data;
The image processing method according to claim 8, wherein the region determination step determines a region in the image data reduced in the reduction step.
前記ラベルデータを拡大する拡大工程を備えることを特徴とする請求項10に記載の画像処理方法。   The image processing method according to claim 10, further comprising an enlarging step of enlarging the label data. 前記合成画像データを平滑化する合成画像データ平滑化工程を備えることを特徴とする請求項8乃至11のいずれか1項に記載の画像処理方法。   The image processing method according to any one of claims 8 to 11, further comprising a synthetic image data smoothing step for smoothing the synthetic image data. 前記合成処理工程は、前記画像データ及び前記平滑化画像データを加重加算して合成することを特徴とする請求項8乃至11のいずれか1項に記載の画像処理方法。   The image processing method according to any one of claims 8 to 11, wherein in the combining processing step, the image data and the smoothed image data are combined by weighted addition. 前記ラベルデータを平滑化した平滑化ラベルデータを出力するラベルデータ平滑化工程を備え、
前記合成処理工程は、前記平滑化ラベルデータによって前記画像データ及び前記平滑化画像データを加重加算して合成することを特徴とする請求項13に記載の画像処理方法。
A label data smoothing step for outputting smoothed label data obtained by smoothing the label data;
The image processing method according to claim 13, wherein the combining processing step combines the image data and the smoothed image data by weighted addition using the smoothed label data.
請求項1乃至7のいずれか1項に記載の画像処理装置を備えたことを特徴とするデジタルスチルカメラ。   A digital still camera comprising the image processing apparatus according to claim 1.
JP2009190855A 2009-02-24 2009-08-20 Image processing apparatus and image processing method Expired - Fee Related JP5434361B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009190855A JP5434361B2 (en) 2009-02-24 2009-08-20 Image processing apparatus and image processing method

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2009041007 2009-02-24
JP2009041007 2009-02-24
JP2009190855A JP5434361B2 (en) 2009-02-24 2009-08-20 Image processing apparatus and image processing method

Publications (2)

Publication Number Publication Date
JP2010226694A JP2010226694A (en) 2010-10-07
JP5434361B2 true JP5434361B2 (en) 2014-03-05

Family

ID=43043349

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009190855A Expired - Fee Related JP5434361B2 (en) 2009-02-24 2009-08-20 Image processing apparatus and image processing method

Country Status (1)

Country Link
JP (1) JP5434361B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7084107B2 (en) 2014-04-02 2022-06-14 アルケマ フランス A novel impact resistant modified thermoplastic composition with a high level of fluidity in the molten state

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5784451B2 (en) * 2011-10-18 2015-09-24 オリンパス株式会社 Image processing apparatus, image processing method, and image processing program
EP2747415A4 (en) * 2011-10-26 2015-04-15 I Cubed Res Ct Inc Image processing device, image processing method, and recording medium
JP5911292B2 (en) * 2011-12-19 2016-04-27 キヤノン株式会社 Image processing apparatus, imaging apparatus, image processing method, and image processing program
JP6124868B2 (en) * 2012-03-27 2017-05-10 株式会社日立製作所 Image processing apparatus and image processing method
JP5937871B2 (en) * 2012-04-02 2016-06-22 日本電信電話株式会社 Stereoscopic image display device, stereoscopic image display method, and stereoscopic image display program
JP6218377B2 (en) * 2012-12-27 2017-10-25 キヤノン株式会社 Image processing apparatus and image processing method
JP6175878B2 (en) * 2013-04-25 2017-08-09 富士通株式会社 Image processing circuit, image processing apparatus, and image processing method
JP6319972B2 (en) * 2013-08-26 2018-05-09 キヤノン株式会社 Image processing apparatus, imaging apparatus, image processing method, and program
JP2015103879A (en) * 2013-11-21 2015-06-04 キヤノン株式会社 Image processing apparatus and control method thereof
CN103945118B (en) * 2014-03-14 2017-06-20 华为技术有限公司 Image weakening method, device and electronic equipment
EP3229457B1 (en) 2014-12-03 2021-06-09 Nikon Corporation Image pickup device, electronic apparatus, and program
JP7260080B2 (en) * 2018-03-15 2023-04-18 Fcnt株式会社 Display device, display control program and display control method
JP7252158B2 (en) * 2020-03-13 2023-04-04 富士フイルム株式会社 LEARNING METHOD, LEARNING DEVICE, IMAGE ANALYSIS DEVICE, AND PROGRAM
CN113724129B (en) * 2020-05-25 2024-02-13 武汉Tcl集团工业研究院有限公司 Image blurring method, storage medium and terminal equipment

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11205583A (en) * 1998-01-19 1999-07-30 Fuji Photo Film Co Ltd Image processor
JP2003087545A (en) * 2001-09-07 2003-03-20 Canon Inc Image pickup device, image processor and method
JP2003289436A (en) * 2002-03-28 2003-10-10 Minolta Co Ltd Image processor, and program
JP2006197096A (en) * 2005-01-12 2006-07-27 Mitsubishi Electric Corp Television telephone

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7084107B2 (en) 2014-04-02 2022-06-14 アルケマ フランス A novel impact resistant modified thermoplastic composition with a high level of fluidity in the molten state

Also Published As

Publication number Publication date
JP2010226694A (en) 2010-10-07

Similar Documents

Publication Publication Date Title
JP5434361B2 (en) Image processing apparatus and image processing method
JP5124372B2 (en) Image processing apparatus, image processing method, and digital still camera
JP5860304B2 (en) Imaging apparatus, control method therefor, program, and storage medium
JP4524717B2 (en) Image processing apparatus, imaging apparatus, image processing method, and program
JP6512810B2 (en) Image pickup apparatus, control method and program
JP2009054130A (en) Image processor, image processing method, and digital still camera
JP4861952B2 (en) Image processing apparatus and imaging apparatus
KR102266649B1 (en) Image processing method and device
JP6548367B2 (en) Image processing apparatus, imaging apparatus, image processing method and program
JP5262417B2 (en) Image processing apparatus, image processing method, and image processing program
JP5186021B2 (en) Imaging apparatus, image processing apparatus, and imaging method
JP2008271241A (en) Imaging apparatus, image processing apparatus, imaging method, and image processing method
JP5766077B2 (en) Image processing apparatus and image processing method for noise reduction
JP2008116844A (en) Imaging apparatus
JP2016032181A (en) Image processing apparatus, image pickup device and image processing method
JP5144724B2 (en) Imaging apparatus, image processing apparatus, imaging method, and image processing method
JP6261205B2 (en) Image processing device
JP4866317B2 (en) IMAGING DEVICE AND IMAGING DEVICE CONTROL METHOD
JP2009218704A (en) Image processing apparatus and image processing method
JP6815503B2 (en) Imaging device, control method of imaging device, and control program of imaging device
JP2017143354A (en) Image processing apparatus and image processing method
JP5117889B2 (en) Image processing apparatus and image processing method
JP2011239267A (en) Imaging apparatus and image processing apparatus
JP2023033355A (en) Image processing device and control method therefor
JP5673454B2 (en) Image processing apparatus, image processing method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120607

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130531

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130618

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130809

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130903

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20131017

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20131112

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20131125

R151 Written notification of patent or utility model registration

Ref document number: 5434361

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

LAPS Cancellation because of no payment of annual fees