JP2012060540A - Image processing apparatus, image processing method, and program for image processing - Google Patents

Image processing apparatus, image processing method, and program for image processing Download PDF

Info

Publication number
JP2012060540A
JP2012060540A JP2010203641A JP2010203641A JP2012060540A JP 2012060540 A JP2012060540 A JP 2012060540A JP 2010203641 A JP2010203641 A JP 2010203641A JP 2010203641 A JP2010203641 A JP 2010203641A JP 2012060540 A JP2012060540 A JP 2012060540A
Authority
JP
Japan
Prior art keywords
image
blur
pixel
processing apparatus
image processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2010203641A
Other languages
Japanese (ja)
Other versions
JP5482589B2 (en
Inventor
陽区 ▲高▼橋
Yoku Takahashi
Takahiro Asahara
隆宏 淺原
Shuichi Shiitani
秀一 椎谷
Masayoshi Shimizu
雅芳 清水
Akinori Chatani
明典 茶谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2010203641A priority Critical patent/JP5482589B2/en
Publication of JP2012060540A publication Critical patent/JP2012060540A/en
Application granted granted Critical
Publication of JP5482589B2 publication Critical patent/JP5482589B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Studio Devices (AREA)
  • Image Processing (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an image processing apparatus capable of generating a blurred image while suppressing memory consumption in a short period.SOLUTION: The image processing apparatus is provided with image generation means and composition means. The image generation means generates a plurality of blurred source images to which blurring processing is applied using different blurring intensities, from a first reduced image obtained by reducing a first image of a subject taken by focusing at a first focal position. When composing a blurred image obtained by applying blurring processing to a first pixel being a pixel included in the first image, the composite means determines a pixel value after applying the blurring processing to the first pixel by use of a second pixel being a pixel of the blurring source image corresponding to the position of the first pixel.

Description

本発明は、画像の一部または全部に対してぼかし処理を施した画像を生成する画像処理装置、画像処理方法および画像処理用プログラムに関する。   The present invention relates to an image processing apparatus, an image processing method, and an image processing program that generate an image obtained by performing blurring processing on part or all of an image.

従来、カメラなどで撮像した画像の一部の領域または全体をぼかした画像を生成する技術が知られている。
例えば、上記技術に関連して、アダプターレンズを用いずにワンタッチで、ピントが合った画像とピントが外れた画像との合成によって擬似的にソフトフォーカス映像を得ることができるソフトフォーカス方法について知られている。
2. Description of the Related Art Conventionally, a technique for generating an image obtained by blurring a partial area or the entire image captured by a camera or the like is known.
For example, in connection with the above technique, there is known a soft focus method that can obtain a soft focus image in a pseudo manner by combining an in-focus image and an out-of-focus image with one touch without using an adapter lens. ing.

また、ピントの合っている画像から切り出した部分画像と、各フォーカス位置で撮像した画像から切り出した部分画像と、を組み合わせて画像を合成し、被写体と背景との間の距離関係に拘束されることなく背景だけがボケた画像を得るカメラ装置について知られている。   Also, a partial image cut out from an in-focus image and a partial image cut out from the image captured at each focus position are combined to synthesize the image and restricted by the distance relationship between the subject and the background. A camera device that obtains an image in which only the background is blurred is known.

また、背景領域に対してフィルタリング処理などの平滑化処理を行なうことにより、背景領域にピントの合っていない状態で撮影された画像と同等のピンぼけ画像を含む被写体強調画像を生成するデジタルカメラについて知られている。   Also known is a digital camera that generates a subject-enhanced image that includes a defocused image equivalent to an image that is captured when the background region is out of focus by performing smoothing processing such as filtering processing on the background region. It has been.

また、被写体領域には、レンズ位置が被写体合焦位置で撮影された被写体領域の画像を当て嵌め、背景領域には、レンズ位置がマクロ位置で撮影された背景領域の画像を当て嵌めて一つの画像に合成するデジタルカメラについて知られている。   In addition, an image of a subject area photographed at a lens position is focused on the subject area, and an image of a background area photographed at a macro position is fitted on the background area. A digital camera for synthesizing an image is known.

特開平06−350889号公報Japanese Patent Laid-Open No. 06-350889 特開2005−039680号公報Japanese Patent Laid-Open No. 2005-039680 特開2008−079193号公報JP 2008-079193 A 特開2009−284404号公報JP 2009-284404 A

図1および図2は、画像処理装置がぼかし画像を生成する処理の例を示している。
図1では、画像処理装置が、局所的なぼかしの程度を情報として備えるぼかし情報120にしたがってぼかしの程度を変えながら、入力画像110に対してぼかし処理を行なってぼかし画像130を生成している。
1 and 2 show an example of processing in which the image processing apparatus generates a blurred image.
In FIG. 1, the image processing apparatus generates a blurred image 130 by performing a blurring process on the input image 110 while changing the degree of blurring according to the blur information 120 that includes the degree of local blurring as information. .

ぼかし処理は、例えば、フィルタ111に含まれる画素の画素値を平均化するなどして行なうことができる。この場合、画像処理装置は、ぼかし情報120に応じてフィルタ111のサイズを変更することでぼかしの程度を変えることができる。   The blurring process can be performed by, for example, averaging pixel values of pixels included in the filter 111. In this case, the image processing apparatus can change the degree of blur by changing the size of the filter 111 according to the blur information 120.

しかし、図1に示すぼかし処理を行なう場合、画像処理装置に大きな負荷がかかる。また、入力画像110に含まれる画素毎にぼかし処理を実施するため、画像処理装置には、さらに負荷がかかる。その結果、画像処理装置が実行する処理が重くなり、ぼかし処理に時間がかかるという欠点がある。   However, when the blurring process shown in FIG. 1 is performed, a large load is applied to the image processing apparatus. Further, since the blurring process is performed for each pixel included in the input image 110, the image processing apparatus is further burdened. As a result, the processing executed by the image processing apparatus becomes heavy, and there is a disadvantage that it takes time for blurring processing.

図2では、画像処理装置が、ぼかし情報120に応じて、入力画像110と、ぼかし元画像211、212、213または214と、を合成してぼかし画像220を生成している。ぼかし元画像211、212、213および214は、それぞれ入力画像110に対して異なる程度でぼかした画像である。   In FIG. 2, the image processing apparatus generates the blurred image 220 by combining the input image 110 and the original blur image 211, 212, 213, or 214 according to the blur information 120. The blurred original images 211, 212, 213, and 214 are images that are blurred to a different extent with respect to the input image 110.

この場合、ぼかし元画像211、212、213および214などを常にメモリに保持していなければならない。そのため、図2に示すぼかし処理では、メモリの消費量が大きくなってしまうという欠点がある。   In this case, the blurred original images 211, 212, 213, and 214 must always be held in the memory. Therefore, the blurring process shown in FIG. 2 has a drawback that the amount of memory consumption increases.

本画像処理装置は、上述した問題に鑑みてなされたものであり、その解決しようとする課題は、短時間にメモリ消費量を抑えながらぼかし画像を生成することができる画像処理装置、画像処理方法および画像処理用プログラムを提供することである。   The present image processing apparatus has been made in view of the above-described problems, and the problem to be solved is an image processing apparatus and an image processing method capable of generating a blurred image while suppressing memory consumption in a short time. And an image processing program.

本画像処理装置の1つの観点によれば、本画像処理装置は、以下の構成要素を備える。
画像生成手段は、第1の合焦位置に焦点を合わせて被写体を撮像した第1の画像を縮小した第1の縮小画像から、異なるぼかし強度を用いてぼかし処理を適用した複数のぼかし元画像を生成する。
According to one aspect of the image processing apparatus, the image processing apparatus includes the following components.
The image generation means includes a plurality of original blur images to which blur processing is applied using different blur intensities from a first reduced image obtained by reducing the first image obtained by focusing on the first in-focus position and capturing an image of the subject. Is generated.

また、合成手段は、前記第1の画像に含まれる画素である第1画素に対してぼかし処理を適用したぼかし画像を合成する際に、前記第1画素の位置に対応する前記ぼかし元画像の画素である第2画素を用いて前記第1画素に対するぼかし処理適用後の画素値を決定する。   The synthesizing unit may synthesize the blurred original image corresponding to the position of the first pixel when synthesizing the blurred image obtained by applying the blurring process to the first pixel that is a pixel included in the first image. The pixel value after applying the blurring process to the first pixel is determined using the second pixel which is a pixel.

本画像処理装置によると、短時間にメモリ消費量を抑えながらぼかし画像を生成することができる画像処理装置、画像処理方法および画像処理用プログラムを提供することができる。   According to the present image processing apparatus, it is possible to provide an image processing apparatus, an image processing method, and an image processing program capable of generating a blurred image while suppressing memory consumption in a short time.

画像処理装置がぼかし画像を生成する処理の例を示す図である。It is a figure which shows the example of the process which an image processing apparatus produces | generates a blurred image. 画像処理装置がぼかし画像を生成する処理の例を示す図である。It is a figure which shows the example of the process which an image processing apparatus produces | generates a blurred image. 第1の実施例に係る画像処理装置を説明する図である。It is a figure explaining the image processing apparatus which concerns on a 1st Example. 第2の実施例に係る画像処理装置によるぼかし処理の概要を説明する図である。It is a figure explaining the outline | summary of the blurring process by the image processing apparatus which concerns on a 2nd Example. 第2の実施例に係る画像処理装置によるぼかし処理の流れを説明する図である。It is a figure explaining the flow of the blurring process by the image processing apparatus which concerns on a 2nd Example. 第2の実施例に係る画像処理装置が実行するぼかし処理の概要を示すフローチャートである。It is a flowchart which shows the outline | summary of the blurring process which the image processing apparatus which concerns on a 2nd Example performs. 第2の実施例に係るぼかしマップについて説明する図である。It is a figure explaining the blur map which concerns on a 2nd Example. 第2の実施例に係るぼかしマップの生成処理を示すフローチャートである。It is a flowchart which shows the production | generation process of the blurring map which concerns on a 2nd Example. 第2の実施例に係る画像処理装置によるぼかし画像の生成処理を示すフローチャートである。It is a flowchart which shows the production | generation process of the blurred image by the image processing apparatus which concerns on a 2nd Example. 第3の実施例に係る画像処理装置による画像処理の流れを説明する図である。It is a figure explaining the flow of the image processing by the image processing apparatus which concerns on a 3rd Example. 図10に示したぼかし元画像の画面サイズを拡大した図である。It is the figure which expanded the screen size of the blurring original image shown in FIG. 第3の実施例に係る画像処理装置が行なうぼかし処理の概要を説明する図である。It is a figure explaining the outline | summary of the blurring process which the image processing apparatus which concerns on a 3rd Example performs. 第3の実施例に係る画素の選択を説明する図である。It is a figure explaining selection of the pixel concerning the 3rd example. 第3の実施例に係る6点補間処理を説明する図である。It is a figure explaining the 6-point interpolation process which concerns on a 3rd Example. 第3の実施例に係る画像処理装置によるぼかし画像の生成処理を示すフローチャートである。It is a flowchart which shows the production | generation process of the blurring image by the image processing apparatus which concerns on a 3rd Example. 第1〜第3の実施例に係る画像処理装置の具体的な構成例を示す図である。It is a figure which shows the specific structural example of the image processing apparatus which concerns on the 1st-3rd Example. 第1〜第3の実施例に係る画像処理装置を備える装置の構成例を示す図である。It is a figure which shows the structural example of an apparatus provided with the image processing apparatus which concerns on the 1st-3rd Example.

以下、本実施形態の一例について、図3〜図17に基づいて説明する。なお、以下に説明する実施形態はあくまでも例示であり、以下に明示しない種々の変形や技術の適用を排除する意図ではない。すなわち、本実施形態は、その趣旨を逸脱しない範囲で、各実施例を組み合わせるなど種々変形して実施することができる。   Hereinafter, an example of this embodiment will be described with reference to FIGS. Note that the embodiments described below are merely examples, and are not intended to exclude various modifications and technical applications that are not explicitly described below. In other words, the present embodiment can be implemented with various modifications such as combining the embodiments without departing from the spirit of the present embodiment.

図3は、本実施例に係る画像処理装置300を説明する図である。
画像処理装置300は、画像生成手段310と、合成手段320と、を備える。
画像生成手段310は、第1の合焦位置に焦点を合わせて被写体を撮像した第1の画像330を縮小した第1の縮小画像340から、異なるぼかし強度を用いてぼかし処理を適用した複数のぼかし元画像350を生成する。
FIG. 3 is a diagram illustrating the image processing apparatus 300 according to the present embodiment.
The image processing apparatus 300 includes an image generation unit 310 and a synthesis unit 320.
The image generation unit 310 applies a plurality of blur processings using different blur intensities from the first reduced image 340 obtained by reducing the first image 330 obtained by focusing on the first in-focus position and capturing the subject. A blur original image 350 is generated.

第1の画像330および第1の縮小画像340は、例えば、第1の画像330および第1の縮小画像340を生成する図示しない撮像装置などから取得してもよいし、図示しない撮像装置などが記憶した記憶装置から読み出してもよい。   The first image 330 and the first reduced image 340 may be acquired from, for example, an imaging device (not shown) that generates the first image 330 and the first reduced image 340, or may be an imaging device (not shown). You may read from the memory | storage device memorize | stored.

画像生成手段310は、例えば、第1の縮小画像340に含まれる画素のうちぼかし対象の画素を中心とした一定範囲内の画素の画素値の平均値を求め、求めた平均値でぼかし対象の画素の画素値を置換えることにより、ぼかし元画像350を生成することができる。この場合、画像生成手段310は、ぼかし対象の画素を中心とした一定範囲の大小によりぼかし強度を調整することができる。   For example, the image generation unit 310 calculates an average value of pixel values within a certain range centered on the pixel to be blurred among the pixels included in the first reduced image 340, and uses the calculated average value to calculate the blur target. By replacing the pixel value of the pixel, the blur original image 350 can be generated. In this case, the image generation unit 310 can adjust the blur intensity by the size of a certain range around the pixel to be blurred.

合成手段320は、第1の画像330に含まれる画素である第1画素に対してぼかし処理を適用したぼかし画像360を合成する際に、第1画素の位置に対応するぼかし元画像350の画素である第2画素を用いて第1画素に対するぼかし処理適用後の画素値を決定する。合成する場合、選択したぼかし元画像350を第1の画像330のサイズまで拡大してから第1の画像330と合成してもよい。   When the synthesizing unit 320 synthesizes the blurred image 360 obtained by applying the blurring process to the first pixel that is a pixel included in the first image 330, the pixel of the blurred original image 350 corresponding to the position of the first pixel. The pixel value after applying the blurring process to the first pixel is determined using the second pixel. When combining, the selected original blur image 350 may be enlarged to the size of the first image 330 and then combined with the first image 330.

合成手段320は、必要に応じて様々な基準にしたがって、複数のぼかし元画像350からぼかし元画像を選択することができる。例えば、ぼかし強度に応じて、選択するぼかし元画像を決めておき、第1の画像330に対応する画素毎にぼかし強度を指定したぼかし情報にしたがって、ぼかし元画像を選択してもよい。また、合成手段320は、複数のぼかし元画像350から、複数、例えば2つのぼかし元画像を選択してもよい。この場合、画像処理装置100は、選択した2つのぼかし元画像から、合成に使用する画像を生成することができる。   The synthesizing unit 320 can select a blur original image from the plurality of blur original images 350 according to various criteria as necessary. For example, the original image to be selected may be determined according to the blur intensity, and the original blur image may be selected according to the blur information in which the blur intensity is designated for each pixel corresponding to the first image 330. The synthesizing unit 320 may select a plurality of, for example, two blurring original images from the plurality of blurring original images 350. In this case, the image processing apparatus 100 can generate an image to be used for composition from the two selected blur original images.

図4は、本実施例に係る画像処理装置400によるぼかし処理の概要を説明する図である。なお、下記(1)〜(5)は、図4に記載の(1)〜(5)に対応する。ただし、下記(1)〜(5)および図4に記載の(1)〜(5)は、説明を容易にするために記載したのであって、処理の順番を限定する趣旨ではない。   FIG. 4 is a diagram illustrating an outline of the blurring process performed by the image processing apparatus 400 according to the present embodiment. The following (1) to (5) correspond to (1) to (5) shown in FIG. However, the following (1) to (5) and (1) to (5) described in FIG. 4 are described for ease of explanation, and are not intended to limit the order of processing.

(1)画像処理装置400は、例えば、後述するメモリ1602やDSP(Digital Signal Processor)1609などから、所望の被写体に焦点があっている画像410を取得する。この取得した画像410を「被写体合焦画像410」という。本実施例に係る被写体合焦画像410は、YUV形式のデータであるが、RGB形式のデータなど様々な形式のデータを使用することができる。   (1) The image processing apparatus 400 acquires an image 410 focused on a desired subject from, for example, a memory 1602 or a DSP (Digital Signal Processor) 1609 described later. The acquired image 410 is referred to as “subject focused image 410”. The subject focused image 410 according to the present embodiment is YUV format data, but various types of data such as RGB format data can be used.

また、画像処理装置400は、例えば、後述するメモリ1602やDSP1609などから、被写体合焦画像410を一定の割合で縮小した画像411を取得する。この取得した画像411を「被写体合焦縮小画像411」という。本実施例に係る被写体合焦縮小画像411は、YUV形式のデータであるが、RGB形式のデータなど様々な形式のデータを使用することができる。   Further, the image processing apparatus 400 acquires an image 411 obtained by reducing the subject focused image 410 at a certain rate from, for example, a memory 1602 or a DSP 1609 described later. The acquired image 411 is referred to as “subject focused reduced image 411”. The subject focused reduced image 411 according to the present embodiment is YUV format data, but data in various formats such as RGB format data can be used.

(2)画像処理装置400は、被写体合焦画像410を縮小した、複数の縮小画像1、2、3および4を生成する。画像処理装置400は、被写体合焦画像410をそれぞれ異なる縮小率で縮小して縮小画像1、2、3および4を生成してもよいが、本実施例では、画像処理装置400は、被写体合焦画像410を同一の縮小率で縮小して縮小画像1、2、3および4を生成するものとする。   (2) The image processing apparatus 400 generates a plurality of reduced images 1, 2, 3, and 4 in which the subject focused image 410 is reduced. The image processing apparatus 400 may generate the reduced images 1, 2, 3, and 4 by reducing the subject in-focus image 410 at different reduction ratios. It is assumed that reduced images 1, 2, 3, and 4 are generated by reducing the focal image 410 at the same reduction rate.

縮小画像1、2、3および4を生成すると、画像処理装置400は、縮小画像1、2、3および4に対してぼかし処理を行なう。ぼかし処理を行なうに際して、画像処理装置400は、縮小画像1、2、3および4の順にぼかし強度を強くしてぼかし処理を行なう。このぼかし処理が施された縮小画像1、2、3および4を「ぼかし元画像」という。また、ぼかし強度とは、ぼかしの程度のことをいう。図4には、被写体合焦縮小画像411から、ぼかし強度の異なる、4つのぼかし元画像421、422、423および424を生成した場合の例を示している。   When the reduced images 1, 2, 3, and 4 are generated, the image processing apparatus 400 performs a blurring process on the reduced images 1, 2, 3, and 4. When performing the blurring process, the image processing apparatus 400 performs the blurring process by increasing the blurring intensity in the order of the reduced images 1, 2, 3, and 4. The reduced images 1, 2, 3, and 4 that have been subjected to the blurring process are referred to as “bluring original images”. Also, the blur intensity refers to the degree of blur. FIG. 4 shows an example in which four blurred original images 421, 422, 423, and 424 having different blur strengths are generated from the subject focused reduced image 411.

ぼかし処理は、画素値の平均化などの一般的な手法を用いることができる。例えば、平均化の手法では、ぼかし対象の画素を中心とした一定範囲内の画素の画素値の平均値を求め、求めた平均値でぼかし対象の画素の画素値を置換える。ぼかし対象の画素を中心とした一定範囲の大小によりぼかし強度を調整することができる。以下では、ぼかし対象の画素を中心とした一定範囲を「フィルタサイズ」ということにする。また、画素値とは、YUV形式のデータの場合、ある画素におけるY値、U値およびV値のそれぞれを指すものとする。   For the blurring process, a general method such as averaging of pixel values can be used. For example, in the averaging method, an average value of pixel values within a certain range centered on a pixel to be blurred is obtained, and the pixel value of the pixel to be blurred is replaced with the obtained average value. The blur intensity can be adjusted according to the size of a certain range around the pixel to be blurred. Hereinafter, a certain range centered on the pixel to be blurred is referred to as “filter size”. In the case of YUV format data, the pixel value refers to each of the Y value, U value, and V value in a certain pixel.

ぼかし強度は、フィルタサイズの大きさや、縮小画像に対して行なうぼかし処理の繰返し回数など、により調整することができる。例えば、画素値の平均化に用いるフィルタサイズを大きくするほどぼかし強度は大きくなり、フィルタサイズを小さくするほどぼかし強度は小さくなる。また、同一の画像に行なうぼかし処理の回数が多いほどぼかし強度は大きくなり、ぼかし処理の回数が少ないほどぼかし強度は小さくなる。   The blur strength can be adjusted by the size of the filter and the number of times the blur process is repeated on the reduced image. For example, the blurring intensity increases as the filter size used for averaging pixel values increases, and the blurring intensity decreases as the filter size decreases. Also, the greater the number of blurring processes performed on the same image, the greater the blurring intensity, and the smaller the number of blurring processes, the smaller the blurring intensity.

本実施例では、後述するぼかし強度値に0から255の値を使用する。値が大きいほどぼかし強度が大きいことを示す。0はぼかし処理を行っていない状態を示す。そして、ぼかし元画像421、422、423および424は、それぞれぼかし強度値64、128、192および255と対応付けられる。また、被写体合焦画像410は、ぼかし強度値0と対応付けられる。   In this embodiment, a value from 0 to 255 is used as a blur intensity value to be described later. Larger values indicate greater blur intensity. 0 indicates a state in which the blurring process is not performed. The original blur images 421, 422, 423, and 424 are associated with the blur intensity values 64, 128, 192, and 255, respectively. The subject focused image 410 is associated with a blur intensity value of 0.

画像処理装置400は、後述するぼかしマップ440に含まれるぼかし強度値に応じて、被写体合焦画像410、ぼかし元画像421、422、423および424から、後述する第1のぼかし元画像および第2のぼかし元画像を選択する。   The image processing apparatus 400 uses a first blurred original image and a second blurred image from the subject focused image 410 and the blurred original images 421, 422, 423, and 424 in accordance with a blurred intensity value included in a blurred map 440 described later. Select the original blur image.

例えば、ぼかし強度値が0の場合、画像処理装置400は、被写体合焦画像410を第1のぼかし元画像として選択し、ぼかし強度値が64の場合、ぼかし元画像421を第1のぼかし元画像として選択する。また、ぼかし強度値が0から64の間の値である場合、画像処理装置400は、第1のぼかし元画像として被写体合焦画像410を選択し、第2のぼかし元画像としてぼかし元画像421を選択する。   For example, when the blur intensity value is 0, the image processing apparatus 400 selects the subject focused image 410 as the first blur original image, and when the blur intensity value is 64, the blur original image 421 is the first blur source. Select as an image. When the blur intensity value is a value between 0 and 64, the image processing apparatus 400 selects the subject focused image 410 as the first blur original image and the blur original image 421 as the second blur original image. Select.

(3)画像処理装置400は、所望の被写体以外のもの、例えば、景色などに焦点が合っている画像430を一定の割合で縮小した画像431を取得する。所望の被写体以外のものを「背景」ということにする。また、画像430を「背景合焦画像430」といい、画像431を「背景合焦縮小画像431」という。本実施例に係る背景合焦縮小画像431は、YUV形式のデータであるが、RGB形式のデータなど様々な形式のデータを使用することができる。   (3) The image processing apparatus 400 acquires an image 431 obtained by reducing an image 430 focused on something other than a desired subject, for example, a landscape or the like at a certain rate. An object other than the desired subject is called a “background”. The image 430 is referred to as “background focused image 430”, and the image 431 is referred to as “background focused reduced image 431”. The background focused reduced image 431 according to the present embodiment is YUV format data, but data in various formats such as RGB format data can be used.

被写体合焦画像410は、背景合焦画像430と同じ被写体、同じ背景が同じ構図で撮像された画像であって、背景に焦点を合わせて撮像された画像である。また、背景合焦画像430は、被写体合焦画像410と同じ被写体、同じ背景が同じ構図で撮像された画像であって、背景に焦点を合わせて撮像された画像である。
なお、図4において、背景合焦画像430を点線で記載されているのは、背景合焦画像430が、背景合焦縮小画像431を説明するためにだけに記載されているからである。
The subject focused image 410 is an image obtained by capturing the same subject and the same background with the same composition as the background focused image 430 and focusing on the background. The background focused image 430 is an image obtained by capturing the same subject and the same background with the same composition as the subject focused image 410 and focusing on the background.
In FIG. 4, the background focused image 430 is indicated by a dotted line because the background focused image 430 is described only for explaining the background focused reduced image 431.

(4)画像処理装置400は、被写体合焦縮小画像411と背景合焦縮小画像431とから、ぼかしマップ440を生成する。このぼかしマップ440は、ぼかし位置とぼかし強度を表わす値とを含む情報である。ぼかし強度を表わす値を「ぼかし強度値」という。本実施例に係るぼかしマップ440は、被写体合焦画像410の背景領域の画素のぼかし位置とぼかし強度値を含んでいる。   (4) The image processing apparatus 400 generates a blur map 440 from the subject focused reduced image 411 and the background focused reduced image 431. The blur map 440 is information including a blur position and a value representing the blur strength. A value representing the blur intensity is referred to as a “blur intensity value”. The blur map 440 according to the present embodiment includes the blur position and blur intensity value of the pixel in the background area of the subject focused image 410.

ぼかし位置とは、被写体合焦画像410に含まれる画素のうちぼかし処理の対象となる画素の位置を示す情報である。本実施例では、背景がぼかし処理の対象なので、ぼかし位置には、背景領域の画素の位置を示す情報、例えば、XY座標が含まれる。   The blur position is information indicating the position of a pixel to be subjected to blur processing among the pixels included in the subject focused image 410. In this embodiment, since the background is subject to blur processing, the blur position includes information indicating the position of the pixel in the background area, for example, XY coordinates.

画像処理装置400は、ぼかしマップ440に対して平滑化処理を行なう。この平滑化処理は、例えば、32×32画素のフィルタサイズで、ぼかしマップ440に含まれる画素値の平均化を行なうことにより実現することができる。   The image processing apparatus 400 performs a smoothing process on the blur map 440. This smoothing process can be realized, for example, by averaging pixel values included in the blur map 440 with a filter size of 32 × 32 pixels.

(5)画像処理装置400は、ぼかしマップ440にしたがって、被写体合焦画像410とぼかし元画像420とを合成してぼかし画像450を生成する。例えば、画像処理装置400は、ぼかしマップ440に含まれるぼかし強度値に応じて、被写体合焦画像410およびぼかし元画像420から、合成に使用する第1のぼかし元画像および第2のぼかし元画像を選択する。そして、画像処理装置400は、選択した第1のぼかし元画像および第2のぼかし元画像からぼかし処理の対象の画素の画素値を算出し、算出した画素値をぼかし画像450に設定する。   (5) The image processing apparatus 400 combines the subject focused image 410 and the blurred original image 420 according to the blurred map 440 to generate a blurred image 450. For example, the image processing apparatus 400 uses the first blur original image and the second blur original image used for the synthesis from the subject focused image 410 and the blur original image 420 according to the blur intensity value included in the blur map 440. Select. Then, the image processing apparatus 400 calculates the pixel value of the pixel to be blurred from the selected first and second blurred original images, and sets the calculated pixel value in the blurred image 450.

図5は、本実施例に係る画像処理装置400によるぼかし処理の流れを説明する図である。
画像処理装置400は、後述するメモリ1602やDSP1609などから、被写体合焦画像410を取得する。また、画像処理装置400は、後述するメモリ1602やDSP1609などから、被写体合焦縮小画像411を取得する。
FIG. 5 is a diagram for explaining the flow of blurring processing by the image processing apparatus 400 according to the present embodiment.
The image processing apparatus 400 acquires the subject focused image 410 from a memory 1602 or a DSP 1609 described later. Further, the image processing apparatus 400 acquires the subject focused reduced image 411 from a memory 1602 or a DSP 1609 described later.

被写体合焦縮小画像411は、後述するカメラ1610が撮像した画像をDSP1609で一定の縮小率で縮小することによって得ることができるが、その縮小率は、被写体合焦画像410のサイズに応じて適切に設定することが望ましい。例えば、被写体合焦画像410のサイズが小さい場合には、縮小率を小さくし、被写体合焦画像410のサイズが大きい場合には、縮小率を大きくするなどして、縮小率を適切に設定することが望ましい。   The subject focused reduced image 411 can be obtained by reducing an image captured by the camera 1610, which will be described later, at a constant reduction rate by the DSP 1609. The reduction rate is appropriate depending on the size of the subject focused image 410. It is desirable to set to. For example, when the size of the subject focused image 410 is small, the reduction rate is reduced, and when the size of the subject focused image 410 is large, the reduction rate is increased, and the reduction rate is appropriately set. It is desirable.

被写体合焦縮小画像411を取得すると、画像処理装置400は、被写体合焦縮小画像411に対して、それぞれ異なるぼかし強度のぼかし元画像421、422、423および424を生成する。   When the subject focused reduced image 411 is acquired, the image processing apparatus 400 generates blur original images 421, 422, 423, and 424 having different blur strengths for the subject focused reduced image 411, respectively.

ぼかし元画像421、422、423および424のぼかし強度は、フィルタサイズを変えてぼかし処理を実施することにより変えることができる。また、ぼかし元画像421、422、423および424それぞれに対して実施するぼかし処理の回数を変えることにより各ぼかし元画像のぼかし強度を変えることができる。例えば、ぼかし元画像421には1回、ぼかし元画像422には2回、ぼかし元画像423には3回、そしてぼかし元画像424には4回のぼかし処理を行なうことにより各ぼかし元画像のぼかし強度を変えることができる。また、フィルタサイズとぼかし処理の実施回数の組み合わせを変えることによっても、各ぼかし元画像のぼかし強度を変えることができる。本実施例では、ぼかし元画像421、422、423および424の順に、ぼかし強度が大きくなっているものとする。   The blur intensity of the blur original images 421, 422, 423, and 424 can be changed by changing the filter size and performing the blur process. Further, the blur intensity of each blur original image can be changed by changing the number of blur processes performed on each of the blur original images 421, 422, 423, and 424. For example, by performing blur processing once for the blur original image 421, twice for the blur original image 422, three times for the blur original image 423, and four times for the blur original image 424, The blur intensity can be changed. Also, the blur intensity of each blur original image can be changed by changing the combination of the filter size and the number of times of blur processing. In this embodiment, it is assumed that the blurring intensity increases in the order of the blurring original images 421, 422, 423, and 424.

画像処理装置400は、ぼかしマップ440にしたがって、被写体合焦画像410とぼかし元画像421、422、423および424とを合成してぼかし画像450を生成する。   The image processing apparatus 400 generates a blurred image 450 by combining the subject focused image 410 and the blurred original images 421, 422, 423, and 424 in accordance with the blurred map 440.

例えば、ぼかしマップ440に含まれるぼかし強度値が「0」の場合、画像処理装置400は、被写体合焦画像410に含まれる画素のうちぼかし対象の画素の画素値をぼかし画像450に設定する。   For example, when the blur intensity value included in the blur map 440 is “0”, the image processing apparatus 400 sets the pixel value of the blur target pixel among the pixels included in the subject focused image 410 to the blur image 450.

また、ぼかしマップ440に含まれるぼかし強度値が「0」より大きく、かつ、「64」以下の場合、画像処理装置400は、被写体合焦画像410とぼかし元画像421を選択する。そして、ぼかし強度値に応じて、被写体合焦画像410に含まれる画素のうちぼかし対象の画素の画素値と、ぼかし元画像421に含まれる画素のうちぼかし対象の画素の画素値と、の補間値をぼかし画像450に設定する。   When the blur intensity value included in the blur map 440 is greater than “0” and equal to or less than “64”, the image processing apparatus 400 selects the subject focused image 410 and the blur source image 421. Then, in accordance with the blur intensity value, interpolation between the pixel value of the pixel to be blurred among the pixels included in the subject focused image 410 and the pixel value of the pixel to be blurred among the pixels included in the blur original image 421 is performed. Set the value to the blurred image 450.

また、ぼかしマップ440に含まれるぼかし強度値が「64」の場合、画像処理装置400は、ぼかし元画像421に含まれる画素のうちぼかし対象の画素の画素値をぼかし画像450に設定する。   When the blur intensity value included in the blur map 440 is “64”, the image processing apparatus 400 sets the pixel value of the pixel to be blurred among the pixels included in the blur source image 421 in the blur image 450.

また、ぼかしマップ440に含まれるぼかし強度値が「64」より大きく、かつ、「128」以下の場合、画像処理装置400は、ぼかし元画像421とぼかし元画像422を選択する。そして、ぼかし強度値に応じて、ぼかし元画像421に含まれる画素のうちぼかし対象の画素の画素値と、ぼかし元画像422に含まれる画素のうちぼかし対象の画素の画素値と、の補間値をぼかし画像450に設定する。   When the blur intensity value included in the blur map 440 is larger than “64” and equal to or smaller than “128”, the image processing apparatus 400 selects the blur original image 421 and the blur original image 422. Then, an interpolation value between the pixel value of the pixel to be blurred among the pixels included in the blur original image 421 and the pixel value of the pixel to be blurred among the pixels included in the blur original image 422 according to the blur intensity value. Is set to the blurred image 450.

また、ぼかしマップ440に含まれるぼかし強度値が「128」の場合、画像処理装置400は、ぼかし元画像422に含まれる画素のうちぼかし対象の画素の画素値をぼかし画像450に設定する。   When the blur intensity value included in the blur map 440 is “128”, the image processing apparatus 400 sets the pixel value of the blur target pixel among the pixels included in the blur source image 422 in the blur image 450.

また、ぼかしマップ440に含まれるぼかし強度値が「128」より大きく、かつ、「192」以下の場合、画像処理装置400は、ぼかし元画像422とぼかし元画像423を選択する。そして、ぼかし強度値に応じて、ぼかし元画像422に含まれる画素のうちぼかし対象の画素の画素値と、ぼかし元画像423に含まれる画素のうちぼかし対象の画素の画素値と、の補間値をぼかし画像450に設定する。   When the blur intensity value included in the blur map 440 is larger than “128” and equal to or smaller than “192”, the image processing apparatus 400 selects the blur original image 422 and the blur original image 423. Then, an interpolation value between the pixel value of the pixel to be blurred among the pixels included in the blur original image 422 and the pixel value of the pixel to be blurred among the pixels included in the blur original image 423 according to the blur intensity value. Is set to the blurred image 450.

また、ぼかしマップ440に含まれるぼかし強度値が「192」の場合、画像処理装置400は、ぼかし元画像423に含まれる画素のうちぼかし対象の画素の画素値をぼかし画像450に設定する。   When the blur intensity value included in the blur map 440 is “192”, the image processing apparatus 400 sets the pixel value of the blur target pixel among the pixels included in the blur source image 423 in the blur image 450.

また、ぼかしマップ440に含まれるぼかし強度値が「192」より大きく、かつ、「255」以下の場合、画像処理装置400は、ぼかし元画像423とぼかし元画像424を選択する。そして、ぼかし強度値に応じて、ぼかし元画像423に含まれる画素のうちぼかし対象の画素の画素値と、ぼかし元画像424に含まれる画素のうちぼかし対象の画素の画素値と、の補間値をぼかし画像450に設定する。   When the blur intensity value included in the blur map 440 is larger than “192” and equal to or smaller than “255”, the image processing apparatus 400 selects the blur original image 423 and the blur original image 424. Then, an interpolation value between the pixel value of the pixel to be blurred among the pixels included in the blur original image 423 and the pixel value of the pixel to be blurred among the pixels included in the blur original image 424 according to the blur intensity value. Is set to the blurred image 450.

また、ぼかしマップ440に含まれるぼかし強度値が「255」の場合、画像処理装置400は、ぼかし元画像424に含まれる画素のうちぼかし対象の画素の画素値をぼかし画像450に設定する。   When the blur intensity value included in the blur map 440 is “255”, the image processing apparatus 400 sets the pixel value of the blur target pixel among the pixels included in the blur source image 424 in the blur image 450.

以上の処理が完了すると、例えば、図5に示す処理結果520を得ることができる。被写体合焦画像410の背景部511と対比すると、処理結果520の背景部521にぼかしがかかっている。   When the above processing is completed, for example, a processing result 520 shown in FIG. 5 can be obtained. When compared with the background portion 511 of the subject focused image 410, the background portion 521 of the processing result 520 is blurred.

図6は、本実施例に係る画像処理装置400が実行するぼかし処理の概要を示すフローチャートである。
後述する入力手段1603等からぼかし処理の開始が指示されると、画像処理装置400は、ぼかし処理を開始する(ステップS600)。そして、画像処理装置400は、処理をステップS601に移行する。
FIG. 6 is a flowchart illustrating an outline of the blurring process executed by the image processing apparatus 400 according to the present embodiment.
When the start of the blurring process is instructed from the input unit 1603 or the like described later, the image processing apparatus 400 starts the blurring process (step S600). Then, the image processing apparatus 400 moves the process to step S601.

ステップS601、S602およびS603において、画像処理装置400は、後述するメモリ1602やDSP1609などから、被写体合焦画像410、被写体合焦縮小画像411および背景合焦縮小画像431を取得する。   In steps S601, S602, and S603, the image processing apparatus 400 acquires a subject focused image 410, a subject focused reduced image 411, and a background focused reduced image 431 from a memory 1602 and a DSP 1609 described later.

ステップS604において、画像処理装置400は、被写体合焦縮小画像411から、複数のぼかし元画像420を生成する。本実施例では、ぼかし強度の異なる4つのぼかし元画像421、422、423および424を生成する。   In step S <b> 604, the image processing apparatus 400 generates a plurality of original blur images 420 from the subject focused reduced image 411. In the present embodiment, four blur original images 421, 422, 423, and 424 having different blur strengths are generated.

ステップS605において、画像処理装置400は、被写体合焦縮小画像411と背景合焦縮小画像431とから、ぼかしマップ440を生成する。ぼかしマップ440については、図7および図8で具体的に説明する。   In step S605, the image processing apparatus 400 generates a blur map 440 from the subject focused reduced image 411 and the background focused reduced image 431. The blur map 440 will be specifically described with reference to FIGS.

ステップS606において、画像処理装置400は、ぼかしマップ440にしたがって、被写体合焦画像410とぼかし元画像421、422、423および424とを合成することによってぼかし画像450を生成する。このぼかし画像450を生成する処理については、図9で具体的に説明する。   In step S606, the image processing apparatus 400 generates a blurred image 450 by combining the subject focused image 410 and the blurred original images 421, 422, 423, and 424 in accordance with the blur map 440. The process of generating the blurred image 450 will be specifically described with reference to FIG.

図7は、本実施例に係るぼかしマップ440について説明する図である。なお、下記(1)および(2)は、図7に示す(1)および(2)に対応する。ただし、下記(1)および(2)と図7に記載の(1)および(2)は、説明を容易にするために記載したのであって、処理の順番を限定する趣旨ではない。   FIG. 7 is a diagram illustrating the blur map 440 according to the present embodiment. The following (1) and (2) correspond to (1) and (2) shown in FIG. However, the following (1) and (2) and (1) and (2) described in FIG. 7 are described for ease of explanation, and are not intended to limit the order of processing.

(1)画像処理装置400は、後述するメモリ1602やDSP1609などから、被写体合焦縮小画像411を取得すると、被写体合焦縮小画像411をグレースケールの画像に変換し、変換後の画像に対してエッジ検出処理を行なう。なお、エッジ検出処理には、公知の技術、例えば、ラプラシアンフィルタなどを用いたフィルタ処理を利用することができる。ただし、その他の公知技術を用いて、エッジ検出を行なってもよいのは当然である。   (1) When the image processing apparatus 400 acquires the subject focused reduced image 411 from the memory 1602 or the DSP 1609 described later, the image processing apparatus 400 converts the subject focused reduced image 411 into a gray scale image, and applies the converted image to the converted image. Edge detection processing is performed. For the edge detection process, a known technique such as a filter process using a Laplacian filter can be used. However, it is natural that edge detection may be performed using other known techniques.

以上の処理により、画像処理装置400は、被写体合焦縮小画像411からエッジを抽出したエッジ画像710を生成することができる。エッジ画像710は、例えば、−128〜+127の画素値を含む画像である。図7に示すエッジ画像710には被写体のエッジ部が実線で表示されている。   Through the above processing, the image processing apparatus 400 can generate an edge image 710 in which an edge is extracted from the subject focused reduced image 411. The edge image 710 is an image including pixel values of −128 to +127, for example. In the edge image 710 shown in FIG. 7, the edge portion of the subject is displayed with a solid line.

(2)同様に、画像処理装置400は、後述するメモリ1602やDSP1609などから、背景合焦縮小画像431を取得すると、背景合焦縮小画像431をグレースケールの画像に変換し、変換後の画像に対してエッジ検出処理を行なう。このエッジ検出処理も、公知の技術、例えば、ラプラシアンフィルタなどを用いたフィルタ処理を利用することができる。   (2) Similarly, when the image processing apparatus 400 acquires the background focused reduced image 431 from the memory 1602 or the DSP 1609 described later, the image processing apparatus 400 converts the background focused reduced image 431 into a grayscale image, and the converted image Edge detection processing is performed on the. This edge detection process can also use a known technique, for example, a filter process using a Laplacian filter.

以上の処理により、画像処理装置400は、背景合焦縮小画像431からエッジを抽出したエッジ画像720を生成することができる。エッジ画像720も、例えば、−128〜+127の画素値を含む画像である。図7に示すエッジ画像720には被写体を除いた背景のエッジ部が実線で表示されている。   With the above processing, the image processing apparatus 400 can generate an edge image 720 obtained by extracting an edge from the background focused reduced image 431. The edge image 720 is also an image including pixel values of −128 to +127, for example. In the edge image 720 shown in FIG. 7, the edge portion of the background excluding the subject is displayed with a solid line.

(3)エッジ画像710および720を生成すると、画像処理装置400は、画素毎に、エッジ画像710の画素値の絶対値と、エッジ画像720の画素値の絶対値と、の差分を算出し、絶対値差分画像730を生成する。絶対値差分画像730に含まれる画素の画素値は、エッジ画像710と720の画素値の絶対値の差分により求められるので、−128〜+128までの値となる。例えば、エッジ画像720に含まれる画素の画素値からエッジ画像710に含まれる画素の画素値を減算することにより絶対値の差分を求めた場合、絶対値差分画像730に含まれる画素の画素値のうち、0より大きい画素値の画素を含むエッジを背景部のエッジと判断することができる。図7に示す絶対値差分画像730には、被写体のエッジ部と背景のエッジ部とが実線で表示されている。   (3) When the edge images 710 and 720 are generated, the image processing device 400 calculates, for each pixel, the difference between the absolute value of the pixel value of the edge image 710 and the absolute value of the pixel value of the edge image 720, An absolute value difference image 730 is generated. Since the pixel value of the pixel included in the absolute value difference image 730 is obtained from the difference between the absolute values of the pixel values of the edge images 710 and 720, the pixel value is −128 to +128. For example, when the absolute value difference is obtained by subtracting the pixel value of the pixel included in the edge image 710 from the pixel value of the pixel included in the edge image 720, the pixel value of the pixel included in the absolute value difference image 730 is calculated. Of these, an edge including a pixel having a pixel value greater than 0 can be determined as an edge of the background portion. In the absolute value difference image 730 shown in FIG. 7, the edge portion of the subject and the edge portion of the background are displayed by solid lines.

画像処理装置400は、絶対値差分画像730から背景部のエッジのみを抽出した画像を生成し、この生成した画像に含まれる画素の画素値を0〜255の値となるように調整する。以上の処理により得られる画像をぼかしマップ440として使用する。なお、画像処理装置400は、ぼかしマップ440に対して、さらに平滑化処理を行ってもよい。この平滑化処理は、例えば、32×32画素のフィルタサイズで、ぼかしマップ440に含まれる画素値の平均化を行なうことにより実現することができる。   The image processing apparatus 400 generates an image in which only the edge of the background portion is extracted from the absolute value difference image 730, and adjusts the pixel values of the pixels included in the generated image to be a value of 0-255. The image obtained by the above processing is used as the blur map 440. Note that the image processing apparatus 400 may further perform a smoothing process on the blur map 440. This smoothing process can be realized, for example, by averaging pixel values included in the blur map 440 with a filter size of 32 × 32 pixels.

図8は、本実施例に係るぼかしマップ440の生成処理を示すフローチャートである。
ステップS801において、画像処理装置400は、ステップS602で取得した被写体合焦縮小画像411をグレースケールに変換後、変換した画像に対してエッジ検出処理を行ってエッジ画像710を生成する。同様に、画像処理装置400は、ステップS603で取得した背景合焦縮小画像431をグレースケールに変換後、変換した画像に対してエッジ検出処理を行ってエッジ画像720を生成する。
FIG. 8 is a flowchart showing the generation process of the blur map 440 according to the present embodiment.
In step S <b> 801, the image processing apparatus 400 converts the subject focused reduced image 411 acquired in step S <b> 602 to grayscale, and then performs edge detection processing on the converted image to generate an edge image 710. Similarly, the image processing apparatus 400 converts the background focused reduced image 431 acquired in step S603 to grayscale, and then performs edge detection processing on the converted image to generate an edge image 720.

ステップS802において、画像処理装置400は、エッジ画像710および720に含まれる画素の画素値の絶対値をそれぞれ取得する。
ステップS803において、画像処理装置400は、画素毎に、エッジ画像710および720に含まれる同じ位置の画素の画素値の絶対値の差分を算出して絶対値差分画像730を生成する。なお、本実施例では、エッジ画像720に含まれる画素の画素値の絶対値から、エッジ画像710に含まれる画素の画素値の絶対値を減算するものとする。
In step S802, the image processing apparatus 400 acquires absolute values of pixel values of pixels included in the edge images 710 and 720, respectively.
In step S803, the image processing apparatus 400 calculates an absolute value difference image 730 by calculating a difference between absolute values of pixel values of pixels at the same position included in the edge images 710 and 720 for each pixel. In this embodiment, the absolute value of the pixel value of the pixel included in the edge image 710 is subtracted from the absolute value of the pixel value of the pixel included in the edge image 720.

ステップS804において、画像処理装置400は、絶対値差分画像730から背景領域、本実施例では、背景領域に含まれるエッジだけを抽出してぼかしマップ440を生成する。なお、本実施例では、絶対値差分画像730に含まれる画素のうち画素値が0より大きい画素を背景領域の画素と判断できる。本実施例では、背景のエッジ部を含むエッジ画像720に含まれる画素の画素値の絶対値から、エッジ画像710に含まれる画素の画素値の絶対値を減算することにより絶対値差分画像730を生成しているからである。   In step S804, the image processing apparatus 400 generates a blur map 440 by extracting only the background region, in this embodiment, the edge included in the background region, from the absolute value difference image 730. In the present embodiment, among the pixels included in the absolute value difference image 730, a pixel having a pixel value greater than 0 can be determined as a pixel in the background area. In this embodiment, the absolute value difference image 730 is obtained by subtracting the absolute value of the pixel value of the pixel included in the edge image 710 from the absolute value of the pixel value of the pixel included in the edge image 720 including the edge portion of the background. This is because it is generated.

エッジ画像710に含まれる画素の画素値の絶対値から、エッジ画像720に含まれる画素の画素値の絶対値を減算することにより絶対値差分画像730を生成した場合は、絶対値差分画像730に含まれる画素のうち画素値が0より小さい画素を背景領域の画素と判断できる。   When the absolute value difference image 730 is generated by subtracting the absolute value of the pixel value of the pixel included in the edge image 720 from the absolute value of the pixel value of the pixel included in the edge image 710, the absolute value difference image 730 Among the included pixels, a pixel having a pixel value smaller than 0 can be determined as a pixel in the background area.

ステップS805において、画像処理装置400は、ステップS804で生成したぼかしマップ440に対して平滑化処理を行なう。平滑化処理が終了すると、画像処理装置400は、ぼかしマップ440の生成処理を終了する(ステップS806)。   In step S805, the image processing apparatus 400 performs a smoothing process on the blur map 440 generated in step S804. When the smoothing process ends, the image processing apparatus 400 ends the blur map 440 generation process (step S806).

図9は、本実施例に係る画像処理装置400によるぼかし画像450の生成処理を示すフローチャートである。
ステップS901において、画像処理装置400は、被写体合焦画像410に含まれる画素から、処理対象の画素を1つ選択する。すると、画像処理装置400は、ぼかしマップ440を参照し(ステップS902)、処理対象の画素についてのぼかし強度値を取得する(ステップS903)。
FIG. 9 is a flowchart illustrating the generation process of the blurred image 450 by the image processing apparatus 400 according to the present embodiment.
In step S <b> 901, the image processing apparatus 400 selects one pixel to be processed from the pixels included in the subject focused image 410. Then, the image processing apparatus 400 refers to the blur map 440 (step S902), and acquires the blur intensity value for the pixel to be processed (step S903).

ここで、本実施例に係るぼかし強度値は、0〜255の値である。図4で示したように、被写体合焦画像410、ぼかし元画像421、422、423または424を選択する基準となるぼかし強度値「0」、「64」、「128」、「192」および「255」を総じて「境界値」という。   Here, the blur intensity value according to the present embodiment is a value from 0 to 255. As shown in FIG. 4, the blur intensity values “0”, “64”, “128”, “192”, and “192” serving as a reference for selecting the subject focused image 410 and the blur original images 421, 422, 423, or 424 are selected. “255” is generally referred to as “boundary value”.

ステップS903で取得したぼかし強度値が境界値と一致しない場合(ステップS904 YES)、画像処理装置400は、処理をステップS905に移行する。この場合、画像処理装置400は、ぼかし強度値に応じて、被写体合焦画像410、ぼかし元画像421、422、423または424から2つの画像を選択する(ステップS905)。この画像選択処理の具体例については、図5で説明したので省略する。   If the blur intensity value acquired in step S903 does not match the boundary value (YES in step S904), the image processing apparatus 400 moves the process to step S905. In this case, the image processing apparatus 400 selects two images from the subject focused image 410 and the blurred original images 421, 422, 423, or 424 in accordance with the blur intensity value (step S905). A specific example of this image selection processing has been described with reference to FIG.

本実施例では、ステップS905で選択した2つの画像をそれぞれ「第1のぼかし元画像」、「第2のぼかし元画像」という。被写体合焦画像410が、第1のぼかし元画像となる場合もある。   In the present embodiment, the two images selected in step S905 are referred to as “first blur original image” and “second blur original image”, respectively. The subject focused image 410 may be the first blurred original image.

ステップS906において、画像処理装置400は、ステップS905で選択した第1のぼかし元画像を、例えば、被写体合焦画像410と同じサイズの画像まで拡大する。なお、ステップS906において、第1のぼかし元画像として、被写体合焦画像410を選択した場合、画像処理装置400は、ステップS906の処理を行なわない。   In step S906, the image processing apparatus 400 enlarges the first blur original image selected in step S905 to an image having the same size as the subject focused image 410, for example. If the subject focused image 410 is selected as the first blur original image in step S906, the image processing apparatus 400 does not perform the process in step S906.

ステップS907において、画像処理装置400は、拡大した第1のぼかし元画像から、処理対象の画素と同じ位置にある画素の画素値を取得する。この画素値を「第1の画素値」という。   In step S907, the image processing apparatus 400 acquires the pixel value of the pixel at the same position as the pixel to be processed from the enlarged first blurred original image. This pixel value is referred to as a “first pixel value”.

ステップS908において、画像処理装置400は、ステップS905で選択した第2のぼかし元画像を、例えば、被写体合焦画像410と同じサイズの画像まで拡大する。
ステップS909において、画像処理装置400は、拡大した第2のぼかし元画像から、処理対象の画素と同じ位置にある画素の画素値を取得する。この画素値を「第2の画素値」という。
In step S908, the image processing apparatus 400 enlarges the second blur original image selected in step S905 to an image having the same size as the subject focused image 410, for example.
In step S909, the image processing apparatus 400 acquires the pixel value of the pixel at the same position as the pixel to be processed from the enlarged second blurred original image. This pixel value is referred to as a “second pixel value”.

ステップS910において、画像処理装置400は、ステップS907およびS909で取得した画素値の補間値を算出する。第1の画素値をR1、第2の画素値をR2、境界値をTh1、Th2とすると、Th2>S>Th1の関係にある場合、以下に示す式(1)から、第1の画素値と第2の画素値の補間値を算出することができる。
R1*(S−Th1)/(Th2−Th1)+
R2*(Th2−S)/(Th2−Th1) ・・・(1)
補間値を算出すると、画像処理装置400は、処理をステップS914に移行する。
In step S910, the image processing apparatus 400 calculates an interpolated value of the pixel value acquired in steps S907 and S909. Assuming that the first pixel value is R1, the second pixel value is R2, and the boundary values are Th1 and Th2, when the relationship is Th2>S> Th1, the first pixel value is obtained from the following equation (1). And an interpolation value of the second pixel value can be calculated.
R1 * (S-Th1) / (Th2-Th1) +
R2 * (Th2-S) / (Th2-Th1) (1)
After calculating the interpolation value, the image processing apparatus 400 moves the process to step S914.

一方、ステップS903で取得したぼかし強度値が境界値と一致する場合(ステップS904 NO)、画像処理装置400は、処理をステップS911に移行する。この場合、画像処理装置400は、ぼかし強度値に応じて、被写体合焦画像410、ぼかし元画像421、422、423または424から画像を1つ選択する(ステップS911)。この画像の選択の具体例については、図5で説明したので省略する。   On the other hand, if the blur intensity value acquired in step S903 matches the boundary value (NO in step S904), the image processing apparatus 400 proceeds to step S911. In this case, the image processing apparatus 400 selects one image from the subject focused image 410 and the blurred original images 421, 422, 423, or 424 in accordance with the blur intensity value (step S911). A specific example of selecting the image has been described with reference to FIG.

本実施例では、ステップS911で選択した画像を「第3のぼかし元画像」という。被写体合焦画像410が、第3のぼかし元画像となる場合もある。
ステップS912において、画像処理装置400は、ステップS911で選択した第3のぼかし元画像を、例えば、被写体合焦画像410と同じサイズの画像まで拡大する。なお、ステップS911において、第3のぼかし元画像として、被写体合焦画像410を選択した場合、画像処理装置400は、ステップS912の処理を行なわない。
In this embodiment, the image selected in step S911 is referred to as “third blurred original image”. The subject focused image 410 may be the third blurred original image.
In step S912, the image processing apparatus 400 enlarges the third blur original image selected in step S911 to an image having the same size as the subject focused image 410, for example. When the subject focused image 410 is selected as the third blur original image in step S911, the image processing apparatus 400 does not perform the process of step S912.

ステップS913において、画像処理装置400は、第3のぼかし元画像から、処理対象の画素と同じ位置にある画素の画素値を取得する。そして、画像処理装置400は、処理をステップS914に移行する。   In step S913, the image processing apparatus 400 acquires the pixel value of the pixel at the same position as the pixel to be processed from the third blurred original image. Then, the image processing apparatus 400 moves the process to step S914.

ステップS914において、画像処理装置400は、処理対象の画素と同じ位置にある、ぼかし画像450の画素の画素値に、ステップS910で求めた補間値、または、ステップS913で取得した画素値を設定する。   In step S914, the image processing apparatus 400 sets the interpolated value obtained in step S910 or the pixel value obtained in step S913 to the pixel value of the pixel of the blurred image 450 at the same position as the pixel to be processed. .

被写体合焦画像410に含まれる全ての画素について、ステップS901〜S914の処理を実施した場合(ステップS915 YES)、画像処理装置400は、ぼかし画像450の生成処理を終了する(ステップS916)。また、被写体合焦画像410に含まれる画素に、ステップS901〜S914の処理を実施していない画素がある場合(ステップS915 NO)、画像処理装置400は、処理をステップS901に移行し、ステップS901〜S914の処理を実施する。   When the processes in steps S901 to S914 have been performed on all the pixels included in the subject focused image 410 (YES in step S915), the image processing apparatus 400 ends the generation process of the blurred image 450 (step S916). If there is a pixel that has not been subjected to the processing in steps S901 to S914 among the pixels included in the subject focused image 410 (NO in step S915), the image processing apparatus 400 proceeds to step S901 and proceeds to step S901. The process of ~ S914 is performed.

図10は、本実施例に係る画像処理装置1000による画像処理の流れを説明する図である。
画像処理装置1000は、後述するメモリ1602やDSP1609などから被写体合焦画像410を取得する。また、画像処理装置1000は、後述するメモリ1602やDSP1609などから、被写体合焦縮小画像1011、1012および1013を取得する。図10では、画像処理装置1000が、被写体合焦縮小画像1011、1012および1013の順に縮小率を大きくした被写体合焦縮小画像を取得した場合を例示している。
FIG. 10 is a diagram for explaining the flow of image processing performed by the image processing apparatus 1000 according to the present embodiment.
The image processing apparatus 1000 acquires the subject focused image 410 from a memory 1602 or a DSP 1609 described later. The image processing apparatus 1000 acquires subject focused reduced images 1011, 1012, and 1013 from a memory 1602 and a DSP 1609 described later. FIG. 10 illustrates a case where the image processing apparatus 1000 acquires a subject focused reduced image in which the reduction ratios are increased in the order of the subject focused reduced images 1011, 1012, and 1013.

被写体合焦縮小画像1011、1012および1013は、後述するカメラ1610が撮像した画像をDSP1609がそれぞれ異なる縮小率で縮小することによって得ることができるが、実施例2と同様に、その縮小率は、被写体合焦画像410のサイズに応じて適切に設定することが望ましい。   The subject focused reduced images 1011, 1012, and 1013 can be obtained by the DSP 1609 reducing images captured by the camera 1610, which will be described later, at different reduction rates. It is desirable to set appropriately according to the size of the subject focused image 410.

被写体合焦縮小画像1011、1012および1013を取得すると、画像処理装置1000は、各被写体合焦縮小画像に対して、それぞれ異なるぼかし強度でぼかし処理を施したぼかし元画像1021、1022、1023および1024を生成する。   Upon obtaining the subject focused reduced images 1011, 1012, and 1013, the image processing apparatus 1000 performs the original blurred images 1021, 1022, 1023, and 1024 obtained by performing the blurring process on the subject focused reduced images with different blur strengths. Is generated.

図10に示すぼかし元画像1021および1022は、被写体合焦縮小画像1011に対して異なるぼかし強度でぼかし処理を施した被写体合焦縮小画像である。また、ぼかし元画像1023は、被写体合焦縮小画像1011に対して、ぼかし処理を施した被写体合焦縮小画像である。また、ぼかし元画像1024は、被写体合焦縮小画像1011に対して、ぼかし処理を施した被写体合焦縮小画像である。   The original blur images 1021 and 1022 shown in FIG. 10 are subject focused reduced images obtained by subjecting the subject focused reduced image 1011 to blur processing with different blur strengths. Also, the blur original image 1023 is a subject focused reduced image obtained by performing a blurring process on the subject focused reduced image 1011. The blur original image 1024 is a subject focused reduced image obtained by performing a blurring process on the subject focused reduced image 1011.

ぼかし元画像1021、1022、1023および1024は、実施例2と同様に、各ぼかし元画像に対してフィルタサイズを変えてぼかし処理を実施することによりぼかし強度を変えることができる。また、ぼかし元画像1021、1022、1023および1024それぞれに対して実施するぼかし処理の回数を変えることにより各ぼかし元画像のぼかし強度を変えることができる。また、フィルタサイズとぼかし処理の実施回数の組み合わせを変えることによっても、各ぼかし元画像のぼかし強度を変えることができる。本実施例では、ぼかし元画像1021、1022、1023および1024の順に、ぼかし強度が大きくなっている。   As in the second embodiment, the blurring original images 1021, 1022, 1023, and 1024 can be changed in blurring intensity by changing the filter size of each blurring original image. Further, the blur intensity of each blur original image can be changed by changing the number of blur processes performed on each of the blur original images 1021, 1022, 1023, and 1024. Also, the blur intensity of each blur original image can be changed by changing the combination of the filter size and the number of times of blur processing. In the present embodiment, the blur intensity increases in the order of the blur original images 1021, 1022, 1023, and 1024.

画像処理装置1000は、ぼかしマップ440にしたがって、被写体合焦画像410と、ぼかし元画像1021、1022、1023および1024と、を合成してぼかし画像1040を生成する。   The image processing apparatus 1000 generates the blurred image 1040 by combining the subject focused image 410 and the blurred original images 1021, 1022, 1023, and 1024 according to the blur map 440.

例えば、ぼかしマップ440に含まれるぼかし強度値が「0」の場合、画像処理装置1000は、被写体合焦画像410に含まれる画素のうちぼかし対象の画素の画素値をぼかし画像1030に設定する。   For example, when the blur intensity value included in the blur map 440 is “0”, the image processing apparatus 1000 sets the pixel value of the pixel to be blurred among the pixels included in the subject focused image 410 to the blur image 1030.

また、ぼかしマップ440に含まれるぼかし強度値が「0」より大きく、かつ、「64」以下の場合、画像処理装置1000は、被写体合焦画像410とぼかし元画像1021を選択する。そして、ぼかし強度値に応じて、被写体合焦画像410に含まれる画素のうちぼかし対象の画素の画素値と、ぼかし元画像1021に含まれる画素のうちぼかし対象の画素の画素値と、の補間値をぼかし画像1030に設定する。   When the blur intensity value included in the blur map 440 is larger than “0” and equal to or smaller than “64”, the image processing apparatus 1000 selects the subject focused image 410 and the blur original image 1021. Then, in accordance with the blur intensity value, interpolation between the pixel value of the blur target pixel among the pixels included in the subject focused image 410 and the pixel value of the blur target pixel among the pixels included in the blur source image 1021 is performed. The value is set to the blurred image 1030.

また、ぼかしマップ440に含まれるぼかし強度値が「64」の場合、画像処理装置1000は、被写体合焦画像1021に含まれる画素のうちぼかし対象の画素の画素値をぼかし画像1030に設定する。   When the blur intensity value included in the blur map 440 is “64”, the image processing apparatus 1000 sets the pixel value of the blur target pixel in the blur image 1030 among the pixels included in the subject focused image 1021.

また、ぼかしマップ440に含まれるぼかし強度値が「64」より大きく、かつ、「128」以下の場合、画像処理装置1000は、ぼかし元画像1021とぼかし元画像1022を選択する。そして、ぼかし強度値に応じて、ぼかし元画像1021に含まれる画素のうちぼかし対象の画素の画素値と、ぼかし元画像1022に含まれる画素のうちぼかし対象の画素の画素値と、の補間値をぼかし画像1030に設定する。   When the blur intensity value included in the blur map 440 is larger than “64” and equal to or smaller than “128”, the image processing apparatus 1000 selects the blur original image 1021 and the blur original image 1022. Then, an interpolation value between the pixel value of the pixel to be blurred among the pixels included in the original image 1021 and the pixel value of the pixel to be blurred among the pixels included in the original image 1022 according to the blur intensity value. Is set to the blurred image 1030.

また、ぼかしマップ440に含まれるぼかし強度値が「128」の場合、画像処理装置1000は、被写体合焦画像1022に含まれる画素のうちぼかし対象の画素の画素値をぼかし画像1030に設定する。   When the blur intensity value included in the blur map 440 is “128”, the image processing apparatus 1000 sets the pixel value of the blur target pixel in the blur image 1030 among the pixels included in the subject focused image 1022.

また、ぼかしマップ440に含まれるぼかし強度値が「128」より大きく、かつ、「192」以下の場合、画像処理装置1000は、ぼかし元画像1022とぼかし元画像1023を選択する。そして、ぼかし強度値に応じて、ぼかし元画像1022に含まれる画素のうちぼかし対象の画素の画素値と、ぼかし元画像1023に含まれる画素のうちぼかし対象の画素の画素値と、の補間値をぼかし画像1030に設定する。   When the blur intensity value included in the blur map 440 is larger than “128” and equal to or smaller than “192”, the image processing apparatus 1000 selects the blur original image 1022 and the blur original image 1023. Then, according to the blur intensity value, an interpolation value between the pixel value of the pixel to be blurred among the pixels included in the blur original image 1022 and the pixel value of the pixel to be blurred among the pixels included in the blur original image 1023. Is set to the blurred image 1030.

また、ぼかしマップ440に含まれるぼかし強度値が「192」の場合、画像処理装置1000は、被写体合焦画像1023に含まれる画素のうちぼかし対象の画素の画素値をぼかし画像1030に設定する。   When the blur intensity value included in the blur map 440 is “192”, the image processing apparatus 1000 sets the pixel value of the blur target pixel among the pixels included in the subject focused image 1023 in the blur image 1030.

また、ぼかしマップ440に含まれるぼかし強度値が「192」より大きく、かつ、「255」以下の場合、画像処理装置1000は、ぼかし元画像1023とぼかし元画像1024を選択する。そして、ぼかし強度値に応じて、ぼかし元画像1023に含まれる画素のうちぼかし対象の画素の画素値と、ぼかし元画像1024に含まれる画素のうちぼかし対象の画素の画素値と、の補間値をぼかし画像1030に設定する。   When the blur intensity value included in the blur map 440 is larger than “192” and equal to or smaller than “255”, the image processing apparatus 1000 selects the blur original image 1023 and the blur original image 1024. Then, an interpolation value between the pixel value of the pixel to be blurred among the pixels included in the original image 1023 and the pixel value of the pixel to be blurred among the pixels included in the original image 1024 according to the blur intensity value. Is set to the blurred image 1030.

また、ぼかしマップ440に含まれるぼかし強度値が「255」の場合、画像処理装置1000は、被写体合焦画像1024に含まれる画素のうちぼかし対象の画素の画素値をぼかし画像1030に設定する。   When the blur intensity value included in the blur map 440 is “255”, the image processing apparatus 1000 sets the pixel value of the blur target pixel among the pixels included in the subject focused image 1024 in the blur image 1030.

以上の処理が完了すると、例えば、図10に示す処理結果1040を得ることができる。被写体合焦画像410の背景部1051と対比すると、処理結果1040の背景部1041にぼかしがかかっている。   When the above processing is completed, for example, a processing result 1040 shown in FIG. 10 can be obtained. When compared with the background portion 1051 of the subject focused image 410, the background portion 1041 of the processing result 1040 is blurred.

なお、図10では、被写体合焦縮小画像1011、1012および1013の順に縮小率を大きくした被写体合焦縮小画像を使用しているが、これに限定する趣旨ではない。被写体合焦縮小画像は、それぞれ異なる縮小率であればよい。   In FIG. 10, the subject focused reduced images in which the reduction ratios are increased in the order of the subject focused reduced images 1011, 1012, and 1013 are used, but the present invention is not limited to this. The subject focused reduced images may have different reduction ratios.

また、図10では、3つの被写体合焦縮小画像1011、1012および1013を使用した場合を例に示しているが、被写体合焦縮小画像の数を限定する趣旨ではない。例えば、2つの被写体合焦縮小画像を使用してもよいし、5つ以上の被写体合焦縮小画像を使用してもよい。   FIG. 10 shows an example in which three subject focused reduced images 1011, 1012, and 1013 are used, but this is not intended to limit the number of subject focused reduced images. For example, two subject focused reduced images may be used, or five or more subject focused reduced images may be used.

また、同一の被写体合焦縮小画像から生成する2以上のぼかし元画像は、互いに異なるぼかし強度とする必要があるが、異なる被写体合焦縮小画像から生成するぼかし元画像は、ぼかし強度が同一であってもよいし、異なっていてもよい。   Further, two or more blurring original images generated from the same subject focused reduced image need to have different blur strengths, but the blurring original images generated from different subject focused reduced images have the same blur strength. May be different or different.

ここで、被写体合焦画像410、ぼかし元画像1021、1022、1023および1024におけるぼかし処理の対象の画素の位置の対応関係を明確にするために、ぼかし元画像1021、1022、1023および1024の画面サイズを揃えたものを図11に示す。以下の説明では、図11を用いて本実施例を説明する。被写体合焦画像410、被写体合焦縮小画像1011〜1013、ぼかし元画像1021〜1024内に示す黒い点「・」は画素を示す。例えば、ぼかし元画像1021は拡大して表示しているので、被写体合焦縮小画像410よりも画素間の距離が大きくなっている。   Here, in order to clarify the correspondence between the positions of the pixels to be blurred in the subject focused image 410 and the blurred original images 1021, 1022, 1023, and 1024, the screens of the blurred original images 1021, 1022, 1023, and 1024 are displayed. FIG. 11 shows the same size. In the following description, this embodiment will be described with reference to FIG. Black dots “·” shown in the subject focused image 410, the subject focused reduced images 1011 to 1013, and the blurred original images 1021 to 1024 indicate pixels. For example, since the blurred original image 1021 is enlarged and displayed, the distance between the pixels is larger than that of the subject focused reduced image 410.

図12は、本実施例に係る画像処理装置1000が行なうぼかし処理の概要を説明する図である。なお、図12に記載の(1)〜(4)は、以下に記載の(1)〜(4)に対応する。ただし、下記(1)〜(4)および図12に記載の(1)〜(4)は、説明を容易にするために記載したのであって、処理の順番を限定する趣旨ではない。   FIG. 12 is a diagram illustrating an outline of the blurring process performed by the image processing apparatus 1000 according to the present embodiment. Note that (1) to (4) described in FIG. 12 correspond to (1) to (4) described below. However, the following (1) to (4) and (1) to (4) described in FIG. 12 are described for ease of explanation, and are not intended to limit the order of processing.

(1)画像処理装置1000は、ぼかし処理の対象である被写体合焦画像410に含まれる画素から、処理対象の画素1210を1つ選択する。
(2)画像処理装置1000は、ぼかしマップ440を参照し、処理対象の画素1210のぼかし強度値を取得する。
(1) The image processing apparatus 1000 selects one processing target pixel 1210 from the pixels included in the subject focused image 410 that is the target of the blurring process.
(2) The image processing apparatus 1000 refers to the blur map 440 and acquires the blur intensity value of the pixel 1210 to be processed.

(3)処理対象の画素1210の位置とぼかし強度値とから、後述する6点補間処理に使用する6点の画素を、被写体合焦画像410、ぼかし元画像1021、1022、1023および1024に含まれる画素の中から選択する。例えば、以下のようにして画像処理装置1000は、後述する6点補間処理に使用する6点の画素を選択することができる。   (3) From the position of the processing target pixel 1210 and the blur intensity value, six pixels used for the six-point interpolation process described later are included in the subject focused image 410 and the blur original images 1021, 1022, 1023, and 1024. Select from the pixels to be selected. For example, the image processing apparatus 1000 can select six pixels to be used for a six-point interpolation process described later as follows.

まず、画像処理装置1000は、ぼかし強度値に応じて、被写体合焦画像410、ぼかし元画像1021、1022、1023および1024の中から1つまたは2つの画像を選択する。この画像の選択は、例えば、図9に示したステップS904〜S905やS911の処理と同様の処理によって行なうことができる。図12では、ぼかし元画像1023と1024が選択された場合を例示している。   First, the image processing apparatus 1000 selects one or two images from the subject focused image 410 and the blurred original images 1021, 1022, 1023, and 1024 according to the blur intensity value. The selection of this image can be performed by, for example, processing similar to the processing in steps S904 to S905 and S911 shown in FIG. FIG. 12 illustrates a case where the original blur images 1023 and 1024 are selected.

次に、画像処理装置1000は、ぼかし処理の対象である被写体合焦画像410における処理対象の画素1210の位置に対応する、ぼかし元画像1023内の位置1220を囲む画素のうち3点の画素1221、1222および1223を選択する。また、画像処理装置1000は、ぼかし処理の対象である被写体合焦画像410における処理対象の画素1210の位置に対応する、ぼかし元画像1024内の位置1230を囲む画素のうち3点の画素1231、1232および1233を選択する。   Next, the image processing apparatus 1000 includes three pixels 1221 among the pixels surrounding the position 1220 in the blurred original image 1023 corresponding to the position of the processing target pixel 1210 in the subject focused image 410 that is the target of the blurring process. , 1222 and 1223 are selected. Further, the image processing apparatus 1000 includes three pixels 1231 out of the pixels surrounding the position 1230 in the blurred original image 1024 corresponding to the position of the processing target pixel 1210 in the subject focused image 410 that is the target of the blurring process. Select 1232 and 1233.

図13には、本実施例に係る画素の選択を説明する図を示している。
画素の選択を行なう場合、ぼかし元画像1023に含まれる3つの画素を頂点とする直角三角形を考える。図13に示すように、ぼかし元画像1023内の位置1220は、3点の画素1221、1222および1223を頂点とする直角三角形に囲まれている。この場合、画像処理装置1000は、3点の画素1221、1222および1223を選択する。
FIG. 13 is a diagram illustrating pixel selection according to the present embodiment.
When selecting a pixel, a right triangle having apexes at three pixels included in the original image 1023 is considered. As shown in FIG. 13, the position 1220 in the original blur image 1023 is surrounded by a right triangle whose apexes are three pixels 1221, 1222, and 1223. In this case, the image processing apparatus 1000 selects three pixels 1221, 1222, and 1223.

同様に、ぼかし元画像1024内の位置1230は、3点の画素1231、1232および1233を頂点とする直角三角形に囲まれている。この場合、画像処理装置1000は、3点の画素1231、1232および1233を選択する。   Similarly, the position 1230 in the blurred original image 1024 is surrounded by a right triangle whose apexes are three pixels 1231, 1232, and 1233. In this case, the image processing apparatus 1000 selects three pixels 1231, 1232, and 1233.

(4)選択した6点の画素1221、1222、1223、1231、1232および1233に対して、6点補間処理を行って1つの補間値を算出する。
図14は、本実施例に係る6点補間処理を説明する図である。以下の説明では、図14に示すxyz座標系のうち、x軸方向を水平方向といい、y軸方向を垂直方向という。
(4) A six-point interpolation process is performed on the selected six pixels 1221, 1222, 1223, 1231, 1232, and 1233 to calculate one interpolation value.
FIG. 14 is a diagram for explaining the six-point interpolation processing according to the present embodiment. In the following description, in the xyz coordinate system shown in FIG. 14, the x-axis direction is referred to as the horizontal direction, and the y-axis direction is referred to as the vertical direction.

まず、画像処理装置1000は、選択した6点の画素1221、1222、1223、1231、1232および1233のうち、ぼかし元画像1023上の3点の画素1221、1222および1223に対して補間処理を行なう。この結果得られる補間値を「第1の補間値」という。   First, the image processing apparatus 1000 performs an interpolation process on the three pixels 1221, 1222, and 1223 on the blurred original image 1023 among the six selected pixels 1221, 1222, 1223, 1231, 1232, and 1233. . The interpolation value obtained as a result is referred to as “first interpolation value”.

ここで、画素1221、1222および1223の画素値をそれぞれd1、a1およびc1とする。また、処理対象の画素1210の位置に対応する、ぼかし元画像1023内の位置1220の水平方向の座標の比をh11:h12とする。そして、処理対象の画素1210の位置に対応する、ぼかし元画像1023内の位置1220の垂直方向の座標の比をv11:v12とする。この場合、以下に示す式(2)によって、第1の補間値を得ることができる。
a1+(d1−a1)*(v11/(v11+v12))
−(c1−d1)*(h11/(h11+h12)) ・・・(2)
Here, the pixel values of the pixels 1221, 1222 and 1223 are d1, a1 and c1, respectively. Further, the ratio of the horizontal coordinate of the position 1220 in the blurred original image 1023 corresponding to the position of the pixel 1210 to be processed is h11: h12. The ratio of the vertical coordinates of the position 1220 in the blurred original image 1023 corresponding to the position of the pixel 1210 to be processed is v11: v12. In this case, the first interpolation value can be obtained by the following equation (2).
a1 + (d1-a1) * (v11 / (v11 + v12))
-(C1-d1) * (h11 / (h11 + h12)) (2)

同様に、画像処理装置1000は、選択した6点の画素1221、1222、1223、1231、1232および1233のうち、ぼかし元画像1024上の3点の画素1231、1232および1233に対して補間処理を行なう。この結果得られる補間値を「第2の補間値」という。   Similarly, the image processing apparatus 1000 performs interpolation processing on three pixels 1231, 1232, and 1233 on the blurred original image 1024 among the six selected pixels 1221, 1222, 1223, 1231, 1232, and 1233. Do. The interpolation value obtained as a result is referred to as a “second interpolation value”.

ここで、画素1231、1232および1233の画素値をそれぞれc2、b2およびa2とする。また、処理対象の画素1210の位置に対応する、ぼかし元画像1024内の位置1230の水平方向の座標の比をh21:h22とする。そして、処理対象の画素1210の位置に対応する、ぼかし元画像1024内の位置1230の垂直方向の座標の比をv21:v22とする。この場合、以下に示す式(3)によって、第2の補間値を得ることができる。
a2+(b2−a2)*(h21/(h21+h22))
+(c2−b2)*(v21/(v21+v22)) ・・・(3)
Here, the pixel values of the pixels 1231, 1232, and 1233 are c2, b2, and a2, respectively. In addition, the ratio of the horizontal coordinates of the position 1230 in the blurred original image 1024 corresponding to the position of the pixel 1210 to be processed is h21: h22. The ratio of the vertical coordinates of the position 1230 in the original blur image 1024 corresponding to the position of the pixel 1210 to be processed is v21: v22. In this case, the second interpolation value can be obtained by the following expression (3).
a2 + (b2-a2) * (h21 / (h21 + h22))
+ (C2-b2) * (v21 / (v21 + v22)) (3)

第1の補間値および第2の補間値を算出すると、画像処理装置1000は、第1の補間値と第2の補間値から6点補間値を算出する。例えば、第1の補間値をR1、第2の補間値をR2、ぼかし強度値をSとする。また、ぼかし元画像1023および1024を選択する場合の境界値のうち上限値をTh1とし、下限値をTh2とする。この場合、以下に示す式(4)によって、第1の補間値と第2の補間値から6点補間値を算出することができる。
R1*(S−Th1)/(Th2−Th1)
+R2*(Th2−S)/(Th2−Th1) ・・・(4)
When the first interpolation value and the second interpolation value are calculated, the image processing apparatus 1000 calculates a six-point interpolation value from the first interpolation value and the second interpolation value. For example, the first interpolation value is R1, the second interpolation value is R2, and the blur intensity value is S. Further, of the boundary values when selecting the original blur images 1023 and 1024, the upper limit value is Th1, and the lower limit value is Th2. In this case, a six-point interpolation value can be calculated from the first interpolation value and the second interpolation value by the following equation (4).
R1 * (S-Th1) / (Th2-Th1)
+ R2 * (Th2-S) / (Th2-Th1) (4)

本実施例に係る画像処理装置1000が実行するぼかし処理の概要は、図6に説明した処理と同様なので、以下では、画像処理装置1000によるぼかし画像1040の生成処理について説明する。   Since the outline of the blurring process executed by the image processing apparatus 1000 according to the present embodiment is the same as the process described with reference to FIG. 6, the generation process of the blurred image 1040 by the image processing apparatus 1000 will be described below.

図15は、本実施例に係る画像処理装置1000によるぼかし画像1040の生成処理を示すフローチャートである。なお、ステップS1500〜S1504までの処理は、図9に示したステップS900〜S904までの処理と同様なので説明を省略する。   FIG. 15 is a flowchart illustrating the generation process of the blurred image 1040 by the image processing apparatus 1000 according to the present embodiment. Note that the processing from step S1500 to S1504 is the same as the processing from step S900 to S904 shown in FIG.

ステップS1503で取得したぼかし強度値が境界値と一致しない場合(ステップS1504 YES)、画像処理装置1000は、処理をステップS1005に移行する。この場合、画像処理装置1000は、ぼかし強度値に応じて、被写体合焦画像410、ぼかし元画像1021、1022、1023および1024から2つの画像を選択する(ステップS1505)。この画像選択処理の具体例については、図10で説明したので省略する。   If the blur intensity value acquired in step S1503 does not match the boundary value (YES in step S1504), the image processing apparatus 1000 moves the process to step S1005. In this case, the image processing apparatus 1000 selects two images from the subject focused image 410 and the blurred original images 1021, 1022, 1023, and 1024 according to the blur intensity value (step S1505). A specific example of this image selection process has been described with reference to FIG.

本実施例では、ステップS1505で選択した2つの画像をそれぞれ「第1のぼかし元画像」、「第2のぼかし元画像」という。被写体合焦画像410が、第1のぼかし元画像となる場合もある。   In the present embodiment, the two images selected in step S1505 are referred to as “first blur original image” and “second blur original image”, respectively. The subject focused image 410 may be the first blurred original image.

ステップS1506において、画像処理装置1000は、ステップS1505で選択した第1のぼかし元画像から、3点の画素を選択する。そして、ステップS1507において、画像処理装置1000は、ステップS1506で選択した3点の画素の画素値について、第1の補間値を算出する。   In step S1506, the image processing apparatus 1000 selects three pixels from the first blurred original image selected in step S1505. In step S1507, the image processing apparatus 1000 calculates a first interpolation value for the pixel values of the three pixels selected in step S1506.

ステップS1508において、画像処理装置1000は、ステップS1505で選択した第2のぼかし元画像から、3点の画素を選択する。そして、ステップS1509において、画像処理装置1000は、ステップS1508で選択した3点の画素の画素値について、第2の補間値を算出する。   In step S1508, the image processing apparatus 1000 selects three pixels from the second blur original image selected in step S1505. In step S1509, the image processing apparatus 1000 calculates a second interpolation value for the pixel values of the three pixels selected in step S1508.

ステップS1510において、画像処理装置1000は、第1の補間値と第2の補間値から、ステップS1506およびS1508で選択した6点の画素についての6点補間値を算出する。   In step S1510, the image processing apparatus 1000 calculates a six-point interpolation value for the six pixels selected in steps S1506 and S1508 from the first interpolation value and the second interpolation value.

なお、ステップS1506〜S1510についての具体的な説明は、図12〜図14で説明したので省略する。
6点補間値を算出すると、画像処理装置1000は、処理をステップS1514に移行する。
A specific description of steps S1506 to S1510 has been described with reference to FIGS.
After calculating the 6-point interpolation value, the image processing apparatus 1000 shifts the processing to step S1514.

一方、ステップS1503で取得したぼかし強度値が境界値と一致する場合(ステップS1504 NO)、画像処理装置1000は、処理をステップS1011に移行する。この場合、画像処理装置1000は、ぼかし強度値に応じて、被写体合焦画像410、ぼかし元画像1021、1022、1023および1024から画像を1つ選択する(ステップS1511)。この画像の選択の具体例については、図10で説明したので省略する。   On the other hand, if the blur intensity value acquired in step S1503 matches the boundary value (NO in step S1504), the image processing apparatus 1000 shifts the process to step S1011. In this case, the image processing apparatus 1000 selects one image from the subject focused image 410 and the blurred original images 1021, 1022, 1023, and 1024 according to the blur intensity value (step S1511). A specific example of selecting the image has been described with reference to FIG.

本実施例では、ステップS1511で選択した画像を「第3のぼかし元画像」という。被写体合焦画像410が、第3のぼかし元画像となる場合もある。
ステップS1512において、画像処理装置1000は、ステップS1511で選択した第3のぼかし元画像から、3点の画素を選択する。そして、ステップS1513において、画像処理装置1000は、ステップS1512で選択した3点の画素の画素値について、第3の補間値を算出する。なお、ステップS1512およびS1513の処理は、ステップS1506およびS1507と同様の処理であるから具体的な説明は省略する。
In this embodiment, the image selected in step S1511 is referred to as “third blurred original image”. The subject focused image 410 may be the third blurred original image.
In step S1512, the image processing apparatus 1000 selects three pixels from the third blur original image selected in step S1511. In step S1513, the image processing apparatus 1000 calculates a third interpolation value for the pixel values of the three pixels selected in step S1512. In addition, since the process of step S1512 and S1513 is the process similar to step S1506 and S1507, concrete description is abbreviate | omitted.

ステップS1514において、画像処理装置1000は、ぼかし画像1030に、ステップS1510で求めた6点補間値、または、ステップS1513で取得した画素値を設定する。   In step S1514, the image processing apparatus 1000 sets the six-point interpolation value obtained in step S1510 or the pixel value acquired in step S1513 for the blurred image 1030.

被写体合焦画像410に含まれる全ての画素について、ステップS1501〜S1514の処理を実施した場合(ステップS1515 YES)、画像処理装置1000は、ぼかし画像1040の生成処理を終了する(ステップS1516)。また、被写体合焦画像410に含まれる画素に、ステップS1501〜S1514の処理を実施していない画素がある場合(ステップS1515 NO)、画像処理装置1000は、処理をステップS1501に移行し、ステップS1501〜S1514の処理を実施する。   When the processing of steps S1501 to S1514 has been performed for all the pixels included in the subject focused image 410 (YES in step S1515), the image processing apparatus 1000 ends the generation processing of the blurred image 1040 (step S1516). If there is a pixel that has not been subjected to the processing in steps S1501 to S1514 among the pixels included in the subject focused image 410 (NO in step S1515), the image processing apparatus 1000 shifts the processing to step S1501 and performs step S1501. Processes of S1514 are performed.

図16は、第1〜第3の実施例に係る画像処理装置の具体的な構成例を示す図である。なお、画像処理装置400と画像処理装置1000は、同じ構成の情報処理装置によって実現することができる。したがって、画像処理装置400についての具体的な構成例についてだけ説明し、画像処理装置1000についての具体的な構成例についての説明は省略する。   FIG. 16 is a diagram illustrating a specific configuration example of the image processing apparatus according to the first to third embodiments. Note that the image processing apparatus 400 and the image processing apparatus 1000 can be realized by information processing apparatuses having the same configuration. Therefore, only a specific configuration example of the image processing apparatus 400 will be described, and a description of a specific configuration example of the image processing apparatus 1000 will be omitted.

図16に示す画像装置400は、CPU1601と、メモリ1602と、入力装置1603と、出力装置1604と、外部記憶装置1605と、媒体駆動装置1606と、ネットワーク接続装置1608と、DSP1609と、カメラ1610と、を備える。そして、これらの装置がバスに接続されて相互にデータの受け渡しが行なえる構成となっている。   16 includes a CPU 1601, a memory 1602, an input device 1603, an output device 1604, an external storage device 1605, a medium drive device 1606, a network connection device 1608, a DSP 1609, and a camera 1610. . These devices are connected to a bus so that data can be exchanged between them.

CPU1601は、周辺機器や各種ソフトウェアを実行する他に本実施例に係るぼかし処理を実現するプログラムを実行する演算装置である。
メモリ1602は、プログラムを実行するために使用される揮発性の記憶装置である。メモリ1602には、例えば、RAM(Random Access Memory)などを使用することができる。また、メモリ1602は、被写体合焦画像410、被写体合焦縮小画像411、背景合焦画像430、背景合焦縮小画像431、ぼかし元画像420などを記憶することができる。
The CPU 1601 is an arithmetic device that executes a program that implements blurring processing according to the present embodiment in addition to executing peripheral devices and various software.
The memory 1602 is a volatile storage device used to execute a program. For example, a random access memory (RAM) can be used as the memory 1602. The memory 1602 can store a subject focused image 410, a subject focused reduced image 411, a background focused image 430, a background focused reduced image 431, a blur original image 420, and the like.

入力装置1603は、外部からのデータ入力手段である。入力装置1603には、例えば、キーボードやマウスなどを使用することができる。
出力装置1604は、データ等を表示装置等に出力する装置である。なお、出力装置1604には、表示装置を含むこともできる。
The input device 1603 is data input means from the outside. For example, a keyboard or a mouse can be used as the input device 1603.
The output device 1604 is a device that outputs data or the like to a display device or the like. Note that the output device 1604 can also include a display device.

外部記憶装置1605は、画像処理装置400が動作するために必要なプログラムやデータの他に本実施例に係るぼかし処理を実現するプログラムを記憶する不揮発性の記憶装置である。外部記憶装置1605には、例えば、磁気ディスク記憶装置などを使用することができる。   The external storage device 1605 is a non-volatile storage device that stores a program for realizing the blurring processing according to the present embodiment, in addition to a program and data necessary for the operation of the image processing apparatus 400. For example, a magnetic disk storage device can be used as the external storage device 1605.

媒体駆動装置1606は、メモリ1602や外部記憶装置1605のデータを可搬記憶媒体1607、例えば、フロッピイディスクやMOディスク、CD−RやDVD−Rなどに出力し、または可搬記憶媒体1607からプログラムやデータ等を読み出す装置である。   The medium driving device 1606 outputs the data of the memory 1602 and the external storage device 1605 to a portable storage medium 1607, for example, a floppy disk, an MO disk, a CD-R, a DVD-R, or the like, or from the portable storage medium 1607. It is a device that reads programs and data.

ネットワーク接続装置1608は、ネットワーク1609に接続する装置である。
DSP1609は、カメラ1610で撮像した画像に対して所定の処理、例えば、一定の縮小率で縮小する処理などを行なう。そして、DSP1609は、所定の処理が施された画像を、メモリ1602や外部記憶装置1605、可搬記憶媒体1607などに必要に応じて記憶する。
The network connection device 1608 is a device connected to the network 1609.
The DSP 1609 performs a predetermined process on the image captured by the camera 1610, for example, a process of reducing at a constant reduction rate. The DSP 1609 stores the image subjected to the predetermined processing in the memory 1602, the external storage device 1605, the portable storage medium 1607, or the like as necessary.

カメラ1610は、所望の物体に焦点を合わせて画像を生成することができる撮像装置である。例えば、カメラ1610は、被写体に焦点を合わせた被写体合焦画像410や、背景に焦点を合わせた背景合焦画像430などを生成する。カメラ1610は、生成した画像を、DSP1609やメモリ1602、外部記憶装置1605、可搬記憶媒体1607などに必要に応じて出力する。   The camera 1610 is an imaging device that can generate an image by focusing on a desired object. For example, the camera 1610 generates a subject focused image 410 focused on the subject, a background focused image 430 focused on the background, and the like. The camera 1610 outputs the generated image to the DSP 1609, the memory 1602, the external storage device 1605, the portable storage medium 1607, or the like as necessary.

なお、メモリ1602、外部記憶装置1605および可搬記憶媒体1607などの情報処理装置に読取り可能な記憶媒体は、非一時的(non−transitory)な媒体を用いることができる。   Note that a non-transitory medium can be used as a storage medium readable by an information processing device such as the memory 1602, the external storage device 1605, and the portable storage medium 1607.

また、図16に示した画像処理装置400の構成図は、一例である。したがって、画像処理装置400を図16に示した構成に限定する趣旨ではない。例えば、外部記憶装置1605、媒体駆動装置1606、ネットワーク接続装置1608、DSP1609およびカメラ1610などは、必須の構成要素ではなく、必要に応じて画像処理装置400の構成に組み込むことができる。   The configuration diagram of the image processing apparatus 400 illustrated in FIG. 16 is an example. Therefore, the present invention is not intended to limit the image processing apparatus 400 to the configuration shown in FIG. For example, the external storage device 1605, the medium driving device 1606, the network connection device 1608, the DSP 1609, the camera 1610, and the like are not essential components, and can be incorporated into the configuration of the image processing device 400 as necessary.

図17は、第1〜第3の実施例に係る画像処理装置を備える装置1700の構成例を示す図である。図17に示す装置1700は、画像処理装置1710と、DSP1720と、カメラ1730と、を備える。   FIG. 17 is a diagram illustrating a configuration example of an apparatus 1700 including the image processing apparatus according to the first to third embodiments. An apparatus 1700 illustrated in FIG. 17 includes an image processing apparatus 1710, a DSP 1720, and a camera 1730.

画像処理装置1710は、図16に示した第1、第2または第3の実施例に係る画像処理装置である。ただし、画像処理装置1710には、図16で示したDSP1609およびカメラ1610は含まれない。   The image processing device 1710 is the image processing device according to the first, second, or third embodiment shown in FIG. However, the image processing apparatus 1710 does not include the DSP 1609 and the camera 1610 shown in FIG.

DSP1720は、カメラ1730で撮像した画像に対して所定の処理、例えば、一定の縮小率で縮小する処理などを行って、被写体合焦縮小画像411や背景合焦縮小画像431などを生成する。   The DSP 1720 generates a subject focused reduced image 411, a background focused reduced image 431, and the like by performing a predetermined process on the image captured by the camera 1730, for example, a process of reducing at a constant reduction rate.

カメラ1730は、所望の物体に焦点を合わせて画像を生成することができる撮像装置である。例えば、カメラ1730は、被写体に焦点を合わせた被写体合焦画像410や、背景に焦点を合わせた背景合焦画像430などを生成する。   The camera 1730 is an imaging device that can generate an image by focusing on a desired object. For example, the camera 1730 generates a subject focused image 410 focused on the subject, a background focused image 430 focused on the background, and the like.

以上の構成において、画像処理装置1710がDSP1720に対して撮像要求を行なうと、DSP1720は、カメラ1730に対して撮像を指示する。すると、カメラ1730は、DSP1720の指示にしたがって、所定の焦点位置に焦点を合わせた画像、例えば、被写体合焦画像410や背景合焦画像430を撮像する。   In the above configuration, when the image processing apparatus 1710 requests the DSP 1720 to take an image, the DSP 1720 instructs the camera 1730 to take an image. Then, the camera 1730 captures an image focused on a predetermined focal position, for example, the subject focused image 410 or the background focused image 430 in accordance with an instruction from the DSP 1720.

カメラ1730は、撮像した画像をDSP1720に出力する。DSP1720は、カメラ1730から受信した画像を画像処理装置1710に送信する。また、画像処理装置1710が縮小率を指定していた場合、DSP1720は、画像処理装置1710が指定した縮小率で、カメラ1730から受信した画像を縮小した画像、例えば、被写体合焦縮小画像411や背景合焦縮小画像431を画像処理装置1710に送信する。   The camera 1730 outputs the captured image to the DSP 1720. The DSP 1720 transmits the image received from the camera 1730 to the image processing apparatus 1710. If the image processing device 1710 has designated a reduction ratio, the DSP 1720 may reduce the image received from the camera 1730 at the reduction rate designated by the image processing device 1710, for example, the subject focused reduced image 411 or The background focused reduced image 431 is transmitted to the image processing apparatus 1710.

画像処理装置1710は、DSP1720から受信した画像を、メモリ1602や外部記憶装置1605、可搬記憶媒体1607などに必要に応じて記憶する。
装置1700は、携帯電話や携帯端末、カメラなど様々な形態に応用することができる。
The image processing device 1710 stores the image received from the DSP 1720 in the memory 1602, the external storage device 1605, the portable storage medium 1607, or the like as necessary.
The device 1700 can be applied to various forms such as a mobile phone, a mobile terminal, and a camera.

第2の実施例では、ぼかし元画像421、422、423および424の4つのぼかし元画像を使用する場合について説明した。また、第3の実施例では、ぼかし元画像1021、1022、1023および1024の4つのぼかし元画像を使用する場合について説明した。しかし、第2および第3の実施例は、使用するぼかし元画像の数を4つに限定する趣旨ではない。例えば、使用するぼかし元画像は、1つでもよいし、2以上でもよい。   In the second embodiment, the case where four blurring original images 421, 422, 423, and 424 are used has been described. In the third embodiment, the case where four blurring original images 1021, 1022, 1023, and 1024 are used has been described. However, the second and third embodiments are not intended to limit the number of original images to be used to four. For example, the number of blurring original images to be used may be one or two or more.

以上の説明において、被写体合焦縮小画像410は、第1の画像の一例として挙げることができる。また、被写体合焦縮小画像411や1011〜1013は、第1の縮小画像の一例として挙げることができる。また、ぼかし元画像421〜424や1021〜1024は、ぼかし元画像の一例として挙げることができる。また、画像生成手段や合成手段は、所定のプログラムをCPU1601に実行させることにより実現することができる。   In the above description, the subject focused reduced image 410 can be cited as an example of the first image. The subject focused reduced images 411 and 1011 to 1013 can be cited as examples of the first reduced image. Further, the original blur images 421 to 424 and 1021 to 1024 can be cited as examples of the original blur image. The image generation unit and the synthesis unit can be realized by causing the CPU 1601 to execute a predetermined program.

第1の実施例に係る画像処理装置300は、第1の画像330を一定の割合で縮小した第1の縮小画像340に対してぼかし処理を行なうことでぼかし元画像350を生成するので、ぼかし処理の対象となる画素数を少なくすることができる。その結果、画像処理装置300にかかる負荷を軽くすることができるので、ぼかし処理の時間を短くすることが可能となる。   Since the image processing apparatus 300 according to the first embodiment generates the blurring original image 350 by performing the blurring process on the first reduced image 340 obtained by reducing the first image 330 at a certain rate, the blurring is performed. The number of pixels to be processed can be reduced. As a result, the load on the image processing apparatus 300 can be reduced, and the blurring processing time can be shortened.

また、画像処理装置300は、第1の画像330と、第1の画像330を一定の割合で縮小した第1の縮小画像340をぼかしたぼかし元画像350と、を合成することによりぼかし画像360を生成する。ぼかし元画像350は縮小画像なので、メモリの消費量を小さくすることが可能となる。   Further, the image processing apparatus 300 combines the first image 330 and the blurred original image 350 obtained by blurring the first reduced image 340 obtained by reducing the first image 330 at a certain ratio, thereby blurring the image 360. Is generated. Since the blurred original image 350 is a reduced image, the memory consumption can be reduced.

したがって、画像処理装置300は、短時間にメモリ消費量を抑えながらぼかし画像を生成することが可能となる。
第2の実施例に係る画像処理装置400は、被写体合焦画像410を一定の割合で縮小した被写体合焦縮小画像411からぼかし元画像421〜424を作成するので、ぼかし処理の対象となる画素数を少なくすることができる。その結果、画像処理にかかる負担を軽くすることができるので、ぼかし処理の時間を短くすることが可能となる。
Therefore, the image processing apparatus 300 can generate a blurred image while suppressing memory consumption in a short time.
Since the image processing apparatus 400 according to the second embodiment creates the blur original images 421 to 424 from the subject focused reduced image 411 obtained by reducing the subject focused image 410 at a certain rate, the pixels to be subjected to the blurring process. The number can be reduced. As a result, the burden on image processing can be reduced, and the blurring processing time can be shortened.

また、画像処理装置400は、被写体合焦画像410と、被写体合焦画像410を一定の割合で縮小した被写体合焦縮小画像411をぼかしたぼかし元画像421〜424と、を合成することによりぼかし画像520を生成する。ぼかし元画像421〜424は、縮小画像なので、メモリの消費量を小さくすることが可能となる。   Also, the image processing apparatus 400 blurs the subject focused image 410 and the blur original images 421 to 424 obtained by blurring the subject focused reduced image 411 obtained by reducing the subject focused image 410 at a certain ratio. An image 520 is generated. Since the blurred original images 421 to 424 are reduced images, it is possible to reduce the memory consumption.

したがって、画像処理装置400は、短時間にメモリ消費量を抑えながらぼかし画像520を生成することが可能となる。
第3の実施例に係る画像処理装置1000は、被写体合焦画像410を縮小した被写体合焦縮小画像1011〜1013からぼかし元画像1021〜1024を生成するので、ぼかし処理の対象となる画素数を少なくすることができる。その結果、画像処理装置1000は、画像処理にかかる負担を軽くすることができるので、ぼかし処理の時間を短くすることが可能となる。
Therefore, the image processing apparatus 400 can generate the blurred image 520 while suppressing the memory consumption in a short time.
Since the image processing apparatus 1000 according to the third embodiment generates the blur original images 1021 to 1024 from the subject focused reduced images 1011 to 1013 obtained by reducing the subject focused image 410, the number of pixels to be subjected to the blur processing is determined. Can be reduced. As a result, the image processing apparatus 1000 can reduce the burden on the image processing, so that the blurring processing time can be shortened.

また、画像処理装置1000は、縮小率を段階的に大きくした被写体合焦縮小画像1011〜1013を使用することで、ぼかし処理の対象となる画素数をさらに少なくすることができる。その結果、画像処理装置1000は、画像処理にかかる負担をさらに軽くすることがでる。その結果、画像処理装置1000は、ぼかし処理の時間をさらに短縮することが可能となる。   Further, the image processing apparatus 1000 can further reduce the number of pixels to be subjected to the blurring process by using the subject focused reduced images 1011 to 1013 in which the reduction rate is increased stepwise. As a result, the image processing apparatus 1000 can further reduce the burden on image processing. As a result, the image processing apparatus 1000 can further reduce the blurring processing time.

また、画像処理装置1000は、被写体合焦画像410と、被写体合焦画像410を縮小した被写体合焦縮小画像1011〜1013をぼかしたぼかし元画像1021〜1024と、合成することによりぼかし画像1040を生成する。ぼかし元画像1021〜1024は、縮小画像なので、メモリの消費量を小さくすることが可能となる。また、画像処理装置1000は、縮小率を段階的に大きくした被写体合焦縮小画像1011〜1013を使用することで、メモリの消費量をさらに小さくすることが可能となる。
したがって、画像処理装置1000は、短時間にメモリ消費量を抑えながらぼかし画像1040を生成することが可能となる。
Further, the image processing apparatus 1000 combines the subject focused image 410 with the blurred original images 1021 to 1024 obtained by blurring the subject focused reduced images 1011 to 1013 obtained by reducing the subject focused image 410, thereby generating the blurred image 1040. Generate. Since the blurred original images 1021 to 1024 are reduced images, the amount of memory consumption can be reduced. Further, the image processing apparatus 1000 can further reduce the memory consumption by using the subject focused reduced images 1011 to 1013 in which the reduction rate is increased stepwise.
Therefore, the image processing apparatus 1000 can generate the blurred image 1040 while suppressing the memory consumption in a short time.

以上の実施例を含む実施形態に関し、さらに以下の付記を開示する。
(付記1)
第1の合焦位置に焦点を合わせて被写体を撮像した第1の画像を縮小した第1の縮小画像から、異なるぼかし強度を用いてぼかし処理を適用した複数のぼかし元画像を生成する画像生成手段と、
前記第1の画像に含まれる画素である第1画素に対してぼかし処理を適用したぼかし画像を合成する際に、前記第1画素の位置に対応する前記ぼかし元画像の画素である第2画素を用いて前記第1画素に対するぼかし処理適用後の画素値を決定する合成手段と、
を備える画像処理装置。
(付記2)
前記第1の縮小画像に含まれる被写体のエッジ成分と、第2の合焦位置に焦点を合わせて前記被写体を撮像した第2の画像を縮小した第2の縮小画像に含まれる被写体のエッジ成分とを比較し、該比較結果に基づいて、前記第1の画像に含まれる画素毎のぼかし強度を示すぼかし強度値を含むぼかしマップを生成するぼかしマップ生成手段、
をさらに備え、
前記合成手段は、前記ぼかし画像の合成において、前記第1画素に対応付けられたぼかし強度を前記ぼかしマップから参照し、前記複数のぼかし元画素および第1の画素の画素値から前記参照したぼかし強度に対応する画素値を決定する、
ことを特徴とする付記1に記載の画像処理装置。
(付記3)
前記合成手段は、前記第1の画像に含まれる第1の画素についてのぼかし強度値を前記ぼかしマップから取得し、該取得したぼかし強度値に応じて前記ぼかし元画像を選択し、該選択した前記ぼかし元画像に含まれる画素のうち前記第1の画素の位置に対応する位置にある第2の画素の画素値から、前記合成に使用する画素値を決定し、該決定した画素値を前記第1の画素の画素値に設定する、
ことを特徴とする付記2に記載の画像処理装置。
(付記4)
前記合成手段は、前記取得したぼかし強度値を含む範囲の下限値と対応付けられた前記第1のぼかし元画像と、前記範囲の上限値と対応付けられた第2のぼかし元画像と、を選択し、前記第1のぼかし元画像に含まれる画素のうち前記第1の画素の位置に対応する位置にある画素の画素値である第1の画素値と、前記第2のぼかし元画像に含まれる画像のうち前記第1の画素の位置に対応する位置にある画素の画素値である第2の画素値と、を前記範囲におけるぼかし強度値の割合で補完した補間値を算出し、該算出した補間値を前記第1の画素の画素値に設定する、
ことを特徴とする付記3に記載の画像処理装置。
(付記5)
前記第1の縮小画像は、前記第1の画像を異なる割合で縮小した複数の縮小画像である、
ことを特徴とする付記2に記載の画像処理装置。
(付記6)
前記合成手段は、前記第1の画像に含まれる第1の画素についてのぼかし強度値を前記ぼかしマップから取得し、該取得したぼかし強度値に応じて前記ぼかし元画像を選択し、該選択した前記ぼかし元画像に含まれる画素のうち前記第1の画素の位置に対応する位置を囲む複数の画素の画素値から、前記合成に使用する画素値を算出し、該算出した画素値を前記第1の画素の画素値に設定する、
ことを特徴とする付記5に記載の画像処理装置。
(付記7)
前記合成手段は、前記取得したぼかし強度値を含む範囲の下限値と対応付けられた前記第1のぼかし元画像と、前記範囲の上限値と対応付けられた第2のぼかし元画像と、を選択し、前記第1のぼかし元画像に含まれる画素のうち前記第1の画素の位置に対応する位置を囲む複数の画素の画素値から、画素間における前記第1の画素の位置の割合で補完した第1の画素値を算出し、前記第2のぼかし元画像に含まれる画素のうち前記第1の画素の位置に対応する位置を囲む複数の画素の画素値から、画素間における前記第1の画素の位置の割合で補完した第2の画素値を算出し、前記第1の画素値と前記第2の画素値とを前記範囲におけるぼかし強度値の割合で補完した補間値を算出し、該算出した補間値を前記第1の画素の画素値に設定する、
ことを特徴とする付記6に記載の画像処理装置。
(付記8)
前記ぼかしマップ生成手段は、
前記第1の縮小画像および前記第2の縮小画像に含まれる画素の画素値が不連続に変化する領域を平滑化する平滑化手段と、
前記第1の縮小画像と前記第2の縮小画像との画素値の差分から前記ぼかし強度値を算出し、画素毎に前記ぼかし強度値を含む前記ぼかしマップを生成するぼかし強度値算出手段と、
前記ぼかしマップにおける所定サイズの領域内の差分値の合計が閾値を超える場合、前記所定サイズの領域内に含まれるぼかし強度値のうち前記閾値以下のぼかし強度値を、前記閾値を超える所定の値に補正する補正手段と、
をさらに備える付記2に記載の画像処理装置。
(付記9)
第1の合焦位置に焦点を合わせて被写体を撮像した第1の画像と、前記第1の画像を縮小した第1の縮小画像と、を記憶手段から取得し、
前記第1の縮小画像を、異なるぼかし強度でぼかした複数のぼかし元画像を生成し、
前記複数のぼかし元画像から選択したぼかし元画像と、前記第1の画像とを合成して一部または全部にぼかし強度の異なるぼかし領域を含むぼかし画像を生成する、
画像処理方法。
(付記10)
第1の合焦位置に焦点を合わせて被写体を撮像した第1の画像と、前記第1の画像を縮小した第1の縮小画像と、を記憶手段から取得し、
前記第1の縮小画像を、異なるぼかし強度でぼかした複数のぼかし元画像を生成し、
前記複数のぼかし元画像から選択したぼかし元画像と、前記第1の画像とを合成して一部または全部にぼかし強度の異なるぼかし領域を含むぼかし画像を生成する、
処理を情報処理装置に実行させる画像処理用プログラム。
(付記11)
第1の合焦位置に焦点を合わせて被写体を撮像して第1の画像を生成する撮像手段と、
前記第1の画像を縮小して第1の縮小画像を生成する縮小画像生成手段と、
前記第1の縮小画像を、異なるぼかし強度でぼかした複数のぼかし元画像を生成する画像生成手段と、
前記複数のぼかし元画像から選択したぼかし元画像と、前記第1の画像とを合成して一部または全部にぼかし強度の異なるぼかし領域を含むぼかし画像を生成する合成手段と、
を備える情報処理装置。
The following supplementary notes are further disclosed with respect to the embodiments including the above examples.
(Appendix 1)
Image generation for generating a plurality of blur original images to which blur processing is applied using different blur intensities, from a first reduced image obtained by reducing a first image obtained by imaging a subject while focusing on a first focus position Means,
A second pixel that is a pixel of the original image corresponding to the position of the first pixel when a blurred image obtained by applying a blurring process to the first pixel that is a pixel included in the first image is synthesized; Combining means for determining a pixel value after applying the blurring process to the first pixel using
An image processing apparatus comprising:
(Appendix 2)
The edge component of the subject included in the first reduced image and the edge component of the subject included in the second reduced image obtained by reducing the second image obtained by capturing the subject while focusing on the second focus position And a blur map generating means for generating a blur map including a blur intensity value indicating a blur intensity for each pixel included in the first image based on the comparison result,
Further comprising
In the synthesis of the blurred image, the synthesizing unit refers to the blur intensity associated with the first pixel from the blur map, and refers to the blur that is referred to from the pixel values of the plurality of blur source pixels and the first pixel. Determine the pixel value corresponding to the intensity,
The image processing apparatus according to appendix 1, wherein:
(Appendix 3)
The synthesizing unit acquires a blur intensity value for the first pixel included in the first image from the blur map, selects the blur original image according to the acquired blur intensity value, and selects the selected A pixel value to be used for the composition is determined from a pixel value of a second pixel at a position corresponding to the position of the first pixel among the pixels included in the blur original image, and the determined pixel value is Set the pixel value of the first pixel;
The image processing apparatus according to Supplementary Note 2, wherein
(Appendix 4)
The synthesizing unit includes: the first blur original image associated with the lower limit value of the range including the acquired blur intensity value; and the second blur original image associated with the upper limit value of the range. A first pixel value that is a pixel value of a pixel at a position corresponding to the position of the first pixel among the pixels included in the first blur original image, and the second blur original image. An interpolation value obtained by complementing a second pixel value that is a pixel value of a pixel at a position corresponding to the position of the first pixel in the included image with a ratio of the blur intensity value in the range; Setting the calculated interpolation value to the pixel value of the first pixel;
The image processing apparatus according to appendix 3, characterized in that:
(Appendix 5)
The first reduced image is a plurality of reduced images obtained by reducing the first image at different ratios.
The image processing apparatus according to Supplementary Note 2, wherein
(Appendix 6)
The synthesizing unit acquires a blur intensity value for the first pixel included in the first image from the blur map, selects the blur original image according to the acquired blur intensity value, and selects the selected A pixel value to be used for the synthesis is calculated from pixel values of a plurality of pixels surrounding a position corresponding to the position of the first pixel among pixels included in the blur original image, and the calculated pixel value is calculated as the first pixel value. Set the pixel value of one pixel,
The image processing apparatus according to appendix 5, characterized in that:
(Appendix 7)
The synthesizing unit includes: the first blur original image associated with the lower limit value of the range including the acquired blur intensity value; and the second blur original image associated with the upper limit value of the range. The ratio of the position of the first pixel between the pixels is selected from pixel values of a plurality of pixels surrounding the position corresponding to the position of the first pixel among the pixels included in the first blur original image. The complemented first pixel value is calculated, and pixel values of a plurality of pixels surrounding a position corresponding to the position of the first pixel among the pixels included in the second blur original image are calculated. A second pixel value complemented by a ratio of the position of one pixel is calculated, and an interpolation value is calculated by complementing the first pixel value and the second pixel value by a ratio of a blur intensity value in the range. The calculated interpolation value is set to the pixel value of the first pixel. ,
The image processing apparatus according to appendix 6, wherein:
(Appendix 8)
The blur map generating means includes
Smoothing means for smoothing a region where pixel values of pixels included in the first reduced image and the second reduced image change discontinuously;
A blur intensity value calculating means for calculating the blur intensity value from a difference between pixel values of the first reduced image and the second reduced image, and generating the blur map including the blur intensity value for each pixel;
When the sum of the difference values in the area of the predetermined size in the blur map exceeds a threshold value, a blur intensity value equal to or less than the threshold value among blur intensity values included in the area of the predetermined size is a predetermined value exceeding the threshold value. Correction means for correcting to,
The image processing apparatus according to appendix 2, further comprising:
(Appendix 9)
A first image obtained by imaging a subject with a focus on the first in-focus position and a first reduced image obtained by reducing the first image are acquired from the storage unit;
Generating a plurality of blur original images obtained by blurring the first reduced image with different blur intensities;
A blur original image selected from the plurality of blur original images and the first image are combined to generate a blur image including a blur region having a blur intensity different in part or all.
Image processing method.
(Appendix 10)
A first image obtained by imaging a subject with a focus on the first in-focus position and a first reduced image obtained by reducing the first image are acquired from the storage unit;
Generating a plurality of blur original images obtained by blurring the first reduced image with different blur intensities;
A blur original image selected from the plurality of blur original images and the first image are combined to generate a blur image including a blur region having a blur intensity different in part or all.
An image processing program for causing an information processing apparatus to execute processing.
(Appendix 11)
Imaging means for focusing on the first in-focus position and imaging a subject to generate a first image;
Reduced image generating means for reducing the first image to generate a first reduced image;
Image generating means for generating a plurality of original images of blurring the first reduced image with different blur strengths;
A synthesizing unit that synthesizes the blur original image selected from the plurality of blur original images and the first image to generate a blur image including a blur region having a different blur intensity in part or all;
An information processing apparatus comprising:

300 画像処理装置
310 画像生成手段
320 合成手段
330 第1の画像
340 第1の縮小画像
350 ぼかし元画像
300 Image Processing Device 310 Image Generation Unit 320 Composition Unit 330 First Image 340 First Reduced Image 350 Blur Original Image

Claims (6)

第1の合焦位置に焦点を合わせて被写体を撮像した第1の画像を縮小した第1の縮小画像から、異なるぼかし強度を用いてぼかし処理を適用した複数のぼかし元画像を生成する画像生成手段と、
前記第1の画像に含まれる画素である第1画素に対してぼかし処理を適用したぼかし画像を合成する際に、前記第1画素の位置に対応する前記ぼかし元画像の画素である第2画素を用いて前記第1画素に対するぼかし処理適用後の画素値を決定する合成手段と、
を備える画像処理装置。
Image generation for generating a plurality of blur original images to which blur processing is applied using different blur intensities, from a first reduced image obtained by reducing a first image obtained by imaging a subject while focusing on a first focus position Means,
A second pixel that is a pixel of the original image corresponding to the position of the first pixel when a blurred image obtained by applying a blurring process to the first pixel that is a pixel included in the first image is synthesized; Combining means for determining a pixel value after applying the blurring process to the first pixel using
An image processing apparatus comprising:
前記第1の縮小画像に含まれる被写体のエッジ成分と、第2の合焦位置に焦点を合わせて前記被写体を撮像した第2の画像を縮小した第2の縮小画像に含まれる被写体のエッジ成分とを比較し、該比較結果に基づいて、前記第1の画像に含まれる画素毎のぼかし強度を示すぼかし強度値を含むぼかしマップを生成するぼかしマップ生成手段、
をさらに備え、
前記合成手段は、前記ぼかし画像の合成において、前記第1画素に対応付けられたぼかし強度を前記ぼかしマップから参照し、前記複数のぼかし元画素および第1の画素の画素値から前記参照したぼかし強度に対応する画素値を決定する、
ことを特徴とする請求項1に記載の画像処理装置。
The edge component of the subject included in the first reduced image and the edge component of the subject included in the second reduced image obtained by reducing the second image obtained by capturing the subject while focusing on the second focus position And a blur map generating means for generating a blur map including a blur intensity value indicating a blur intensity for each pixel included in the first image based on the comparison result,
Further comprising
In the synthesis of the blurred image, the synthesizing unit refers to the blur intensity associated with the first pixel from the blur map, and refers to the blur that is referred to from the pixel values of the plurality of blur source pixels and the first pixel. Determine the pixel value corresponding to the intensity,
The image processing apparatus according to claim 1.
前記第1の縮小画像は、前記第1の画像を異なる割合で縮小した複数の縮小画像である、
ことを特徴とする請求項2に記載の画像処理装置。
The first reduced image is a plurality of reduced images obtained by reducing the first image at different ratios.
The image processing apparatus according to claim 2.
第1の合焦位置に焦点を合わせて被写体を撮像した第1の画像と、前記第1の画像を縮小した第1の縮小画像と、を記憶手段から取得し、
前記第1の縮小画像を、異なるぼかし強度でぼかした複数のぼかし元画像を生成し、
前記複数のぼかし元画像から選択したぼかし元画像と、前記第1の画像とを合成して一部または全部にぼかし強度の異なるぼかし領域を含むぼかし画像を生成する、
画像処理方法。
A first image obtained by imaging a subject with a focus on the first in-focus position and a first reduced image obtained by reducing the first image are acquired from the storage unit;
Generating a plurality of blur original images obtained by blurring the first reduced image with different blur intensities;
A blur original image selected from the plurality of blur original images and the first image are combined to generate a blur image including a blur region having a blur intensity different in part or all.
Image processing method.
第1の合焦位置に焦点を合わせて被写体を撮像した第1の画像と、前記第1の画像を縮小した第1の縮小画像と、を記憶手段から取得し、
前記第1の縮小画像を、異なるぼかし強度でぼかした複数のぼかし元画像を生成し、
前記複数のぼかし元画像から選択したぼかし元画像と、前記第1の画像とを合成して一部または全部にぼかし強度の異なるぼかし領域を含むぼかし画像を生成する、
処理を情報処理装置に実行させる画像処理用プログラム。
A first image obtained by imaging a subject with a focus on the first in-focus position and a first reduced image obtained by reducing the first image are acquired from the storage unit;
Generating a plurality of blur original images obtained by blurring the first reduced image with different blur intensities;
A blur original image selected from the plurality of blur original images and the first image are combined to generate a blur image including a blur region having a blur intensity different in part or all.
An image processing program for causing an information processing apparatus to execute processing.
第1の合焦位置に焦点を合わせて被写体を撮像して第1の画像を生成する撮像手段と、
前記第1の画像を縮小して第1の縮小画像を生成する縮小画像生成手段と、
前記第1の縮小画像を、異なるぼかし強度でぼかした複数のぼかし元画像を生成する画像生成手段と、
前記複数のぼかし元画像から選択したぼかし元画像と、前記第1の画像とを合成して一部または全部にぼかし強度の異なるぼかし領域を含むぼかし画像を生成する合成手段と、
を備える情報処理装置。
Imaging means for focusing on the first in-focus position and imaging a subject to generate a first image;
Reduced image generating means for reducing the first image to generate a first reduced image;
Image generating means for generating a plurality of original images of blurring the first reduced image with different blur strengths;
A synthesizing unit that synthesizes the blur original image selected from the plurality of blur original images and the first image to generate a blur image including a blur region having a different blur intensity in part or all;
An information processing apparatus comprising:
JP2010203641A 2010-09-10 2010-09-10 Image processing apparatus, image processing method, and image processing program Expired - Fee Related JP5482589B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010203641A JP5482589B2 (en) 2010-09-10 2010-09-10 Image processing apparatus, image processing method, and image processing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010203641A JP5482589B2 (en) 2010-09-10 2010-09-10 Image processing apparatus, image processing method, and image processing program

Publications (2)

Publication Number Publication Date
JP2012060540A true JP2012060540A (en) 2012-03-22
JP5482589B2 JP5482589B2 (en) 2014-05-07

Family

ID=46057056

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010203641A Expired - Fee Related JP5482589B2 (en) 2010-09-10 2010-09-10 Image processing apparatus, image processing method, and image processing program

Country Status (1)

Country Link
JP (1) JP5482589B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014082533A (en) * 2012-10-12 2014-05-08 Casio Comput Co Ltd Image processing apparatus, image processing method and program
JP2014127964A (en) * 2012-12-27 2014-07-07 Canon Inc Image processing device, image processing method, and program
JP2015037215A (en) * 2013-08-12 2015-02-23 キヤノン株式会社 Image processing apparatus, image processing method and program

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10232929A (en) * 1996-12-20 1998-09-02 Canon Inc Method and device for processing image
JP2004133551A (en) * 2002-10-08 2004-04-30 Noritsu Koki Co Ltd Image processing method, image processor, image processing program and recording medium having image processing program recorded thereon
JP2006011539A (en) * 2004-06-22 2006-01-12 Namco Ltd Program, information storage medium, and image generating system
JP2008271240A (en) * 2007-04-20 2008-11-06 Fujifilm Corp Imaging apparatus, image processing apparatus, imaging method, and image processing method
JP2008294785A (en) * 2007-05-25 2008-12-04 Sanyo Electric Co Ltd Image processor, imaging apparatus, image file, and image processing method
JP2009177782A (en) * 2007-12-28 2009-08-06 Sanyo Electric Co Ltd Image processing apparatus and photographing apparatus
JP2009200560A (en) * 2008-02-19 2009-09-03 Casio Comput Co Ltd Imaging apparatus, imaging method, and program
JP2009284404A (en) * 2008-05-26 2009-12-03 Nec Corp Captured image synthesis method and digital camera

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10232929A (en) * 1996-12-20 1998-09-02 Canon Inc Method and device for processing image
JP2004133551A (en) * 2002-10-08 2004-04-30 Noritsu Koki Co Ltd Image processing method, image processor, image processing program and recording medium having image processing program recorded thereon
JP2006011539A (en) * 2004-06-22 2006-01-12 Namco Ltd Program, information storage medium, and image generating system
JP2008271240A (en) * 2007-04-20 2008-11-06 Fujifilm Corp Imaging apparatus, image processing apparatus, imaging method, and image processing method
JP2008294785A (en) * 2007-05-25 2008-12-04 Sanyo Electric Co Ltd Image processor, imaging apparatus, image file, and image processing method
JP2009177782A (en) * 2007-12-28 2009-08-06 Sanyo Electric Co Ltd Image processing apparatus and photographing apparatus
JP2009200560A (en) * 2008-02-19 2009-09-03 Casio Comput Co Ltd Imaging apparatus, imaging method, and program
JP2009284404A (en) * 2008-05-26 2009-12-03 Nec Corp Captured image synthesis method and digital camera

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014082533A (en) * 2012-10-12 2014-05-08 Casio Comput Co Ltd Image processing apparatus, image processing method and program
JP2014127964A (en) * 2012-12-27 2014-07-07 Canon Inc Image processing device, image processing method, and program
JP2015037215A (en) * 2013-08-12 2015-02-23 キヤノン株式会社 Image processing apparatus, image processing method and program

Also Published As

Publication number Publication date
JP5482589B2 (en) 2014-05-07

Similar Documents

Publication Publication Date Title
JP4720859B2 (en) Image processing apparatus, image processing method, and program
JP5754312B2 (en) Image processing apparatus, image processing method, and program
JP5792990B2 (en) Image processing apparatus and control method thereof
JP2016208307A (en) Image processing apparatus, control method therefor, and program
JP5984493B2 (en) Image processing apparatus, image processing method, imaging apparatus, and program
JPWO2013047405A1 (en) Image processing apparatus and method
US8094213B2 (en) Image processing apparatus, image processing method, and program in which an original image is modified with respect to a desired reference point set on a screen
KR20110035981A (en) Image processing apparatus, image processing method, and storage medium
JP5593683B2 (en) Imaging device
TW201246124A (en) Image generation apparatus
JP2008077501A (en) Image processing device and image processing control program
JP6486055B2 (en) Imaging apparatus, control method therefor, and program
JP5212046B2 (en) Digital camera, image processing apparatus, and image processing program
JP2007180851A (en) Gray scale transformation device, program and method for raw image, and electronic camera
JP5482589B2 (en) Image processing apparatus, image processing method, and image processing program
JP5455728B2 (en) Imaging apparatus, image processing apparatus, and image processing method
JP6541501B2 (en) IMAGE PROCESSING APPARATUS, IMAGING APPARATUS, AND IMAGE PROCESSING METHOD
JP2009005166A (en) Color interpolation device and image processing system
JP2006050042A (en) Image processing apparatus
JP2017143504A (en) Imaging device
JP2017143504A5 (en)
JP5197064B2 (en) Video camera
JP6494388B2 (en) Image processing apparatus, image processing method, and program
JP2019016893A (en) Image processing apparatus, control method therefor, and program
JP6135937B2 (en) Image processing method and image processing apparatus

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130702

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140115

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140121

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140203

R150 Certificate of patent or registration of utility model

Ref document number: 5482589

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees