JP2009177508A - Imaging apparatus, and image-effect adding program - Google Patents

Imaging apparatus, and image-effect adding program Download PDF

Info

Publication number
JP2009177508A
JP2009177508A JP2008014062A JP2008014062A JP2009177508A JP 2009177508 A JP2009177508 A JP 2009177508A JP 2008014062 A JP2008014062 A JP 2008014062A JP 2008014062 A JP2008014062 A JP 2008014062A JP 2009177508 A JP2009177508 A JP 2009177508A
Authority
JP
Japan
Prior art keywords
image
effect
region
mask
area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2008014062A
Other languages
Japanese (ja)
Other versions
JP5082884B2 (en
Inventor
Hiromi Tomii
宏美 冨井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2008014062A priority Critical patent/JP5082884B2/en
Publication of JP2009177508A publication Critical patent/JP2009177508A/en
Application granted granted Critical
Publication of JP5082884B2 publication Critical patent/JP5082884B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)
  • Editing Of Facsimile Originals (AREA)
  • Studio Devices (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To prevent the unnatural effect of an image effect added to an image while shortening a processing time adding the image effect. <P>SOLUTION: An imaging apparatus includes a region-extraction means extracting a region changing the image effect added to an original image as an object region from the original image obtained by imaging and an effect-setting means setting so that the image effect in the object region extracted by the region-extraction means and the image effect in the outside of the object region are made to differ mutually. The imaging apparatus further includes an image-generating means generating a mask image for the image effect added to the original image on the basis of the setting of the image effect by the effect-setting means and an image synthetic means synthesizing the mask image generated by the image-generating means to the original image. <P>COPYRIGHT: (C)2009,JPO&INPIT

Description

本発明は、撮像された画像に対して画像効果を施す撮像装置及び画像効果付加プログラムに関する。   The present invention relates to an imaging apparatus and an image effect addition program that apply an image effect to a captured image.

従来、例えばクロスフィルタをデジタルカメラのレンズに取り付けて撮像する、或いは撮像により得られた画像に対して、クロスフィルタと同様の画像効果を付加する処理を実行することで、画像効果が付加された画像を取得することが一般に行われている。   Conventionally, for example, a cross filter is attached to a lens of a digital camera to capture an image, or an image effect is added by executing processing for adding an image effect similar to that of a cross filter to an image obtained by imaging. It is common practice to acquire images.

例えば、撮像により得られた画像(以下、元画像)に対して画像効果を付加する処理を行う場合、元画像に対して直接画像効果を付加すると、画像効果を付加する処理に時間がかかることから、元画像を縮小した縮小画像から画像効果として用いる画像(以下、マスク画像)を作成し、作成されたマスク画像を元画像と同一の画角になるように拡大した後、元画像に合成している(特許文献1参照)。
特開2006−211321号公報
For example, when performing a process of adding an image effect to an image obtained by imaging (hereinafter referred to as an original image), if the image effect is directly added to the original image, the process of adding the image effect takes time. From the reduced image obtained by reducing the original image, an image to be used as an image effect (hereinafter referred to as a mask image) is created, and the created mask image is enlarged to the same angle of view as the original image, and then combined with the original image. (See Patent Document 1).
JP 2006-213121 A

上述した画像効果を付加する処理においては、画像を構成する各画素のうち輝度が高くなる画素を輝点として検出し、検出された輝点に基づいて画像効果を付加している。例えば画像効果としてクロスフィルタ効果を付加する場合には、予めクロスフィルタ効果として用いるクロスライン数はユーザ等により選択されたライン数、或いは予め設定されているライン数が用いられ、クロスラインの太さや長さは、検出された輝点の大きさに基づいて決定される。このように付加される画像効果は、画像から検出される輝点に依存していることから、画像によっては付加された画像効果が不自然となる場合がある。また、このような画像効果が不自然なものとならないようにするためには、画像に付加された画像効果の一部を輝点毎に変更する、又は、画像効果を付加するか否かを輝点毎に決定することも考えられるが、このような処理を行うことで、画像効果を付加する処理に時間がかかってしまう。   In the above-described processing for adding an image effect, a pixel having a high luminance among the pixels constituting the image is detected as a bright spot, and the image effect is added based on the detected bright spot. For example, when a cross filter effect is added as an image effect, the number of cross lines used as the cross filter effect in advance is the number of lines selected by the user or the like, or a preset number of lines is used. The length is determined based on the size of the detected bright spot. Since the added image effect depends on the bright spot detected from the image, the added image effect may be unnatural depending on the image. Further, in order to prevent such an image effect from becoming unnatural, whether or not to change a part of the image effect added to the image for each bright spot or to add an image effect is determined. Although it is conceivable to determine for each bright spot, by performing such processing, it takes time to add the image effect.

本発明は、上述した課題を解決するために発明されたものであり、画像に付加された画像効果が不自然なものとなるのを防止するとともに、画像効果を付加する処理時間を短縮することができるようにした撮像装置及び画像効果付加プログラムを提供することを目的とする。   The present invention has been invented in order to solve the above-described problems, and prevents an image effect added to an image from becoming unnatural and shortens a processing time for adding the image effect. An object of the present invention is to provide an imaging apparatus and an image effect addition program that can perform the above-described processing.

第1の発明の撮像装置は、撮像により得られた元画像から、該元画像に付加する画像効果を変える領域を対象領域として抽出する領域抽出手段と、前記領域抽出手段により抽出された前記対象領域内における画像効果と、前記対象領域外における画像効果とを異なるように設定する効果設定手段と、前記効果設定手段による前記画像効果の設定に基づいて、前記元画像に付加する画像効果用のマスク画像を生成する画像生成手段と、前記画像生成手段により生成されたマスク画像を、前記元画像に合成する画像合成手段と、を備えたことを特徴とする。なお、画像効果を異なるように設定するとは、例えば対象領域内か対象領域外かによって画像効果の内容を変える他に、画像効果の強弱を変えることが挙げられる。   An image pickup apparatus according to a first aspect of the present invention includes an area extraction unit that extracts, as a target area, an area that changes an image effect added to the original image, from the original image obtained by imaging, and the target extracted by the area extraction unit An effect setting means for setting the image effect within the area different from the image effect outside the target area; and an image effect for adding to the original image based on the setting of the image effect by the effect setting means. An image generating means for generating a mask image, and an image combining means for combining the mask image generated by the image generating means with the original image are provided. Note that setting the image effect differently includes, for example, changing the strength of the image effect in addition to changing the content of the image effect depending on whether the image effect is within or outside the target region.

第2の発明は、第1の発明において、前記画像効果を付加する際に用いる注目領域を前記元画像から検出する注目領域検出手段を備え、前記効果設定手段は、前記対象領域にある前記注目領域に対して付加する画像効果を、前記対象領域から外れる注目領域に対して付加する画像効果よりも強調するように、各注目領域に対する画像効果を設定することを特徴とする。   According to a second aspect of the present invention, in the first aspect, the image processing apparatus includes attention area detection means for detecting an attention area used when adding the image effect from the original image, and the effect setting means includes the attention area in the target area. The image effect for each region of interest is set so that the image effect to be added to the region is more emphasized than the image effect to be added to the region of interest outside the target region.

第3の発明は、第1又は第2の発明において、前記効果設定手段は、前記対象領域から外れる注目領域に対する画像効果を付加しないように設定することを特徴とする。   A third invention is characterized in that, in the first or second invention, the effect setting means sets so as not to add an image effect to a region of interest outside the target region.

第4の発明は、第2又は第3の発明において、前記注目領域検出手段は、前記元画像を構成する各画素から、輝度が高くなる画素を注目領域として検出することを特徴とする。   A fourth invention is characterized in that, in the second or third invention, the attention area detection means detects, as an attention area, a pixel having a high luminance from each pixel constituting the original image.

第5の発明は、第2〜4の発明のいずれかにおいて、前記元画像を縮小する画像縮小手段を備え、前記領域抽出手段による前記対象領域の抽出及び前記注目領域検出手段による前記注目領域の検出は、前記画像縮小手段により縮小された元画像を用いることで実行され、前記画像生成手段は、縮小された元画像と同一の画角となるように前記マスク画像を生成することを特徴とする。   According to a fifth aspect of the present invention, in any one of the second to fourth aspects, the image reduction means for reducing the original image is provided, and the extraction of the target area by the area extraction means and the attention area by the attention area detection means. Detection is performed by using the original image reduced by the image reduction means, and the image generation means generates the mask image so as to have the same angle of view as the reduced original image. To do.

第6の発明は、第5の発明において、前記マスク画像を前記元画像と同一の画角となるように拡大する画像拡大手段を備え、前記画像合成手段は、前記拡大されたマスク画像と元画像とを合成することを特徴とする。   According to a sixth aspect of the present invention, in the fifth aspect of the present invention, the image processing device further includes an image enlarging unit that expands the mask image so as to have the same angle of view as the original image. It is characterized by combining with an image.

第7の発明は、第6の発明において、前記画像生成手段により作成されたマスク画像に対してフィルタ処理を施すフィルタ処理手段をさらに備え、前記画像拡大手段は、前記フィルタ処理が施されたマスク画像を拡大することを特徴とする。   According to a seventh invention, in the sixth invention, the image processing device further includes a filter processing unit that performs a filter process on the mask image created by the image generation unit, and the image enlargement unit includes the mask subjected to the filter process. It is characterized by enlarging the image.

第8の発明は、第1〜第7の発明のいずれかにおいて、前記マスク画像は、予め設定されたパターンが画像効果用として配置された画像からなり、前記効果設定手段は、前記対象領域内に配置されるパターンと、前記対象領域外に配置されるパターンとの大きさを異なるように設定することを特徴とする。   According to an eighth invention, in any one of the first to seventh inventions, the mask image is an image in which a preset pattern is arranged for an image effect, and the effect setting means is provided in the target area. And the pattern arranged outside the target area are set to have different sizes.

第9の発明は、第8の発明において、前記パターンは、複数のラインを放射状に延出させた形状からなり、前記効果設定手段は、前記対象領域内か否かによって、前記パターンを構成するラインの数を異なるように設定することを特徴とする。   In a ninth aspect based on the eighth aspect, the pattern has a shape in which a plurality of lines are radially extended, and the effect setting means configures the pattern depending on whether or not it is within the target region. The number of lines is set to be different.

第10の発明の画像効果付加プログラムは、撮像により得られた元画像に対する画像効果を変える対象領域を、前記元画像から抽出するステップと、前記領域抽出手段により抽出された前記対象領域内における画像効果と、前記対象領域外における画像効果とを異なるように設定するステップと、前記効果設定手段による前記画像効果の設定に基づいて、前記元画像に付加する画像効果用のマスク画像を生成するステップと、前記画像生成手段により生成されたマスク画像を、前記元画像に合成するステップと、をコンピュータに実行させることを特徴とする。   An image effect addition program according to a tenth aspect of the present invention is a method for extracting a target area for changing an image effect on an original image obtained by imaging from the original image, and an image in the target area extracted by the area extraction unit. A step of setting an effect different from an image effect outside the target region, and a step of generating a mask image for an image effect to be added to the original image based on the setting of the image effect by the effect setting means And causing the computer to execute a step of combining the mask image generated by the image generating means with the original image.

本発明によれば、元画像に基づいて画像効果用のマスク画像における画像効果が領域によって異なるように設定されるので、画像効果用の画像と元画像とを合成したときに得られる合成画像が不自然な画像になることを防止することができる。また、予め画像効果の強弱を変更する場合に、画像効果を付与しない場合もあることから、画像効果を付与する処理時間を短縮することができる。   According to the present invention, since the image effect in the image effect mask image is set to be different depending on the region based on the original image, a composite image obtained when the image effect image and the original image are combined is obtained. An unnatural image can be prevented. In addition, when the strength of the image effect is changed in advance, the image effect may not be applied, so that the processing time for applying the image effect can be shortened.

図1は、デジタルカメラ10の構成の一例を示す概略図である。このデジタルカメラ10は、CPU15によって統括制御される。このCPU15には操作部16やレリーズボタン17の操作信号が入力されることから、CPU15は、入力される操作信号に基づいてデジタルカメラ10の各部を制御する。   FIG. 1 is a schematic diagram illustrating an example of the configuration of the digital camera 10. The digital camera 10 is centrally controlled by the CPU 15. Since the operation signals of the operation unit 16 and the release button 17 are input to the CPU 15, the CPU 15 controls each unit of the digital camera 10 based on the input operation signals.

撮像光学系20は、撮像レンズ21の他に、ズームレンズ22やフォーカスレンズ23を備えている。ズームレンズ22は、撮像時の撮像倍率を変更する際にレンズ駆動機構24によって光軸方向に沿って移動される。フォーカスレンズ23は、撮像時における焦点調節を行う際に、レンズ駆動機構24によって光軸方向に微小移動される。なお、ズームレンズ22とフォーカスレンズ23とをレンズ駆動機構24にて移動させているが、これに限定される必要はなく、それぞれのレンズを異なるレンズ駆動機構で移動させてよい。   The imaging optical system 20 includes a zoom lens 22 and a focus lens 23 in addition to the imaging lens 21. The zoom lens 22 is moved along the optical axis direction by the lens driving mechanism 24 when changing the imaging magnification at the time of imaging. The focus lens 23 is finely moved in the optical axis direction by the lens driving mechanism 24 when performing focus adjustment during imaging. The zoom lens 22 and the focus lens 23 are moved by the lens driving mechanism 24. However, the present invention is not limited to this, and the respective lenses may be moved by different lens driving mechanisms.

CCD25は、撮像光学系20を介して入射される被写体光を受光し、受光した光量に応じた信号電荷を蓄積することで、被写体光を光電変換する。なお、このCCD25における信号電荷の蓄積や蓄積された信号電荷の出力は、ドライバ26によって制御される。   The CCD 25 receives subject light incident via the imaging optical system 20, and photoelectrically converts the subject light by accumulating signal charges corresponding to the received light amount. The accumulation of signal charges in the CCD 25 and the output of the accumulated signal charges are controlled by the driver 26.

CCD25によって蓄積された信号電荷は、アナログ画像信号としてAFE回路27に出力される。このAFE回路27は、図示しないAGC回路やCDS回路を含んで構成される。AFE回路27は、入力されたアナログ画像信号に対してゲインコントロール、雑音除去などのアナログ処理を施す。   The signal charge accumulated by the CCD 25 is output to the AFE circuit 27 as an analog image signal. The AFE circuit 27 includes an AGC circuit and a CDS circuit (not shown). The AFE circuit 27 performs analog processing such as gain control and noise removal on the input analog image signal.

DFE回路28は、AFE回路27によってアナログ処理が施されたアナログ画像信号をデジタル画像信号に変換する。変換されたデジタル画像信号は1コマ毎にまとめられ、デジタル画像データとしてバッファメモリ30に記憶される。なお、ドライバ26、AFE回路27及びDFE回路28は、それぞれタイミングジェネレータ(TG)31における作動タイミングに基づいて制御される。また、符号32はバスであり、このバス32を介してデジタルカメラ10の各部が電気的に接続される。   The DFE circuit 28 converts the analog image signal subjected to the analog processing by the AFE circuit 27 into a digital image signal. The converted digital image signals are collected frame by frame and stored in the buffer memory 30 as digital image data. The driver 26, the AFE circuit 27, and the DFE circuit 28 are controlled based on the operation timing in the timing generator (TG) 31, respectively. Reference numeral 32 denotes a bus, and each part of the digital camera 10 is electrically connected via the bus 32.

画像処理部35は、バッファメモリ30に記憶されたデジタル画像データに対して、輪郭補償、ガンマ補正、ホワイトバランス調整などの画像処理を施す。この画像処理が施されたデジタル画像データは例えばJPEG方式などの記憶方式で圧縮するためのフォーマット処理(画像後処理)が施された後、再度バッファメモリ30に記憶される。このバッファメモリ30に記憶されたデジタル画像データは、所定の圧縮方式に対応する圧縮率を用いて圧縮処理される。   The image processing unit 35 performs image processing such as contour compensation, gamma correction, and white balance adjustment on the digital image data stored in the buffer memory 30. The digital image data subjected to this image processing is subjected to format processing (image post-processing) for compression by a storage method such as the JPEG method, and then stored in the buffer memory 30 again. The digital image data stored in the buffer memory 30 is compressed using a compression rate corresponding to a predetermined compression method.

例えばデジタルカメラ10に設けられたLCDモニタ36にスルー画像を表示する場合には、画像処理後のデジタル画像データに対して、LCDモニタ36の解像度に合わせた圧縮率を用いて圧縮処理を実行し、表示制御部37に出力する。   For example, when a through image is displayed on the LCD monitor 36 provided in the digital camera 10, compression processing is executed on the digital image data after the image processing using a compression rate that matches the resolution of the LCD monitor 36. And output to the display control unit 37.

一方、デジタル画像データを記憶する場合には、画像記憶用に合わせた圧縮率を用いた圧縮処理が施され、内蔵メモリ38に記憶される。この内蔵メモリ38に格納されたデジタル画像データは、メディアコントローラ39を介して、メモリカードや光学ディスクなどの記憶媒体40に書き込まれる。なお、画像記憶用に合わせた圧縮率としては、予めデジタルカメラ10において設定される画像記憶用の解像度に合わせた圧縮率の他、予めユーザが操作部16を操作することにより設定した解像度に合わせた圧縮率が挙げられる。   On the other hand, when storing digital image data, a compression process using a compression rate suitable for image storage is performed and stored in the built-in memory 38. The digital image data stored in the built-in memory 38 is written into a storage medium 40 such as a memory card or an optical disk via the media controller 39. As the compression rate for image storage, in addition to the compression rate set for the image storage resolution set in advance in the digital camera 10, the compression rate is set according to the resolution set by the user operating the operation unit 16 in advance. Compression rate.

ストロボ装置41は、例えば測光センサ43における被写体の輝度が所定値以下となる場合に、被写体に向けてストロボ光を発光する。このストロボ装置41におけるストロボ光の発光タイミングや発光量はストロボ制御部42によって制御される。   The strobe device 41 emits strobe light toward the subject when, for example, the luminance of the subject in the photometric sensor 43 is a predetermined value or less. The strobe light emission timing and amount of light emitted from the strobe device 41 are controlled by a strobe control unit 42.

画像拡縮部50は、内蔵メモリ38に記憶された元画像データを所定の縮小率にて縮小処理する他に、画像効果用として生成されるマスク画像データを所定の拡大率にて拡大する。なお、後述するマスク画像データを作成する際の処理を高速とするためには、上述した縮小率を上げれば良いことになるが、マスク画像データを拡大するときの拡大率も上げる必要があり、拡大した後のマスク画像における画質が低下してしまう。そこで、マスク画像データを作成するときの元画像データの縮小率は、処理速度とマスク画像の画質とを考慮して設定される。一方、拡大率は、マスク画像の大きさが元画像の大きさと同一になる拡大率である。なお、画像データを縮小する方法、及び拡大する方法としては、周知のバイリニア法や、バイキュービック法が挙げられる。   In addition to reducing the original image data stored in the built-in memory 38 at a predetermined reduction ratio, the image enlargement / reduction section 50 enlarges the mask image data generated for the image effect at a predetermined enlargement ratio. In order to increase the processing speed when creating mask image data, which will be described later, it is only necessary to increase the reduction ratio described above, but it is also necessary to increase the enlargement ratio when the mask image data is enlarged. The image quality of the enlarged mask image is degraded. Therefore, the reduction rate of the original image data when creating the mask image data is set in consideration of the processing speed and the image quality of the mask image. On the other hand, the enlargement ratio is an enlargement ratio at which the size of the mask image is the same as the size of the original image. As a method for reducing and enlarging image data, a well-known bilinear method and a bicubic method can be cited.

画像生成部51は、元画像データに合成する画像効果用のマスク画像データを生成する。例えばマスク画像データをLCDモニタ36に表示すると、縮小画像と同一の画角からなるマスク画像MIが表示される(図2参照)。このマスク画像MIは、例えば黒色となる背景(図2の点で示すハッチングの領域65)に対して、輝度の高い色彩のクロスパターン66、67などのパターンが配置された画像である。以下では、クロスパターンが配置されたマスク画像について説明する。   The image generation unit 51 generates mask image data for image effect to be combined with the original image data. For example, when mask image data is displayed on the LCD monitor 36, a mask image MI having the same angle of view as the reduced image is displayed (see FIG. 2). The mask image MI is an image in which patterns such as cross patterns 66 and 67 having high luminance are arranged on a black background (hatched area 65 indicated by a dot in FIG. 2), for example. Hereinafter, a mask image on which a cross pattern is arranged will be described.

周知のように、クロスパターン66、67は、後述する注目領域の中心となる画素を基点とした複数のラインが、それぞれ放射状に延出された形状からなる。これらクロスパターンの大きさ(複数のラインの長さや太さ)は、後述する画像効果設定部57にて設定される。また、クロスパターン66,67の色彩は、後述する色彩情報取得部57によって取得された色彩情報を用いて決定される。詳細には、クロスパターン66,67の中心側から各ラインの先端に向けて輝度が低くなるように各画素の階調値が決定される。   As is well known, the cross patterns 66 and 67 each have a shape in which a plurality of lines starting from a pixel that is the center of a region of interest described later are radially extended. The size of these cross patterns (the length and thickness of a plurality of lines) is set by an image effect setting unit 57 described later. The colors of the cross patterns 66 and 67 are determined using color information acquired by a color information acquisition unit 57 described later. Specifically, the gradation value of each pixel is determined so that the luminance decreases from the center side of the cross patterns 66 and 67 toward the tip of each line.

この画像生成部51は、領域抽出部55、注目領域検出部56、色彩情報取得部57及び画像効果設定部58を備えている。領域抽出部55は、元画像に付加される画像効果を変える領域(以下、対象領域)を縮小された元画像を用いて抽出する。詳細には、画像効果用のマスク画像に配置されるクロスパターンの大きさを変える領域を対象領域として縮小された元画像から抽出する。この対象領域を抽出する方法の1つとしては、パターンマッチングが挙げられる。パターンマッチングについては周知であるので、ここではその詳細は省略する。このパターンマッチング用の画像としては、例えば橋等の建造物や、木などの対象物を被写体とする画像が挙げられ、これらパターンマッチング用の画像は、予め内蔵メモリ38に記憶される。このパターンマッチングを行うことで元画像から建造物や木などの対象物が検出された場合には、抽出された対象物を構成する画素及びその近傍となる画素を含む領域を対象領域として抽出する。   The image generation unit 51 includes an area extraction unit 55, an attention area detection unit 56, a color information acquisition unit 57, and an image effect setting unit 58. The region extraction unit 55 extracts a region (hereinafter referred to as a target region) that changes the image effect added to the original image using the reduced original image. Specifically, an area for changing the size of the cross pattern arranged in the mask image for image effect is extracted from the reduced original image as a target area. One method for extracting the target area is pattern matching. Since pattern matching is well known, its details are omitted here. Examples of the image for pattern matching include an image having a subject such as a building such as a bridge or an object such as a tree. The pattern matching image is stored in the built-in memory 38 in advance. When an object such as a building or a tree is detected from the original image by performing this pattern matching, an area including the pixels constituting the extracted object and its neighboring pixels is extracted as the object area. .

注目領域検出部56は、上述したクロスパターンなどの画像効果を付加する領域(以下、注目領域)を縮小画像から検出する。この注目領域抽出部56は、縮小画像を構成する複数の画素のそれぞれにおける輝度を参照して輝度の高い画素を抜き出した後、これら抜き出された画素のうち、略円形、又は略楕円形となるように複数の画素が隣接された領域を注目領域として抽出する。なお、注目領域が抽出されたときには、注目領域の中心となる画素も併せて求められる。   The attention area detection unit 56 detects an area to which an image effect such as the above-described cross pattern is added (hereinafter, attention area) from the reduced image. The attention area extraction unit 56 refers to the luminance in each of the plurality of pixels constituting the reduced image, extracts high-luminance pixels, and then selects a substantially circular or substantially elliptical shape from these extracted pixels. An area where a plurality of pixels are adjacent to each other is extracted as an attention area. When the attention area is extracted, the pixel that is the center of the attention area is also obtained.

色彩情報取得部57は、注目領域検出部56によって検出された注目領域の周縁の画素のうち、輝度が略同一となる画素の階調値の平均値を色彩情報として取得する。この色彩情報を用いて、生成されるクロスパターンを構成する各画素の階調値が決定される。   The color information acquisition unit 57 acquires, as color information, an average value of gradation values of pixels having substantially the same luminance among the peripheral pixels of the attention region detected by the attention region detection unit 56. Using this color information, the gradation value of each pixel constituting the generated cross pattern is determined.

画像効果設定部58は、画像効果用のマスク画像に配置されるクロスパターンの大きさを設定する。図2に示すように、図中二点鎖線で示される領域68が対象領域(以下、対象領域68)となる場合、対象領域68から外れた注目領域に対しては、注目領域の大きさに基づいてクロスパターンが設定される。   The image effect setting unit 58 sets the size of the cross pattern arranged in the image effect mask image. As shown in FIG. 2, when a region 68 indicated by a two-dot chain line in the figure is a target region (hereinafter, target region 68), the size of the target region is set for a target region that is out of the target region 68. Based on this, a cross pattern is set.

一方、対象領域68にある注目領域に対しては、注目領域に基づいて設定されるクロスパターンの所定倍率となる大きさ(例えば、1.2倍の大きさ)のクロスパターンとなるように設定される。これにより、注目領域が対象領域68にあるか否かによって画像効果の強弱が設定される。   On the other hand, the attention area in the target area 68 is set to have a cross pattern having a size (for example, 1.2 times as large) as a predetermined magnification of the cross pattern set based on the attention area. Is done. Thus, the strength of the image effect is set depending on whether or not the attention area is in the target area 68.

なお、注目領域の大きさに合わせてクロスパターンを設定する場合、注目領域の大きさとクロスパターンの大きさとを対応付けたテーブルデータを予め内蔵メモリに記憶させておき、このテーブルデータを参照してクロスパターンの大きさを設定すればよい。   When the cross pattern is set in accordance with the size of the region of interest, table data in which the size of the region of interest and the size of the cross pattern are associated with each other is stored in advance in the internal memory, and the table data is referred to. What is necessary is just to set the magnitude | size of a cross pattern.

フィルタ処理部59は、生成されたマスク画像データに対してローパスフィルタ(LPF)処理を行う。図3に示すように、LPF処理としては、3×3の計9個の画素71〜79のうち、中心にある画素75に対する重み付けを「2」とし、画素71〜74及び画素76〜79に対する重み付けを「1」としたコンボリューション演算を行う処理が挙げられる。例えば3×3の計9個の画素71〜79について述べると、画素77が赤色、画素74、78がピンク色、画素71〜73、画素75,76及び画素79が白色からなる場合には、このLPF処理を行うことで、画素75が白色から薄いピンク色となる。この処理は、マスク画像を構成する全ての画素を用いて行われることから、マスク画像中のパターンと背景との境界がはっきりした画像を、パターンと背景との境界をぼかした画像に加工することができる。   The filter processing unit 59 performs low-pass filter (LPF) processing on the generated mask image data. As shown in FIG. 3, among the 3 × 3 total of nine pixels 71 to 79, the LPF process sets the weight for the pixel 75 at the center to “2” and applies to the pixels 71 to 74 and the pixels 76 to 79. A process for performing a convolution operation with a weighting of “1” is exemplified. For example, a total of nine pixels 71 to 79 of 3 × 3 are described. When the pixel 77 is red, the pixels 74 and 78 are pink, the pixels 71 to 73, the pixels 75 and 76, and the pixel 79 are white, By performing this LPF process, the pixel 75 changes from white to light pink. Since this processing is performed using all the pixels that make up the mask image, an image with a clear boundary between the pattern and the background in the mask image is processed into an image with a blurred boundary between the pattern and the background. Can do.

画像合成部60は、画像生成部51にて生成されたマスク画像データと縮小画像データとを合成する、或いは、画像拡縮部50で拡大されたマスク画像データと元画像データとを合成する。画像合成部60によって合成された画像データは、内蔵メモリ38に記憶される。   The image synthesis unit 60 synthesizes the mask image data and the reduced image data generated by the image generation unit 51, or synthesizes the mask image data enlarged by the image enlargement / reduction unit 50 and the original image data. The image data synthesized by the image synthesis unit 60 is stored in the built-in memory 38.

次に、デジタルカメラ10において撮像された画像データに画像効果を付加する際の処理手順について、図4のフローチャートに基づいて説明する。デジタルカメラ10によって撮像処理が実行されると、撮像により取得された画像データを元画像データとした上で、ステップS101に進む。   Next, a processing procedure for adding an image effect to image data captured by the digital camera 10 will be described with reference to the flowchart of FIG. When the imaging process is executed by the digital camera 10, the image data acquired by imaging is used as original image data, and the process proceeds to step S <b> 101.

ステップS101は、元画像データから縮小画像データを作成する処理である。なお、このステップS101の処理により、元画像データとは別に縮小画像データが作成され、内蔵メモリ38に記憶される。   Step S101 is processing for creating reduced image data from original image data. Note that reduced image data is created separately from the original image data and stored in the built-in memory 38 by the processing in step S101.

ステップS102は、ステップS101において作成された縮小画像データを用いてマスク画像データを生成する処理である。このマスク画像データを作成する処理については後述する。なお、生成されたマスク画像データを表示すると、黒色の背景に対して、単数、或いは複数のクロスパターンが配置されたマスク画像となる(例えば図2参照)。   Step S102 is processing for generating mask image data using the reduced image data created in step S101. The process for creating the mask image data will be described later. When the generated mask image data is displayed, it becomes a mask image in which one or a plurality of cross patterns are arranged on a black background (see, for example, FIG. 2).

ステップS103は、ステップS102にて生成されたマスク画像データに対するLPF処理である。マスク画像データに対してLPF処理を行うことで、マスク画像が、クロスパターンと背景との境界をぼかした画像になる。   Step S103 is an LPF process for the mask image data generated in step S102. By performing LPF processing on the mask image data, the mask image becomes an image in which the boundary between the cross pattern and the background is blurred.

ステップS104は、縮小画像データと、マスク画像データとを合成する処理である。   Step S104 is a process of combining the reduced image data and the mask image data.

ステップS105は、ステップS104の処理を実行することで得られた合成画像データを用いてLCDモニタ36に表示する処理である。   Step S105 is a process of displaying on the LCD monitor 36 using the composite image data obtained by executing the process of step S104.

ステップS106は、合成された画像データの画像効果を変更するか否かが選択される処理である。例えば、合成された画像データに対して画像効果を変更しない場合にはステップS107に進み、合成された画像データに対して画像効果を変更する場合にはステップS102に戻る。なお、画像効果を変更するとは、例えば合成するマスク画像に配置されるパターンをクロスパターンから他のパターンに変更する、又は、クロスパターンのライン数、クロスパターンの各ラインの角度や大きさを変更することが挙げられる。   Step S106 is processing for selecting whether or not to change the image effect of the combined image data. For example, when the image effect is not changed for the synthesized image data, the process proceeds to step S107, and when the image effect is changed for the synthesized image data, the process returns to step S102. Note that changing the image effect means, for example, changing the pattern arranged in the mask image to be combined from the cross pattern to another pattern, or changing the number of lines of the cross pattern and the angle and size of each line of the cross pattern. To do.

ステップS107は、マスク画像データを拡大する処理である。ステップ103の処理を行うことで、マスク画像データは、背景とクロスパターンとの境界がぼけた画像からなることから、ステップS107によりマスク画像データを拡大しても、マスク画像データの画質を劣化させずに済む。   Step S107 is processing for enlarging the mask image data. By performing the processing in step 103, the mask image data is an image in which the boundary between the background and the cross pattern is blurred. Therefore, even if the mask image data is enlarged in step S107, the image quality of the mask image data is degraded. You do n’t have to.

ステップS108は、元画像データと拡大したマスク画像データとを合成する処理である。ステップS107によって拡大されたマスク画像データは、その画質は劣化していないことから、元画像に合成されたクロスパターンに対して違和感を与えることがない。これにより、クロススクリーンフィルタを用いて撮像を行うことで得られる画像と同等の画像を、擬似的に、また、高速に作成することができる。なお、ステップS109は、作成された合成画像データを内蔵メモリ38に記憶する処理である。これにより、画像効果が付加された画像データを高速で取得することができる。   Step S108 is a process of combining the original image data and the enlarged mask image data. Since the image quality of the mask image data enlarged in step S107 has not deteriorated, there is no sense of incongruity with the cross pattern synthesized with the original image. As a result, an image equivalent to an image obtained by imaging using a cross screen filter can be created in a pseudo and high speed manner. Step S109 is processing for storing the created composite image data in the built-in memory 38. Thereby, the image data to which the image effect is added can be acquired at high speed.

次に、マスク画像データを生成する処理(図4中ステップS102)について、図5のフローチャートを用いて説明する。   Next, the process of generating mask image data (step S102 in FIG. 4) will be described using the flowchart of FIG.

ステップS201は、対象領域を抽出する処理である。この対象領域の抽出は、ステップS101の処理で作成された縮小画像データが用いられる。例えば、図6(a)に示すように、クリスマスツリーを撮像した画像の場合には、クリスマスツリーが対象物として抽出されるので、クリスマスツリー、及びその周縁の領域を対象領域(図中二点鎖線でしめす領域80)として抽出する。一方、図6(b)に示すように、ボールを蹴る少年を撮像した画像の場合には、画像内に対象物が存在しないことから、このような画像の場合には、対象領域は抽出されない。この図6(b)の場合、例えばボールや靴などが照明光により輝度が高くなっている場合であっても、これら領域は対象領域として抽出されない。   Step S201 is processing for extracting a target area. For the extraction of the target area, the reduced image data created in the process of step S101 is used. For example, as shown in FIG. 6A, in the case of an image obtained by capturing a Christmas tree, the Christmas tree is extracted as an object. Extracted as a region 80) indicated by a chain line. On the other hand, as shown in FIG. 6 (b), in the case of an image obtained by imaging a boy kicking a ball, there is no object in the image, so in such an image, the target region is not extracted. . In the case of FIG. 6B, for example, even when the brightness of a ball or shoes is increased by illumination light, these areas are not extracted as target areas.

ステップS202は、縮小画像データを用いて、注目領域を検出する処理である。ステップS202においては、縮小画像を構成する画素のうち、輝度の高い画素を抽出し、抽出された画素のうち、複数の画素が略円形又は略楕円形となるように隣り合う領域を注目領域として検出する。この注目領域の検出時に、その中心となる画素が特定される。図6(a)においては、例えば符号81〜85に示す領域が注目領域として検出される。   Step S202 is processing for detecting a region of interest using reduced image data. In step S202, a pixel having a high luminance is extracted from the pixels constituting the reduced image, and an adjacent region is selected as a region of interest so that the plurality of extracted pixels are substantially circular or elliptical. To detect. At the time of detecting this attention area, the pixel serving as the center is specified. In FIG. 6A, for example, areas indicated by reference numerals 81 to 85 are detected as attention areas.

ステップS203は、ステップS202によって抽出された注目領域の周縁における画素の色彩情報を検出する処理である。なお、ステップS203においては、注目領域の周縁の領域のうち、輝度が略同一となる画素を検出し、検出された画素の階調値を平均した値を色彩情報として取得する。   Step S203 is processing for detecting color information of pixels at the periphery of the attention area extracted in step S202. In step S203, pixels having substantially the same luminance are detected from the peripheral region of the region of interest, and a value obtained by averaging the gradation values of the detected pixels is acquired as color information.

ステップS204は、注目領域が対象領域の内部にあるか否かを判定する処理である。この判定で、注目領域が対象領域の内部にある場合にはステップS205に進み、注目領域が対象領域の内部ではない、つまり、対象領域外となる場合にはステップS206に進む。   Step S204 is processing to determine whether or not the attention area is inside the target area. In this determination, when the attention area is inside the target area, the process proceeds to step S205, and when the attention area is not inside the target area, that is, outside the target area, the process proceeds to step S206.

ステップS205は、作成されるクロスパターンの設定を行う処理である。ステップS204において、注目領域が対象領域の内部にあると判定されていることから、このステップS205では、注目領域に基づいて設定されるクロスパターンに対して、所定倍率(例えば、1.2倍など)の大きさとなるようにクロスパターンの大きさ(クロスパターンの各ラインの長さやラインの太さ)が設定される。このステップS205の処理が終了すると、ステップS207に進む。   Step S205 is processing for setting a created cross pattern. In step S204, since it is determined that the attention area is inside the target area, in this step S205, a predetermined magnification (for example, 1.2 times) is set with respect to the cross pattern set based on the attention area. The size of the cross pattern (the length of each line of the cross pattern and the thickness of the line) is set so that When the process of step S205 ends, the process proceeds to step S207.

ステップS206は、ステップS205と同様に、作成されるクロスパターンの設定を行う処理である。ステップS204において、注目領域が対象領域の外部にあると判定されていることから、このステップS206では、通常のクロスパターンとなるように、つまり、注目領域の大きさに基づいたクロスパターンの大きさが設定される。このステップS206の処理が終了すると、ステップS207に進む。   Step S206 is processing for setting the created cross pattern, as in step S205. Since it is determined in step S204 that the attention area is outside the target area, in this step S206, the size of the cross pattern is set so as to be a normal cross pattern, that is, based on the size of the attention area. Is set. When the process of step S206 ends, the process proceeds to step S207.

ステップS207は、ステップS205、又はステップS206に基づいたクロスパターンを生成する処理である。このステップS205の処理では、背景が黒色となり、縮小画像と同一の画角となる画像(以下、基準画像)に、クロスパターンを生成する。ステップS202において、縮小画像から注目領域が検出されていることから、基準画像を構成する画素のうち、注目領域の中心となる画素に対応した画素を求め、この画素を基点として、ステップS205又はステップS206において設定されたクロスパターンとなるように、クロスパターンを生成する。このクロスパターンの生成の際に、ステップS203において求められた色彩情報を用いてクロスパターンを構成する画素の階調値も決定されていく。つまり、クロスパターンの中心の画素から各ラインの先端の画素に向けて輝度が低くなるように、クロスパターンを構成する各画素の階調値がそれぞれ決定される。   Step S207 is processing for generating a cross pattern based on step S205 or step S206. In the process of step S205, a cross pattern is generated on an image (hereinafter referred to as a reference image) in which the background is black and has the same angle of view as the reduced image. In step S202, since the attention area is detected from the reduced image, a pixel corresponding to the pixel that is the center of the attention area is obtained from the pixels constituting the reference image. A cross pattern is generated so as to be the cross pattern set in S206. At the time of generating the cross pattern, the tone values of pixels constituting the cross pattern are also determined using the color information obtained in step S203. That is, the gradation value of each pixel constituting the cross pattern is determined so that the luminance decreases from the pixel at the center of the cross pattern toward the pixel at the tip of each line.

例えば、ステップS205の処理が実行された場合には、注目領域の大きさに基づいたクロスパターンに対して所定倍率となる大きさのクロスパターンが生成される。一方、ステップS206の処理が行われた場合には、注目領域の大きさに基づいたクロスパターンが生成される。   For example, when the process of step S205 is executed, a cross pattern having a predetermined magnification is generated with respect to the cross pattern based on the size of the region of interest. On the other hand, when the process of step S206 is performed, a cross pattern based on the size of the attention area is generated.

ステップS208は、クロスパターンが全ての注目領域に対応して生成されたか否かを判定する処理である。このステップS208において、クロスパターンが全ての注目領域に対して生成されていない場合にはステップS204に戻る。一方、クロスパターンが全ての注目領域に対して生成された場合には、処理が終了する。   Step S208 is processing to determine whether or not a cross pattern has been generated corresponding to all the attention areas. In step S208, if the cross pattern has not been generated for all the attention areas, the process returns to step S204. On the other hand, when the cross pattern has been generated for all the attention areas, the processing ends.

例えば図6(a)に示す画像に画像効果を付加した場合には、対象領域80の内部の注目領域に配置されたクロスパターンが強調された画像を得ることができる(図7参照)。図示はしないが、抽出された対象領域の内部及び外部にそれぞれ注目領域があり、対象領域の内部にある注目領域と対象領域の外部にある注目領域との大きさが同一であれば、対象領域の内部にある注目領域に配置されるクロスパターンが、対象領域の外部にある注目領域に配置されるクロスパターンよりも大きくなる、つまり、対象領域を抽出することで、付加する画像効果を異なるようにすることができ、付加する画像効果によって違和感を与えずに済む。また、画像効果を異なるようにする内容として画像効果の強弱を変える内容とした場合には、注目領域が対象領域にあるか否かによって付加される画像効果の強弱を自動的に設定することができる。   For example, when an image effect is added to the image shown in FIG. 6A, an image in which the cross pattern arranged in the attention area inside the target area 80 is emphasized can be obtained (see FIG. 7). Although not shown, if there are attention areas inside and outside the extracted target area, and the size of the attention area inside the target area and the attention area outside the target area are the same, the target area The cross pattern placed in the attention area inside the image is larger than the cross pattern placed in the attention area outside the target area. In other words, the image effect to be added is different by extracting the target area. The image effect to be added does not give a sense of incongruity. In addition, when changing the effect of the image effect as the content that makes the image effect different, the strength of the image effect to be added may be automatically set depending on whether or not the attention region is in the target region. it can.

本実施形態では、対象領域内に配置されるクロスパターンの大きさを、注目領域に基づいて生成されるクロスパターンの大きさの所定倍率の大きさとなるようにしているが、これに限定されるものではなく、クロスパターンの各ラインの長さを、注目領域に基づいて生成されるクロスパターンの各ラインの長さよりも長くする、或いは各ラインの太さ(ラインの幅)を太くすることも可能である。また、この他に、対象領域に設けられるクロスパターンを構成するラインの数を、注目領域に基づいて生成されるクロスパターンのラインの数よりも多くすることも可能である。また、注目領域の検出を行う際に、対象領域内部に対しては、検出する輝度値を下げて、描画するクロスパターンの数を増やすように設定することも可能である。   In the present embodiment, the size of the cross pattern arranged in the target region is set to a predetermined magnification of the size of the cross pattern generated based on the region of interest. However, the present invention is not limited to this. Instead, the length of each line of the cross pattern is made longer than the length of each line of the cross pattern generated based on the region of interest, or the thickness (line width) of each line may be increased. Is possible. In addition to this, the number of lines constituting the cross pattern provided in the target area can be made larger than the number of lines of the cross pattern generated based on the attention area. Further, when detecting the attention area, it is also possible to set the inside of the target area to decrease the luminance value to be detected and increase the number of cross patterns to be drawn.

本実施形態では、対象領域の内部に配置されるクロスパターンを、対象領域から外れるクロスパターンよりも大きく設定しているが、対象領域の内部に配置されるクロスパターンを、対象領域から外れるクロスパターンよりも小さくすることも可能である。   In the present embodiment, the cross pattern arranged inside the target area is set to be larger than the cross pattern outside the target area, but the cross pattern arranged inside the target area is set to the cross pattern outside the target area. It is also possible to make it smaller.

本実施形態においては、対象領域から外れた注目領域に対して、注目領域の大きさに基づいたクロスパターンを配置しているが、これに限定する必要はなく、例えば対象領域から外れた注目領域に対して配置されるクロスパターンの大きさを、注目領域に基づいて生成されるクロスパターンの大きさよりも小さくする、或いは対象領域から外れた注目領域に対してはクロスパターンを配置しないことも可能である。図6(b)に示すように、例えばボールや靴が照明光により輝度が高くなる場合、これらボールや靴は対象領域から外れていることになる。しかしながら、これらボールや靴に該当する画素のうち、輝度の高い領域は注目領域として検出されていることから、これら注目領域に対しては、クロスパターンは配置されない。つまり、対象領域として抽出された場合にのみ画像効果が付加されることになるので、このような画像に対して画像効果を付加する場合には、画像効果によって不自然さを生じさせることが防止できる。   In the present embodiment, the cross pattern based on the size of the attention area is arranged for the attention area outside the target area. However, the present invention is not limited to this. For example, the attention area outside the target area. It is also possible to make the size of the cross pattern arranged for the smaller than the size of the cross pattern generated based on the attention area, or not to place the cross pattern in the attention area outside the target area It is. As shown in FIG. 6B, for example, when the brightness of a ball or shoe is increased by illumination light, the ball or shoe is out of the target area. However, since a region with high luminance is detected as a region of interest among the pixels corresponding to these balls and shoes, no cross pattern is arranged for these regions of interest. In other words, an image effect is added only when the image is extracted as a target area. Therefore, when adding an image effect to such an image, it is possible to prevent the image effect from causing unnaturalness. it can.

また、この他に、予め画像効果を付加しない領域を除外した上で、対象領域を抽出することも可能である。図8に示すように、例えば撮像を行った日時を埋め込む設定で得られた画像の場合には、予め撮像された日時を埋め込む領域(図中符号90で示す領域)が予め設定されており、画像データに撮像された日時を埋め込む情報が付帯情報として付帯されている。このような撮像された日時を埋め込む設定で撮像された画像に画像効果を付加する場合には、撮像された日時を埋め込む情報が付帯されているか否かを付帯情報を参照する。そして、撮像された日時を埋め込む情報が付帯情報にある場合には、撮像された日時を埋め込む領域を除外した上で、注目領域を検出する。これにより、撮像された日時が埋め込まれた画像において、撮像された日時が埋め込まれる領域から注目領域が検出されることを防止でき、注目領域に合わせて付加されるクロスパターンと撮影日時を示す文字とが重なり、画像効果が不自然となることを防止できる。   In addition to this, it is also possible to extract a target region after excluding a region to which an image effect is not added in advance. As shown in FIG. 8, for example, in the case of an image obtained by setting to embed the date and time when the image was taken, an area (area indicated by reference numeral 90 in the figure) in which the imaged date and time is embedded is set in advance. Information for embedding the imaged date and time in the image data is attached as accompanying information. In the case where an image effect is added to an image captured with such a setting for embedding the captured date and time, whether or not information for embedding the captured date and time is attached is referred to the incidental information. When the information for embedding the imaged date and time is included in the incidental information, the region of interest is detected after excluding the region for embedding the imaged date and time. Thereby, in the image in which the captured date and time are embedded, it is possible to prevent the attention area from being detected from the area in which the captured date and time are embedded, and the cross pattern added to the attention area and the characters indicating the imaging date and time And the image effect can be prevented from becoming unnatural.

また、予め撮像された日時が埋め込まれた画像データの場合も同様であり、そのまま画像効果を付加すると、撮像された日時を示す文字にクロスパターンが生成されてしまい、不自然な画像となる。このような場合は、画像データに付帯された付帯情報から、撮像された日時が埋め込まれているか否かの情報を取得して、撮像された日時が埋め込まれている画像となる場合には、撮像された日時が埋め込まれた領域を予め画像効果を付与しない領域として除外する。   The same applies to image data in which the date and time captured in advance are embedded. If an image effect is added as it is, a cross pattern is generated in characters indicating the date and time when the image is captured, resulting in an unnatural image. In such a case, from the incidental information attached to the image data, information on whether or not the imaged date and time is embedded is obtained, and when the imaged date and time are embedded, An area in which the captured date and time is embedded is excluded in advance as an area to which no image effect is applied.

本実施形態では、パターンマッチング等により自動的に対象領域を抽出する処理を行っているが、これに限定する必要はなく、ユーザ等に対象領域を決定させることも可能である。   In the present embodiment, the process of automatically extracting the target area by pattern matching or the like is performed. However, the present invention is not limited to this, and the user or the like can determine the target area.

本実施形態では、マスク画像データを作成して、このマスク画像データと元画像データとを合成することで、元画像データに画像効果を付加しているが、これに限定する必要はなく、元画像データに直接画像効果を付加することも可能である。   In the present embodiment, mask image data is created, and the mask image data and the original image data are combined to add an image effect to the original image data. However, the present invention is not limited to this. It is also possible to add an image effect directly to the image data.

本実施形態では、マスク画像のパターンとしてクロスパターンを挙げているが、これに限定する必要はなく、例えば、音符やハート等などのマークであってもよい。   In the present embodiment, a cross pattern is cited as a mask image pattern. However, the present invention is not limited to this, and may be a mark such as a musical note or a heart.

本実施形態では、対象領域内に付加されるパターンの対象領域内に付加されるパターンの大きさと、対象領域外に付加されるパターンの大きさを変えているが、この他に、対象領域内に付加されるパターンの種類と、対象領域外に付加されるパターンの種類を変えることも可能である。   In the present embodiment, the size of the pattern added in the target area of the pattern added in the target area and the size of the pattern added outside the target area are changed. It is also possible to change the type of pattern added to the pattern and the type of pattern added outside the target area.

本実施形態では、縮小画像とマスク画像とを合成した後、LCDモニタ36に表示させる内容としているが、これに限定される必要はなく、元画像と拡大したマスク画像との合成画像を縮小してLCDモニタ36に表示させるようにしてもよい。   In this embodiment, the reduced image and the mask image are combined and then displayed on the LCD monitor 36. However, the present invention is not limited to this, and the combined image of the original image and the enlarged mask image is reduced. It may be displayed on the LCD monitor 36.

本実施形態では、画像拡縮部50、画像生成部51、フィルタ処理部59及び画像合成部60を、画像処理部35及びCPU15とは別に構成した形態としているが、これに限定されるものではなく、これら各部の機能を画像処理部35又はCPU15が備えている形態であってもよい。   In the present embodiment, the image enlargement / reduction unit 50, the image generation unit 51, the filter processing unit 59, and the image composition unit 60 are configured separately from the image processing unit 35 and the CPU 15, but are not limited thereto. The image processing unit 35 or the CPU 15 may have the functions of these units.

本実施形態では、撮像した画像に対して画像効果を付与する機能を備えたデジタルカメラについて説明したが、これに限定されるものではなく、例えば、図4及び図5のフローチャートに示す手順を実行できる画像処理装置であってもよい。また、図4及び図5のフローチャートに示す手順をコンピュータに実行させることができるプログラム、及び該プログラムを記憶し、コンピュータで読み取ることができる記憶媒体であってもよい。   In the present embodiment, a digital camera having a function of giving an image effect to a captured image has been described. However, the present invention is not limited to this. For example, the procedure shown in the flowcharts of FIGS. 4 and 5 is executed. An image processing apparatus that can be used may be used. Moreover, the program which can make a computer perform the procedure shown in the flowchart of FIG.4 and FIG.5, and the storage medium which memorize | stores this program and can be read with a computer may be sufficient.

本実施形態では、クロスフィルタ処理についての内容としているが、フィルタ処理としては、これに限定される必要はない。例えばエンハンサー処理やソフトフィルタ処理などのフィルタ処理に対しても同様に対象領域内部については画像効果を強めるようにしてもよい。   In the present embodiment, the content is about the cross filter process, but the filter process is not necessarily limited to this. For example, the image effect may be strengthened in the target area in the same way for filter processing such as enhancer processing and soft filter processing.

デジタルカメラの電気的構成の概略を示す機能ブロック図である。It is a functional block diagram which shows the outline of the electric constitution of a digital camera. マスク画像の一例を示す説明図である。It is explanatory drawing which shows an example of a mask image. LPF処理の概略を示す説明図である。It is explanatory drawing which shows the outline of a LPF process. 画像効果を付加する処理の流れを示すフローチャートである。It is a flowchart which shows the flow of the process which adds an image effect. マスク画像データを作成する処理の流れを示すフローチャートである。It is a flowchart which shows the flow of the process which produces mask image data. 対象領域が抽出される画像及び対象領域が抽出されない画像の一例をそれぞれ示す説明図である。It is explanatory drawing which each shows an example of the image from which a target area is extracted, and the image from which a target area is not extracted. 画像効果が付加された画像の一例を示す説明図である。It is explanatory drawing which shows an example of the image to which the image effect was added. 撮像された日時が埋め込まれた画像の一例を示す説明図である。It is explanatory drawing which shows an example of the image in which the imaged date was embedded.

符号の説明Explanation of symbols

10…デジタルカメラ、50…画像拡縮部、51…画像生成部、55…領域抽出部、56…注目領域検出部、57…色彩情報取得部、58…画像効果設定部、59…フィルタ処理部、60…画像合成部   DESCRIPTION OF SYMBOLS 10 ... Digital camera, 50 ... Image expansion / contraction part, 51 ... Image generation part, 55 ... Area extraction part, 56 ... Attention area detection part, 57 ... Color information acquisition part, 58 ... Image effect setting part, 59 ... Filter processing part, 60. Image composition unit

Claims (10)

撮像により得られた元画像から、該元画像に付加する画像効果を変える領域を対象領域として抽出する領域抽出手段と、
前記領域抽出手段により抽出された前記対象領域内における画像効果と、前記対象領域外における画像効果とを異なるように設定する効果設定手段と、
前記効果設定手段による前記画像効果の設定に基づいて、前記元画像に付加する画像効果用のマスク画像を生成する画像生成手段と、
前記画像生成手段により生成されたマスク画像を、前記元画像に合成する画像合成手段と、を備えたことを特徴とする撮像装置。
A region extracting means for extracting, as a target region, a region for changing an image effect added to the original image from the original image obtained by imaging;
Effect setting means for setting differently the image effect in the target area extracted by the area extraction means and the image effect outside the target area;
Image generating means for generating a mask image for an image effect to be added to the original image based on the setting of the image effect by the effect setting means;
An image pickup apparatus comprising: an image combining unit that combines the mask image generated by the image generating unit with the original image.
請求項1に記載の撮像装置において、
前記画像効果を付加する際に用いる注目領域を前記元画像から検出する注目領域検出手段を備え、
前記効果設定手段は、前記対象領域にある前記注目領域に対して付加する画像効果を、前記対象領域から外れる注目領域に対して付加する画像効果よりも強調するように、各注目領域に対する画像効果を設定することを特徴とする撮像装置。
The imaging apparatus according to claim 1,
A region of interest detection means for detecting a region of interest used when adding the image effect from the original image,
The effect setting means is configured to emphasize the image effect added to the attention area in the target area more than the image effect added to the attention area outside the target area. An image pickup apparatus characterized by setting.
請求項1又は2に記載の撮像装置において、
前記効果設定手段は、前記対象領域から外れる注目領域に対する画像効果を付加しないように設定することを特徴とする撮像装置。
The imaging device according to claim 1 or 2,
The imaging apparatus according to claim 1, wherein the effect setting means sets so as not to add an image effect to a region of interest outside the target region.
請求項2又は3記載の撮像装置において、
前記注目領域検出手段は、前記元画像を構成する各画素から、輝度が高くなる画素を注目領域として検出することを特徴とする撮像装置。
The imaging device according to claim 2 or 3,
The image pickup apparatus, wherein the attention area detection unit detects a pixel having a high luminance as an attention area from each pixel constituting the original image.
請求項2〜4のいずれか1項に記載の撮像装置において、
前記元画像を縮小する画像縮小手段を備え、
前記領域抽出手段による前記対象領域の抽出及び前記注目領域検出手段による前記注目領域の検出は、前記画像縮小手段により縮小された元画像を用いることで実行され、
前記画像生成手段は、縮小された元画像と同一の画角となるように前記マスク画像を生成することを特徴とする撮像装置。
In the imaging device according to any one of claims 2 to 4,
Image reduction means for reducing the original image,
The extraction of the target area by the area extraction unit and the detection of the attention area by the attention area detection unit are executed by using the original image reduced by the image reduction unit,
The imaging apparatus, wherein the image generation unit generates the mask image so as to have the same angle of view as the reduced original image.
請求項5記載の撮像装置において、
前記マスク画像を前記元画像と同一の画角となるように拡大する画像拡大手段を備え、
前記画像合成手段は、前記拡大されたマスク画像と元画像とを合成することを特徴とする撮像装置。
The imaging device according to claim 5.
Image enlarging means for enlarging the mask image to have the same angle of view as the original image;
The imaging apparatus, wherein the image synthesizing unit synthesizes the enlarged mask image and the original image.
請求項6記載の撮像装置において、
前記画像生成手段により作成されたマスク画像に対してフィルタ処理を施すフィルタ処理手段をさらに備え、
前記画像拡大手段は、前記フィルタ処理が施されたマスク画像を拡大することを特徴とする撮像装置。
The imaging device according to claim 6.
A filter processing unit that performs a filter process on the mask image created by the image generation unit;
The imaging apparatus, wherein the image enlargement means enlarges the mask image subjected to the filter processing.
請求項1〜7のいずれか1項に記載の撮像装置において、
前記マスク画像は、予め設定されたパターンが画像効果用として配置された画像からなり、
前記効果設定手段は、前記対象領域内に配置されるパターンと、前記対象領域外に配置されるパターンとの大きさを異なるように設定することを特徴とする撮像装置。
In the imaging device according to any one of claims 1 to 7,
The mask image consists of an image in which a preset pattern is arranged for image effect,
The imaging apparatus according to claim 1, wherein the effect setting means sets a size of a pattern arranged in the target area and a pattern arranged outside the target area so as to be different from each other.
請求項8記載の撮像装置において、
前記パターンは、複数のラインを放射状に延出させた形状からなり、
前記効果設定手段は、前記対象領域内か否かによって、前記パターンを構成するラインの数を異なるように設定することを特徴とする撮像装置。
The imaging apparatus according to claim 8.
The pattern has a shape in which a plurality of lines are radially extended,
The imaging apparatus according to claim 1, wherein the effect setting means sets the number of lines constituting the pattern to be different depending on whether or not the target area is included.
撮像により得られた元画像から、該元画像に付加する画像効果を変える領域を対象領域として抽出するステップと、
前記領域抽出手段により抽出された前記対象領域内における画像効果と、前記対象領域外における画像効果とを異なるように設定するステップと、
前記効果設定手段による前記画像効果の設定に基づいて、前記元画像に付加する画像効果用のマスク画像を生成するステップと、
前記画像生成手段により生成されたマスク画像を、前記元画像に合成するステップと、
をコンピュータに実行させることを特徴とする画像効果付加プログラム。
Extracting, from the original image obtained by imaging, a region for changing the image effect added to the original image as a target region;
Setting the image effect within the target region extracted by the region extraction means different from the image effect outside the target region;
Generating a mask image for image effect to be added to the original image based on the setting of the image effect by the effect setting means;
Combining the mask image generated by the image generation means with the original image;
An image effect addition program for causing a computer to execute
JP2008014062A 2008-01-24 2008-01-24 Imaging apparatus and image effect addition program Expired - Fee Related JP5082884B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008014062A JP5082884B2 (en) 2008-01-24 2008-01-24 Imaging apparatus and image effect addition program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008014062A JP5082884B2 (en) 2008-01-24 2008-01-24 Imaging apparatus and image effect addition program

Publications (2)

Publication Number Publication Date
JP2009177508A true JP2009177508A (en) 2009-08-06
JP5082884B2 JP5082884B2 (en) 2012-11-28

Family

ID=41032140

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008014062A Expired - Fee Related JP5082884B2 (en) 2008-01-24 2008-01-24 Imaging apparatus and image effect addition program

Country Status (1)

Country Link
JP (1) JP5082884B2 (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012009995A (en) * 2010-06-23 2012-01-12 Olympus Imaging Corp Imaging apparatus, image processing method and image processing program
JP2012014645A (en) * 2010-07-05 2012-01-19 Olympus Imaging Corp Image processing device, imaging device, image processing method, and image processing program
JP2012015859A (en) * 2010-07-01 2012-01-19 Olympus Imaging Corp Imaging apparatus, image processing apparatus, and image processing method
JP2012104932A (en) * 2010-11-08 2012-05-31 Olympus Imaging Corp Imaging device and imaging method
JP2016029828A (en) * 2015-10-16 2016-03-03 オリンパス株式会社 Imaging device, imaging method, and program

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001169083A (en) * 1999-12-06 2001-06-22 Fuji Photo Film Co Ltd Picture processing method, picture processor and recording medium

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001169083A (en) * 1999-12-06 2001-06-22 Fuji Photo Film Co Ltd Picture processing method, picture processor and recording medium

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012009995A (en) * 2010-06-23 2012-01-12 Olympus Imaging Corp Imaging apparatus, image processing method and image processing program
JP2012015859A (en) * 2010-07-01 2012-01-19 Olympus Imaging Corp Imaging apparatus, image processing apparatus, and image processing method
JP2012014645A (en) * 2010-07-05 2012-01-19 Olympus Imaging Corp Image processing device, imaging device, image processing method, and image processing program
JP2012104932A (en) * 2010-11-08 2012-05-31 Olympus Imaging Corp Imaging device and imaging method
US8842200B2 (en) 2010-11-08 2014-09-23 Olympus Imaging Corp. Imaging device and imaging method capable of bright spot processing
JP2016029828A (en) * 2015-10-16 2016-03-03 オリンパス株式会社 Imaging device, imaging method, and program

Also Published As

Publication number Publication date
JP5082884B2 (en) 2012-11-28

Similar Documents

Publication Publication Date Title
JP5767485B2 (en) Image processing apparatus and control method
JP5968068B2 (en) Imaging apparatus for controlling exposure, control method for imaging apparatus, program, and recording medium
KR101247647B1 (en) Image synthesizing device, image synthesizing method, and recording medium
JP5804857B2 (en) Image processing apparatus, image processing method, and program
JP2010263423A (en) Method and device for processing image
JP5082884B2 (en) Imaging apparatus and image effect addition program
JP2008164758A (en) Image restoration device
JP4935665B2 (en) Imaging apparatus and image effect providing program
JP2007243917A (en) Imaging apparatus and image processing program
JP2008166947A (en) Imaging apparatus
JP4584884B2 (en) Imaging apparatus and imaging method
JP6541501B2 (en) IMAGE PROCESSING APPARATUS, IMAGING APPARATUS, AND IMAGE PROCESSING METHOD
JP4952574B2 (en) Image composition apparatus and program
JP5882644B2 (en) Image processing apparatus, control method thereof, and program
JP5413625B2 (en) Image composition apparatus and program
JP5446847B2 (en) Image processing apparatus and method, and program
JP5125478B2 (en) Imaging apparatus and image effect providing program
JP5822606B2 (en) Image processing apparatus and image processing apparatus control method
JP5146500B2 (en) Image composition apparatus, image composition method, and program
JP2023111637A (en) Image processing device and method and imaging apparatus
JP4389671B2 (en) Image processing apparatus, image processing method, and computer program
JP2018097897A (en) Image processing apparatus and image processing program
JP2011151454A (en) Image processor, imaging apparatus and image processing method
JP6075829B2 (en) IMAGING DEVICE, CAMERA SYSTEM, IMAGING DEVICE CONTROL METHOD, PROGRAM, AND STORAGE MEDIUM
JP2021057626A (en) Image processing apparatus, image processing method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110124

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110624

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120315

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120321

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120521

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120807

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120820

R150 Certificate of patent or registration of utility model

Ref document number: 5082884

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150914

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150914

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees