JP2009177508A - Imaging apparatus, and image-effect adding program - Google Patents
Imaging apparatus, and image-effect adding program Download PDFInfo
- Publication number
- JP2009177508A JP2009177508A JP2008014062A JP2008014062A JP2009177508A JP 2009177508 A JP2009177508 A JP 2009177508A JP 2008014062 A JP2008014062 A JP 2008014062A JP 2008014062 A JP2008014062 A JP 2008014062A JP 2009177508 A JP2009177508 A JP 2009177508A
- Authority
- JP
- Japan
- Prior art keywords
- image
- effect
- region
- mask
- area
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Image Processing (AREA)
- Editing Of Facsimile Originals (AREA)
- Studio Devices (AREA)
Abstract
Description
本発明は、撮像された画像に対して画像効果を施す撮像装置及び画像効果付加プログラムに関する。 The present invention relates to an imaging apparatus and an image effect addition program that apply an image effect to a captured image.
従来、例えばクロスフィルタをデジタルカメラのレンズに取り付けて撮像する、或いは撮像により得られた画像に対して、クロスフィルタと同様の画像効果を付加する処理を実行することで、画像効果が付加された画像を取得することが一般に行われている。 Conventionally, for example, a cross filter is attached to a lens of a digital camera to capture an image, or an image effect is added by executing processing for adding an image effect similar to that of a cross filter to an image obtained by imaging. It is common practice to acquire images.
例えば、撮像により得られた画像(以下、元画像)に対して画像効果を付加する処理を行う場合、元画像に対して直接画像効果を付加すると、画像効果を付加する処理に時間がかかることから、元画像を縮小した縮小画像から画像効果として用いる画像(以下、マスク画像)を作成し、作成されたマスク画像を元画像と同一の画角になるように拡大した後、元画像に合成している(特許文献1参照)。
上述した画像効果を付加する処理においては、画像を構成する各画素のうち輝度が高くなる画素を輝点として検出し、検出された輝点に基づいて画像効果を付加している。例えば画像効果としてクロスフィルタ効果を付加する場合には、予めクロスフィルタ効果として用いるクロスライン数はユーザ等により選択されたライン数、或いは予め設定されているライン数が用いられ、クロスラインの太さや長さは、検出された輝点の大きさに基づいて決定される。このように付加される画像効果は、画像から検出される輝点に依存していることから、画像によっては付加された画像効果が不自然となる場合がある。また、このような画像効果が不自然なものとならないようにするためには、画像に付加された画像効果の一部を輝点毎に変更する、又は、画像効果を付加するか否かを輝点毎に決定することも考えられるが、このような処理を行うことで、画像効果を付加する処理に時間がかかってしまう。 In the above-described processing for adding an image effect, a pixel having a high luminance among the pixels constituting the image is detected as a bright spot, and the image effect is added based on the detected bright spot. For example, when a cross filter effect is added as an image effect, the number of cross lines used as the cross filter effect in advance is the number of lines selected by the user or the like, or a preset number of lines is used. The length is determined based on the size of the detected bright spot. Since the added image effect depends on the bright spot detected from the image, the added image effect may be unnatural depending on the image. Further, in order to prevent such an image effect from becoming unnatural, whether or not to change a part of the image effect added to the image for each bright spot or to add an image effect is determined. Although it is conceivable to determine for each bright spot, by performing such processing, it takes time to add the image effect.
本発明は、上述した課題を解決するために発明されたものであり、画像に付加された画像効果が不自然なものとなるのを防止するとともに、画像効果を付加する処理時間を短縮することができるようにした撮像装置及び画像効果付加プログラムを提供することを目的とする。 The present invention has been invented in order to solve the above-described problems, and prevents an image effect added to an image from becoming unnatural and shortens a processing time for adding the image effect. An object of the present invention is to provide an imaging apparatus and an image effect addition program that can perform the above-described processing.
第1の発明の撮像装置は、撮像により得られた元画像から、該元画像に付加する画像効果を変える領域を対象領域として抽出する領域抽出手段と、前記領域抽出手段により抽出された前記対象領域内における画像効果と、前記対象領域外における画像効果とを異なるように設定する効果設定手段と、前記効果設定手段による前記画像効果の設定に基づいて、前記元画像に付加する画像効果用のマスク画像を生成する画像生成手段と、前記画像生成手段により生成されたマスク画像を、前記元画像に合成する画像合成手段と、を備えたことを特徴とする。なお、画像効果を異なるように設定するとは、例えば対象領域内か対象領域外かによって画像効果の内容を変える他に、画像効果の強弱を変えることが挙げられる。 An image pickup apparatus according to a first aspect of the present invention includes an area extraction unit that extracts, as a target area, an area that changes an image effect added to the original image, from the original image obtained by imaging, and the target extracted by the area extraction unit An effect setting means for setting the image effect within the area different from the image effect outside the target area; and an image effect for adding to the original image based on the setting of the image effect by the effect setting means. An image generating means for generating a mask image, and an image combining means for combining the mask image generated by the image generating means with the original image are provided. Note that setting the image effect differently includes, for example, changing the strength of the image effect in addition to changing the content of the image effect depending on whether the image effect is within or outside the target region.
第2の発明は、第1の発明において、前記画像効果を付加する際に用いる注目領域を前記元画像から検出する注目領域検出手段を備え、前記効果設定手段は、前記対象領域にある前記注目領域に対して付加する画像効果を、前記対象領域から外れる注目領域に対して付加する画像効果よりも強調するように、各注目領域に対する画像効果を設定することを特徴とする。 According to a second aspect of the present invention, in the first aspect, the image processing apparatus includes attention area detection means for detecting an attention area used when adding the image effect from the original image, and the effect setting means includes the attention area in the target area. The image effect for each region of interest is set so that the image effect to be added to the region is more emphasized than the image effect to be added to the region of interest outside the target region.
第3の発明は、第1又は第2の発明において、前記効果設定手段は、前記対象領域から外れる注目領域に対する画像効果を付加しないように設定することを特徴とする。 A third invention is characterized in that, in the first or second invention, the effect setting means sets so as not to add an image effect to a region of interest outside the target region.
第4の発明は、第2又は第3の発明において、前記注目領域検出手段は、前記元画像を構成する各画素から、輝度が高くなる画素を注目領域として検出することを特徴とする。 A fourth invention is characterized in that, in the second or third invention, the attention area detection means detects, as an attention area, a pixel having a high luminance from each pixel constituting the original image.
第5の発明は、第2〜4の発明のいずれかにおいて、前記元画像を縮小する画像縮小手段を備え、前記領域抽出手段による前記対象領域の抽出及び前記注目領域検出手段による前記注目領域の検出は、前記画像縮小手段により縮小された元画像を用いることで実行され、前記画像生成手段は、縮小された元画像と同一の画角となるように前記マスク画像を生成することを特徴とする。 According to a fifth aspect of the present invention, in any one of the second to fourth aspects, the image reduction means for reducing the original image is provided, and the extraction of the target area by the area extraction means and the attention area by the attention area detection means. Detection is performed by using the original image reduced by the image reduction means, and the image generation means generates the mask image so as to have the same angle of view as the reduced original image. To do.
第6の発明は、第5の発明において、前記マスク画像を前記元画像と同一の画角となるように拡大する画像拡大手段を備え、前記画像合成手段は、前記拡大されたマスク画像と元画像とを合成することを特徴とする。 According to a sixth aspect of the present invention, in the fifth aspect of the present invention, the image processing device further includes an image enlarging unit that expands the mask image so as to have the same angle of view as the original image. It is characterized by combining with an image.
第7の発明は、第6の発明において、前記画像生成手段により作成されたマスク画像に対してフィルタ処理を施すフィルタ処理手段をさらに備え、前記画像拡大手段は、前記フィルタ処理が施されたマスク画像を拡大することを特徴とする。 According to a seventh invention, in the sixth invention, the image processing device further includes a filter processing unit that performs a filter process on the mask image created by the image generation unit, and the image enlargement unit includes the mask subjected to the filter process. It is characterized by enlarging the image.
第8の発明は、第1〜第7の発明のいずれかにおいて、前記マスク画像は、予め設定されたパターンが画像効果用として配置された画像からなり、前記効果設定手段は、前記対象領域内に配置されるパターンと、前記対象領域外に配置されるパターンとの大きさを異なるように設定することを特徴とする。 According to an eighth invention, in any one of the first to seventh inventions, the mask image is an image in which a preset pattern is arranged for an image effect, and the effect setting means is provided in the target area. And the pattern arranged outside the target area are set to have different sizes.
第9の発明は、第8の発明において、前記パターンは、複数のラインを放射状に延出させた形状からなり、前記効果設定手段は、前記対象領域内か否かによって、前記パターンを構成するラインの数を異なるように設定することを特徴とする。 In a ninth aspect based on the eighth aspect, the pattern has a shape in which a plurality of lines are radially extended, and the effect setting means configures the pattern depending on whether or not it is within the target region. The number of lines is set to be different.
第10の発明の画像効果付加プログラムは、撮像により得られた元画像に対する画像効果を変える対象領域を、前記元画像から抽出するステップと、前記領域抽出手段により抽出された前記対象領域内における画像効果と、前記対象領域外における画像効果とを異なるように設定するステップと、前記効果設定手段による前記画像効果の設定に基づいて、前記元画像に付加する画像効果用のマスク画像を生成するステップと、前記画像生成手段により生成されたマスク画像を、前記元画像に合成するステップと、をコンピュータに実行させることを特徴とする。 An image effect addition program according to a tenth aspect of the present invention is a method for extracting a target area for changing an image effect on an original image obtained by imaging from the original image, and an image in the target area extracted by the area extraction unit. A step of setting an effect different from an image effect outside the target region, and a step of generating a mask image for an image effect to be added to the original image based on the setting of the image effect by the effect setting means And causing the computer to execute a step of combining the mask image generated by the image generating means with the original image.
本発明によれば、元画像に基づいて画像効果用のマスク画像における画像効果が領域によって異なるように設定されるので、画像効果用の画像と元画像とを合成したときに得られる合成画像が不自然な画像になることを防止することができる。また、予め画像効果の強弱を変更する場合に、画像効果を付与しない場合もあることから、画像効果を付与する処理時間を短縮することができる。 According to the present invention, since the image effect in the image effect mask image is set to be different depending on the region based on the original image, a composite image obtained when the image effect image and the original image are combined is obtained. An unnatural image can be prevented. In addition, when the strength of the image effect is changed in advance, the image effect may not be applied, so that the processing time for applying the image effect can be shortened.
図1は、デジタルカメラ10の構成の一例を示す概略図である。このデジタルカメラ10は、CPU15によって統括制御される。このCPU15には操作部16やレリーズボタン17の操作信号が入力されることから、CPU15は、入力される操作信号に基づいてデジタルカメラ10の各部を制御する。
FIG. 1 is a schematic diagram illustrating an example of the configuration of the
撮像光学系20は、撮像レンズ21の他に、ズームレンズ22やフォーカスレンズ23を備えている。ズームレンズ22は、撮像時の撮像倍率を変更する際にレンズ駆動機構24によって光軸方向に沿って移動される。フォーカスレンズ23は、撮像時における焦点調節を行う際に、レンズ駆動機構24によって光軸方向に微小移動される。なお、ズームレンズ22とフォーカスレンズ23とをレンズ駆動機構24にて移動させているが、これに限定される必要はなく、それぞれのレンズを異なるレンズ駆動機構で移動させてよい。
The imaging
CCD25は、撮像光学系20を介して入射される被写体光を受光し、受光した光量に応じた信号電荷を蓄積することで、被写体光を光電変換する。なお、このCCD25における信号電荷の蓄積や蓄積された信号電荷の出力は、ドライバ26によって制御される。
The
CCD25によって蓄積された信号電荷は、アナログ画像信号としてAFE回路27に出力される。このAFE回路27は、図示しないAGC回路やCDS回路を含んで構成される。AFE回路27は、入力されたアナログ画像信号に対してゲインコントロール、雑音除去などのアナログ処理を施す。
The signal charge accumulated by the
DFE回路28は、AFE回路27によってアナログ処理が施されたアナログ画像信号をデジタル画像信号に変換する。変換されたデジタル画像信号は1コマ毎にまとめられ、デジタル画像データとしてバッファメモリ30に記憶される。なお、ドライバ26、AFE回路27及びDFE回路28は、それぞれタイミングジェネレータ(TG)31における作動タイミングに基づいて制御される。また、符号32はバスであり、このバス32を介してデジタルカメラ10の各部が電気的に接続される。
The
画像処理部35は、バッファメモリ30に記憶されたデジタル画像データに対して、輪郭補償、ガンマ補正、ホワイトバランス調整などの画像処理を施す。この画像処理が施されたデジタル画像データは例えばJPEG方式などの記憶方式で圧縮するためのフォーマット処理(画像後処理)が施された後、再度バッファメモリ30に記憶される。このバッファメモリ30に記憶されたデジタル画像データは、所定の圧縮方式に対応する圧縮率を用いて圧縮処理される。
The
例えばデジタルカメラ10に設けられたLCDモニタ36にスルー画像を表示する場合には、画像処理後のデジタル画像データに対して、LCDモニタ36の解像度に合わせた圧縮率を用いて圧縮処理を実行し、表示制御部37に出力する。
For example, when a through image is displayed on the LCD monitor 36 provided in the
一方、デジタル画像データを記憶する場合には、画像記憶用に合わせた圧縮率を用いた圧縮処理が施され、内蔵メモリ38に記憶される。この内蔵メモリ38に格納されたデジタル画像データは、メディアコントローラ39を介して、メモリカードや光学ディスクなどの記憶媒体40に書き込まれる。なお、画像記憶用に合わせた圧縮率としては、予めデジタルカメラ10において設定される画像記憶用の解像度に合わせた圧縮率の他、予めユーザが操作部16を操作することにより設定した解像度に合わせた圧縮率が挙げられる。
On the other hand, when storing digital image data, a compression process using a compression rate suitable for image storage is performed and stored in the built-in
ストロボ装置41は、例えば測光センサ43における被写体の輝度が所定値以下となる場合に、被写体に向けてストロボ光を発光する。このストロボ装置41におけるストロボ光の発光タイミングや発光量はストロボ制御部42によって制御される。
The
画像拡縮部50は、内蔵メモリ38に記憶された元画像データを所定の縮小率にて縮小処理する他に、画像効果用として生成されるマスク画像データを所定の拡大率にて拡大する。なお、後述するマスク画像データを作成する際の処理を高速とするためには、上述した縮小率を上げれば良いことになるが、マスク画像データを拡大するときの拡大率も上げる必要があり、拡大した後のマスク画像における画質が低下してしまう。そこで、マスク画像データを作成するときの元画像データの縮小率は、処理速度とマスク画像の画質とを考慮して設定される。一方、拡大率は、マスク画像の大きさが元画像の大きさと同一になる拡大率である。なお、画像データを縮小する方法、及び拡大する方法としては、周知のバイリニア法や、バイキュービック法が挙げられる。
In addition to reducing the original image data stored in the built-in
画像生成部51は、元画像データに合成する画像効果用のマスク画像データを生成する。例えばマスク画像データをLCDモニタ36に表示すると、縮小画像と同一の画角からなるマスク画像MIが表示される(図2参照)。このマスク画像MIは、例えば黒色となる背景(図2の点で示すハッチングの領域65)に対して、輝度の高い色彩のクロスパターン66、67などのパターンが配置された画像である。以下では、クロスパターンが配置されたマスク画像について説明する。
The
周知のように、クロスパターン66、67は、後述する注目領域の中心となる画素を基点とした複数のラインが、それぞれ放射状に延出された形状からなる。これらクロスパターンの大きさ(複数のラインの長さや太さ)は、後述する画像効果設定部57にて設定される。また、クロスパターン66,67の色彩は、後述する色彩情報取得部57によって取得された色彩情報を用いて決定される。詳細には、クロスパターン66,67の中心側から各ラインの先端に向けて輝度が低くなるように各画素の階調値が決定される。
As is well known, the
この画像生成部51は、領域抽出部55、注目領域検出部56、色彩情報取得部57及び画像効果設定部58を備えている。領域抽出部55は、元画像に付加される画像効果を変える領域(以下、対象領域)を縮小された元画像を用いて抽出する。詳細には、画像効果用のマスク画像に配置されるクロスパターンの大きさを変える領域を対象領域として縮小された元画像から抽出する。この対象領域を抽出する方法の1つとしては、パターンマッチングが挙げられる。パターンマッチングについては周知であるので、ここではその詳細は省略する。このパターンマッチング用の画像としては、例えば橋等の建造物や、木などの対象物を被写体とする画像が挙げられ、これらパターンマッチング用の画像は、予め内蔵メモリ38に記憶される。このパターンマッチングを行うことで元画像から建造物や木などの対象物が検出された場合には、抽出された対象物を構成する画素及びその近傍となる画素を含む領域を対象領域として抽出する。
The
注目領域検出部56は、上述したクロスパターンなどの画像効果を付加する領域(以下、注目領域)を縮小画像から検出する。この注目領域抽出部56は、縮小画像を構成する複数の画素のそれぞれにおける輝度を参照して輝度の高い画素を抜き出した後、これら抜き出された画素のうち、略円形、又は略楕円形となるように複数の画素が隣接された領域を注目領域として抽出する。なお、注目領域が抽出されたときには、注目領域の中心となる画素も併せて求められる。
The attention
色彩情報取得部57は、注目領域検出部56によって検出された注目領域の周縁の画素のうち、輝度が略同一となる画素の階調値の平均値を色彩情報として取得する。この色彩情報を用いて、生成されるクロスパターンを構成する各画素の階調値が決定される。
The color
画像効果設定部58は、画像効果用のマスク画像に配置されるクロスパターンの大きさを設定する。図2に示すように、図中二点鎖線で示される領域68が対象領域(以下、対象領域68)となる場合、対象領域68から外れた注目領域に対しては、注目領域の大きさに基づいてクロスパターンが設定される。
The image
一方、対象領域68にある注目領域に対しては、注目領域に基づいて設定されるクロスパターンの所定倍率となる大きさ(例えば、1.2倍の大きさ)のクロスパターンとなるように設定される。これにより、注目領域が対象領域68にあるか否かによって画像効果の強弱が設定される。
On the other hand, the attention area in the
なお、注目領域の大きさに合わせてクロスパターンを設定する場合、注目領域の大きさとクロスパターンの大きさとを対応付けたテーブルデータを予め内蔵メモリに記憶させておき、このテーブルデータを参照してクロスパターンの大きさを設定すればよい。 When the cross pattern is set in accordance with the size of the region of interest, table data in which the size of the region of interest and the size of the cross pattern are associated with each other is stored in advance in the internal memory, and the table data is referred to. What is necessary is just to set the magnitude | size of a cross pattern.
フィルタ処理部59は、生成されたマスク画像データに対してローパスフィルタ(LPF)処理を行う。図3に示すように、LPF処理としては、3×3の計9個の画素71〜79のうち、中心にある画素75に対する重み付けを「2」とし、画素71〜74及び画素76〜79に対する重み付けを「1」としたコンボリューション演算を行う処理が挙げられる。例えば3×3の計9個の画素71〜79について述べると、画素77が赤色、画素74、78がピンク色、画素71〜73、画素75,76及び画素79が白色からなる場合には、このLPF処理を行うことで、画素75が白色から薄いピンク色となる。この処理は、マスク画像を構成する全ての画素を用いて行われることから、マスク画像中のパターンと背景との境界がはっきりした画像を、パターンと背景との境界をぼかした画像に加工することができる。
The filter processing unit 59 performs low-pass filter (LPF) processing on the generated mask image data. As shown in FIG. 3, among the 3 × 3 total of nine
画像合成部60は、画像生成部51にて生成されたマスク画像データと縮小画像データとを合成する、或いは、画像拡縮部50で拡大されたマスク画像データと元画像データとを合成する。画像合成部60によって合成された画像データは、内蔵メモリ38に記憶される。
The
次に、デジタルカメラ10において撮像された画像データに画像効果を付加する際の処理手順について、図4のフローチャートに基づいて説明する。デジタルカメラ10によって撮像処理が実行されると、撮像により取得された画像データを元画像データとした上で、ステップS101に進む。
Next, a processing procedure for adding an image effect to image data captured by the
ステップS101は、元画像データから縮小画像データを作成する処理である。なお、このステップS101の処理により、元画像データとは別に縮小画像データが作成され、内蔵メモリ38に記憶される。
Step S101 is processing for creating reduced image data from original image data. Note that reduced image data is created separately from the original image data and stored in the built-in
ステップS102は、ステップS101において作成された縮小画像データを用いてマスク画像データを生成する処理である。このマスク画像データを作成する処理については後述する。なお、生成されたマスク画像データを表示すると、黒色の背景に対して、単数、或いは複数のクロスパターンが配置されたマスク画像となる(例えば図2参照)。 Step S102 is processing for generating mask image data using the reduced image data created in step S101. The process for creating the mask image data will be described later. When the generated mask image data is displayed, it becomes a mask image in which one or a plurality of cross patterns are arranged on a black background (see, for example, FIG. 2).
ステップS103は、ステップS102にて生成されたマスク画像データに対するLPF処理である。マスク画像データに対してLPF処理を行うことで、マスク画像が、クロスパターンと背景との境界をぼかした画像になる。 Step S103 is an LPF process for the mask image data generated in step S102. By performing LPF processing on the mask image data, the mask image becomes an image in which the boundary between the cross pattern and the background is blurred.
ステップS104は、縮小画像データと、マスク画像データとを合成する処理である。 Step S104 is a process of combining the reduced image data and the mask image data.
ステップS105は、ステップS104の処理を実行することで得られた合成画像データを用いてLCDモニタ36に表示する処理である。 Step S105 is a process of displaying on the LCD monitor 36 using the composite image data obtained by executing the process of step S104.
ステップS106は、合成された画像データの画像効果を変更するか否かが選択される処理である。例えば、合成された画像データに対して画像効果を変更しない場合にはステップS107に進み、合成された画像データに対して画像効果を変更する場合にはステップS102に戻る。なお、画像効果を変更するとは、例えば合成するマスク画像に配置されるパターンをクロスパターンから他のパターンに変更する、又は、クロスパターンのライン数、クロスパターンの各ラインの角度や大きさを変更することが挙げられる。 Step S106 is processing for selecting whether or not to change the image effect of the combined image data. For example, when the image effect is not changed for the synthesized image data, the process proceeds to step S107, and when the image effect is changed for the synthesized image data, the process returns to step S102. Note that changing the image effect means, for example, changing the pattern arranged in the mask image to be combined from the cross pattern to another pattern, or changing the number of lines of the cross pattern and the angle and size of each line of the cross pattern. To do.
ステップS107は、マスク画像データを拡大する処理である。ステップ103の処理を行うことで、マスク画像データは、背景とクロスパターンとの境界がぼけた画像からなることから、ステップS107によりマスク画像データを拡大しても、マスク画像データの画質を劣化させずに済む。 Step S107 is processing for enlarging the mask image data. By performing the processing in step 103, the mask image data is an image in which the boundary between the background and the cross pattern is blurred. Therefore, even if the mask image data is enlarged in step S107, the image quality of the mask image data is degraded. You do n’t have to.
ステップS108は、元画像データと拡大したマスク画像データとを合成する処理である。ステップS107によって拡大されたマスク画像データは、その画質は劣化していないことから、元画像に合成されたクロスパターンに対して違和感を与えることがない。これにより、クロススクリーンフィルタを用いて撮像を行うことで得られる画像と同等の画像を、擬似的に、また、高速に作成することができる。なお、ステップS109は、作成された合成画像データを内蔵メモリ38に記憶する処理である。これにより、画像効果が付加された画像データを高速で取得することができる。
Step S108 is a process of combining the original image data and the enlarged mask image data. Since the image quality of the mask image data enlarged in step S107 has not deteriorated, there is no sense of incongruity with the cross pattern synthesized with the original image. As a result, an image equivalent to an image obtained by imaging using a cross screen filter can be created in a pseudo and high speed manner. Step S109 is processing for storing the created composite image data in the built-in
次に、マスク画像データを生成する処理(図4中ステップS102)について、図5のフローチャートを用いて説明する。 Next, the process of generating mask image data (step S102 in FIG. 4) will be described using the flowchart of FIG.
ステップS201は、対象領域を抽出する処理である。この対象領域の抽出は、ステップS101の処理で作成された縮小画像データが用いられる。例えば、図6(a)に示すように、クリスマスツリーを撮像した画像の場合には、クリスマスツリーが対象物として抽出されるので、クリスマスツリー、及びその周縁の領域を対象領域(図中二点鎖線でしめす領域80)として抽出する。一方、図6(b)に示すように、ボールを蹴る少年を撮像した画像の場合には、画像内に対象物が存在しないことから、このような画像の場合には、対象領域は抽出されない。この図6(b)の場合、例えばボールや靴などが照明光により輝度が高くなっている場合であっても、これら領域は対象領域として抽出されない。 Step S201 is processing for extracting a target area. For the extraction of the target area, the reduced image data created in the process of step S101 is used. For example, as shown in FIG. 6A, in the case of an image obtained by capturing a Christmas tree, the Christmas tree is extracted as an object. Extracted as a region 80) indicated by a chain line. On the other hand, as shown in FIG. 6 (b), in the case of an image obtained by imaging a boy kicking a ball, there is no object in the image, so in such an image, the target region is not extracted. . In the case of FIG. 6B, for example, even when the brightness of a ball or shoes is increased by illumination light, these areas are not extracted as target areas.
ステップS202は、縮小画像データを用いて、注目領域を検出する処理である。ステップS202においては、縮小画像を構成する画素のうち、輝度の高い画素を抽出し、抽出された画素のうち、複数の画素が略円形又は略楕円形となるように隣り合う領域を注目領域として検出する。この注目領域の検出時に、その中心となる画素が特定される。図6(a)においては、例えば符号81〜85に示す領域が注目領域として検出される。
Step S202 is processing for detecting a region of interest using reduced image data. In step S202, a pixel having a high luminance is extracted from the pixels constituting the reduced image, and an adjacent region is selected as a region of interest so that the plurality of extracted pixels are substantially circular or elliptical. To detect. At the time of detecting this attention area, the pixel serving as the center is specified. In FIG. 6A, for example, areas indicated by
ステップS203は、ステップS202によって抽出された注目領域の周縁における画素の色彩情報を検出する処理である。なお、ステップS203においては、注目領域の周縁の領域のうち、輝度が略同一となる画素を検出し、検出された画素の階調値を平均した値を色彩情報として取得する。 Step S203 is processing for detecting color information of pixels at the periphery of the attention area extracted in step S202. In step S203, pixels having substantially the same luminance are detected from the peripheral region of the region of interest, and a value obtained by averaging the gradation values of the detected pixels is acquired as color information.
ステップS204は、注目領域が対象領域の内部にあるか否かを判定する処理である。この判定で、注目領域が対象領域の内部にある場合にはステップS205に進み、注目領域が対象領域の内部ではない、つまり、対象領域外となる場合にはステップS206に進む。 Step S204 is processing to determine whether or not the attention area is inside the target area. In this determination, when the attention area is inside the target area, the process proceeds to step S205, and when the attention area is not inside the target area, that is, outside the target area, the process proceeds to step S206.
ステップS205は、作成されるクロスパターンの設定を行う処理である。ステップS204において、注目領域が対象領域の内部にあると判定されていることから、このステップS205では、注目領域に基づいて設定されるクロスパターンに対して、所定倍率(例えば、1.2倍など)の大きさとなるようにクロスパターンの大きさ(クロスパターンの各ラインの長さやラインの太さ)が設定される。このステップS205の処理が終了すると、ステップS207に進む。 Step S205 is processing for setting a created cross pattern. In step S204, since it is determined that the attention area is inside the target area, in this step S205, a predetermined magnification (for example, 1.2 times) is set with respect to the cross pattern set based on the attention area. The size of the cross pattern (the length of each line of the cross pattern and the thickness of the line) is set so that When the process of step S205 ends, the process proceeds to step S207.
ステップS206は、ステップS205と同様に、作成されるクロスパターンの設定を行う処理である。ステップS204において、注目領域が対象領域の外部にあると判定されていることから、このステップS206では、通常のクロスパターンとなるように、つまり、注目領域の大きさに基づいたクロスパターンの大きさが設定される。このステップS206の処理が終了すると、ステップS207に進む。 Step S206 is processing for setting the created cross pattern, as in step S205. Since it is determined in step S204 that the attention area is outside the target area, in this step S206, the size of the cross pattern is set so as to be a normal cross pattern, that is, based on the size of the attention area. Is set. When the process of step S206 ends, the process proceeds to step S207.
ステップS207は、ステップS205、又はステップS206に基づいたクロスパターンを生成する処理である。このステップS205の処理では、背景が黒色となり、縮小画像と同一の画角となる画像(以下、基準画像)に、クロスパターンを生成する。ステップS202において、縮小画像から注目領域が検出されていることから、基準画像を構成する画素のうち、注目領域の中心となる画素に対応した画素を求め、この画素を基点として、ステップS205又はステップS206において設定されたクロスパターンとなるように、クロスパターンを生成する。このクロスパターンの生成の際に、ステップS203において求められた色彩情報を用いてクロスパターンを構成する画素の階調値も決定されていく。つまり、クロスパターンの中心の画素から各ラインの先端の画素に向けて輝度が低くなるように、クロスパターンを構成する各画素の階調値がそれぞれ決定される。 Step S207 is processing for generating a cross pattern based on step S205 or step S206. In the process of step S205, a cross pattern is generated on an image (hereinafter referred to as a reference image) in which the background is black and has the same angle of view as the reduced image. In step S202, since the attention area is detected from the reduced image, a pixel corresponding to the pixel that is the center of the attention area is obtained from the pixels constituting the reference image. A cross pattern is generated so as to be the cross pattern set in S206. At the time of generating the cross pattern, the tone values of pixels constituting the cross pattern are also determined using the color information obtained in step S203. That is, the gradation value of each pixel constituting the cross pattern is determined so that the luminance decreases from the pixel at the center of the cross pattern toward the pixel at the tip of each line.
例えば、ステップS205の処理が実行された場合には、注目領域の大きさに基づいたクロスパターンに対して所定倍率となる大きさのクロスパターンが生成される。一方、ステップS206の処理が行われた場合には、注目領域の大きさに基づいたクロスパターンが生成される。 For example, when the process of step S205 is executed, a cross pattern having a predetermined magnification is generated with respect to the cross pattern based on the size of the region of interest. On the other hand, when the process of step S206 is performed, a cross pattern based on the size of the attention area is generated.
ステップS208は、クロスパターンが全ての注目領域に対応して生成されたか否かを判定する処理である。このステップS208において、クロスパターンが全ての注目領域に対して生成されていない場合にはステップS204に戻る。一方、クロスパターンが全ての注目領域に対して生成された場合には、処理が終了する。 Step S208 is processing to determine whether or not a cross pattern has been generated corresponding to all the attention areas. In step S208, if the cross pattern has not been generated for all the attention areas, the process returns to step S204. On the other hand, when the cross pattern has been generated for all the attention areas, the processing ends.
例えば図6(a)に示す画像に画像効果を付加した場合には、対象領域80の内部の注目領域に配置されたクロスパターンが強調された画像を得ることができる(図7参照)。図示はしないが、抽出された対象領域の内部及び外部にそれぞれ注目領域があり、対象領域の内部にある注目領域と対象領域の外部にある注目領域との大きさが同一であれば、対象領域の内部にある注目領域に配置されるクロスパターンが、対象領域の外部にある注目領域に配置されるクロスパターンよりも大きくなる、つまり、対象領域を抽出することで、付加する画像効果を異なるようにすることができ、付加する画像効果によって違和感を与えずに済む。また、画像効果を異なるようにする内容として画像効果の強弱を変える内容とした場合には、注目領域が対象領域にあるか否かによって付加される画像効果の強弱を自動的に設定することができる。
For example, when an image effect is added to the image shown in FIG. 6A, an image in which the cross pattern arranged in the attention area inside the
本実施形態では、対象領域内に配置されるクロスパターンの大きさを、注目領域に基づいて生成されるクロスパターンの大きさの所定倍率の大きさとなるようにしているが、これに限定されるものではなく、クロスパターンの各ラインの長さを、注目領域に基づいて生成されるクロスパターンの各ラインの長さよりも長くする、或いは各ラインの太さ(ラインの幅)を太くすることも可能である。また、この他に、対象領域に設けられるクロスパターンを構成するラインの数を、注目領域に基づいて生成されるクロスパターンのラインの数よりも多くすることも可能である。また、注目領域の検出を行う際に、対象領域内部に対しては、検出する輝度値を下げて、描画するクロスパターンの数を増やすように設定することも可能である。 In the present embodiment, the size of the cross pattern arranged in the target region is set to a predetermined magnification of the size of the cross pattern generated based on the region of interest. However, the present invention is not limited to this. Instead, the length of each line of the cross pattern is made longer than the length of each line of the cross pattern generated based on the region of interest, or the thickness (line width) of each line may be increased. Is possible. In addition to this, the number of lines constituting the cross pattern provided in the target area can be made larger than the number of lines of the cross pattern generated based on the attention area. Further, when detecting the attention area, it is also possible to set the inside of the target area to decrease the luminance value to be detected and increase the number of cross patterns to be drawn.
本実施形態では、対象領域の内部に配置されるクロスパターンを、対象領域から外れるクロスパターンよりも大きく設定しているが、対象領域の内部に配置されるクロスパターンを、対象領域から外れるクロスパターンよりも小さくすることも可能である。 In the present embodiment, the cross pattern arranged inside the target area is set to be larger than the cross pattern outside the target area, but the cross pattern arranged inside the target area is set to the cross pattern outside the target area. It is also possible to make it smaller.
本実施形態においては、対象領域から外れた注目領域に対して、注目領域の大きさに基づいたクロスパターンを配置しているが、これに限定する必要はなく、例えば対象領域から外れた注目領域に対して配置されるクロスパターンの大きさを、注目領域に基づいて生成されるクロスパターンの大きさよりも小さくする、或いは対象領域から外れた注目領域に対してはクロスパターンを配置しないことも可能である。図6(b)に示すように、例えばボールや靴が照明光により輝度が高くなる場合、これらボールや靴は対象領域から外れていることになる。しかしながら、これらボールや靴に該当する画素のうち、輝度の高い領域は注目領域として検出されていることから、これら注目領域に対しては、クロスパターンは配置されない。つまり、対象領域として抽出された場合にのみ画像効果が付加されることになるので、このような画像に対して画像効果を付加する場合には、画像効果によって不自然さを生じさせることが防止できる。 In the present embodiment, the cross pattern based on the size of the attention area is arranged for the attention area outside the target area. However, the present invention is not limited to this. For example, the attention area outside the target area. It is also possible to make the size of the cross pattern arranged for the smaller than the size of the cross pattern generated based on the attention area, or not to place the cross pattern in the attention area outside the target area It is. As shown in FIG. 6B, for example, when the brightness of a ball or shoe is increased by illumination light, the ball or shoe is out of the target area. However, since a region with high luminance is detected as a region of interest among the pixels corresponding to these balls and shoes, no cross pattern is arranged for these regions of interest. In other words, an image effect is added only when the image is extracted as a target area. Therefore, when adding an image effect to such an image, it is possible to prevent the image effect from causing unnaturalness. it can.
また、この他に、予め画像効果を付加しない領域を除外した上で、対象領域を抽出することも可能である。図8に示すように、例えば撮像を行った日時を埋め込む設定で得られた画像の場合には、予め撮像された日時を埋め込む領域(図中符号90で示す領域)が予め設定されており、画像データに撮像された日時を埋め込む情報が付帯情報として付帯されている。このような撮像された日時を埋め込む設定で撮像された画像に画像効果を付加する場合には、撮像された日時を埋め込む情報が付帯されているか否かを付帯情報を参照する。そして、撮像された日時を埋め込む情報が付帯情報にある場合には、撮像された日時を埋め込む領域を除外した上で、注目領域を検出する。これにより、撮像された日時が埋め込まれた画像において、撮像された日時が埋め込まれる領域から注目領域が検出されることを防止でき、注目領域に合わせて付加されるクロスパターンと撮影日時を示す文字とが重なり、画像効果が不自然となることを防止できる。
In addition to this, it is also possible to extract a target region after excluding a region to which an image effect is not added in advance. As shown in FIG. 8, for example, in the case of an image obtained by setting to embed the date and time when the image was taken, an area (area indicated by
また、予め撮像された日時が埋め込まれた画像データの場合も同様であり、そのまま画像効果を付加すると、撮像された日時を示す文字にクロスパターンが生成されてしまい、不自然な画像となる。このような場合は、画像データに付帯された付帯情報から、撮像された日時が埋め込まれているか否かの情報を取得して、撮像された日時が埋め込まれている画像となる場合には、撮像された日時が埋め込まれた領域を予め画像効果を付与しない領域として除外する。 The same applies to image data in which the date and time captured in advance are embedded. If an image effect is added as it is, a cross pattern is generated in characters indicating the date and time when the image is captured, resulting in an unnatural image. In such a case, from the incidental information attached to the image data, information on whether or not the imaged date and time is embedded is obtained, and when the imaged date and time are embedded, An area in which the captured date and time is embedded is excluded in advance as an area to which no image effect is applied.
本実施形態では、パターンマッチング等により自動的に対象領域を抽出する処理を行っているが、これに限定する必要はなく、ユーザ等に対象領域を決定させることも可能である。 In the present embodiment, the process of automatically extracting the target area by pattern matching or the like is performed. However, the present invention is not limited to this, and the user or the like can determine the target area.
本実施形態では、マスク画像データを作成して、このマスク画像データと元画像データとを合成することで、元画像データに画像効果を付加しているが、これに限定する必要はなく、元画像データに直接画像効果を付加することも可能である。 In the present embodiment, mask image data is created, and the mask image data and the original image data are combined to add an image effect to the original image data. However, the present invention is not limited to this. It is also possible to add an image effect directly to the image data.
本実施形態では、マスク画像のパターンとしてクロスパターンを挙げているが、これに限定する必要はなく、例えば、音符やハート等などのマークであってもよい。 In the present embodiment, a cross pattern is cited as a mask image pattern. However, the present invention is not limited to this, and may be a mark such as a musical note or a heart.
本実施形態では、対象領域内に付加されるパターンの対象領域内に付加されるパターンの大きさと、対象領域外に付加されるパターンの大きさを変えているが、この他に、対象領域内に付加されるパターンの種類と、対象領域外に付加されるパターンの種類を変えることも可能である。 In the present embodiment, the size of the pattern added in the target area of the pattern added in the target area and the size of the pattern added outside the target area are changed. It is also possible to change the type of pattern added to the pattern and the type of pattern added outside the target area.
本実施形態では、縮小画像とマスク画像とを合成した後、LCDモニタ36に表示させる内容としているが、これに限定される必要はなく、元画像と拡大したマスク画像との合成画像を縮小してLCDモニタ36に表示させるようにしてもよい。 In this embodiment, the reduced image and the mask image are combined and then displayed on the LCD monitor 36. However, the present invention is not limited to this, and the combined image of the original image and the enlarged mask image is reduced. It may be displayed on the LCD monitor 36.
本実施形態では、画像拡縮部50、画像生成部51、フィルタ処理部59及び画像合成部60を、画像処理部35及びCPU15とは別に構成した形態としているが、これに限定されるものではなく、これら各部の機能を画像処理部35又はCPU15が備えている形態であってもよい。
In the present embodiment, the image enlargement / reduction unit 50, the
本実施形態では、撮像した画像に対して画像効果を付与する機能を備えたデジタルカメラについて説明したが、これに限定されるものではなく、例えば、図4及び図5のフローチャートに示す手順を実行できる画像処理装置であってもよい。また、図4及び図5のフローチャートに示す手順をコンピュータに実行させることができるプログラム、及び該プログラムを記憶し、コンピュータで読み取ることができる記憶媒体であってもよい。 In the present embodiment, a digital camera having a function of giving an image effect to a captured image has been described. However, the present invention is not limited to this. For example, the procedure shown in the flowcharts of FIGS. 4 and 5 is executed. An image processing apparatus that can be used may be used. Moreover, the program which can make a computer perform the procedure shown in the flowchart of FIG.4 and FIG.5, and the storage medium which memorize | stores this program and can be read with a computer may be sufficient.
本実施形態では、クロスフィルタ処理についての内容としているが、フィルタ処理としては、これに限定される必要はない。例えばエンハンサー処理やソフトフィルタ処理などのフィルタ処理に対しても同様に対象領域内部については画像効果を強めるようにしてもよい。 In the present embodiment, the content is about the cross filter process, but the filter process is not necessarily limited to this. For example, the image effect may be strengthened in the target area in the same way for filter processing such as enhancer processing and soft filter processing.
10…デジタルカメラ、50…画像拡縮部、51…画像生成部、55…領域抽出部、56…注目領域検出部、57…色彩情報取得部、58…画像効果設定部、59…フィルタ処理部、60…画像合成部
DESCRIPTION OF
Claims (10)
前記領域抽出手段により抽出された前記対象領域内における画像効果と、前記対象領域外における画像効果とを異なるように設定する効果設定手段と、
前記効果設定手段による前記画像効果の設定に基づいて、前記元画像に付加する画像効果用のマスク画像を生成する画像生成手段と、
前記画像生成手段により生成されたマスク画像を、前記元画像に合成する画像合成手段と、を備えたことを特徴とする撮像装置。 A region extracting means for extracting, as a target region, a region for changing an image effect added to the original image from the original image obtained by imaging;
Effect setting means for setting differently the image effect in the target area extracted by the area extraction means and the image effect outside the target area;
Image generating means for generating a mask image for an image effect to be added to the original image based on the setting of the image effect by the effect setting means;
An image pickup apparatus comprising: an image combining unit that combines the mask image generated by the image generating unit with the original image.
前記画像効果を付加する際に用いる注目領域を前記元画像から検出する注目領域検出手段を備え、
前記効果設定手段は、前記対象領域にある前記注目領域に対して付加する画像効果を、前記対象領域から外れる注目領域に対して付加する画像効果よりも強調するように、各注目領域に対する画像効果を設定することを特徴とする撮像装置。 The imaging apparatus according to claim 1,
A region of interest detection means for detecting a region of interest used when adding the image effect from the original image,
The effect setting means is configured to emphasize the image effect added to the attention area in the target area more than the image effect added to the attention area outside the target area. An image pickup apparatus characterized by setting.
前記効果設定手段は、前記対象領域から外れる注目領域に対する画像効果を付加しないように設定することを特徴とする撮像装置。 The imaging device according to claim 1 or 2,
The imaging apparatus according to claim 1, wherein the effect setting means sets so as not to add an image effect to a region of interest outside the target region.
前記注目領域検出手段は、前記元画像を構成する各画素から、輝度が高くなる画素を注目領域として検出することを特徴とする撮像装置。 The imaging device according to claim 2 or 3,
The image pickup apparatus, wherein the attention area detection unit detects a pixel having a high luminance as an attention area from each pixel constituting the original image.
前記元画像を縮小する画像縮小手段を備え、
前記領域抽出手段による前記対象領域の抽出及び前記注目領域検出手段による前記注目領域の検出は、前記画像縮小手段により縮小された元画像を用いることで実行され、
前記画像生成手段は、縮小された元画像と同一の画角となるように前記マスク画像を生成することを特徴とする撮像装置。 In the imaging device according to any one of claims 2 to 4,
Image reduction means for reducing the original image,
The extraction of the target area by the area extraction unit and the detection of the attention area by the attention area detection unit are executed by using the original image reduced by the image reduction unit,
The imaging apparatus, wherein the image generation unit generates the mask image so as to have the same angle of view as the reduced original image.
前記マスク画像を前記元画像と同一の画角となるように拡大する画像拡大手段を備え、
前記画像合成手段は、前記拡大されたマスク画像と元画像とを合成することを特徴とする撮像装置。 The imaging device according to claim 5.
Image enlarging means for enlarging the mask image to have the same angle of view as the original image;
The imaging apparatus, wherein the image synthesizing unit synthesizes the enlarged mask image and the original image.
前記画像生成手段により作成されたマスク画像に対してフィルタ処理を施すフィルタ処理手段をさらに備え、
前記画像拡大手段は、前記フィルタ処理が施されたマスク画像を拡大することを特徴とする撮像装置。 The imaging device according to claim 6.
A filter processing unit that performs a filter process on the mask image created by the image generation unit;
The imaging apparatus, wherein the image enlargement means enlarges the mask image subjected to the filter processing.
前記マスク画像は、予め設定されたパターンが画像効果用として配置された画像からなり、
前記効果設定手段は、前記対象領域内に配置されるパターンと、前記対象領域外に配置されるパターンとの大きさを異なるように設定することを特徴とする撮像装置。 In the imaging device according to any one of claims 1 to 7,
The mask image consists of an image in which a preset pattern is arranged for image effect,
The imaging apparatus according to claim 1, wherein the effect setting means sets a size of a pattern arranged in the target area and a pattern arranged outside the target area so as to be different from each other.
前記パターンは、複数のラインを放射状に延出させた形状からなり、
前記効果設定手段は、前記対象領域内か否かによって、前記パターンを構成するラインの数を異なるように設定することを特徴とする撮像装置。 The imaging apparatus according to claim 8.
The pattern has a shape in which a plurality of lines are radially extended,
The imaging apparatus according to claim 1, wherein the effect setting means sets the number of lines constituting the pattern to be different depending on whether or not the target area is included.
前記領域抽出手段により抽出された前記対象領域内における画像効果と、前記対象領域外における画像効果とを異なるように設定するステップと、
前記効果設定手段による前記画像効果の設定に基づいて、前記元画像に付加する画像効果用のマスク画像を生成するステップと、
前記画像生成手段により生成されたマスク画像を、前記元画像に合成するステップと、
をコンピュータに実行させることを特徴とする画像効果付加プログラム。 Extracting, from the original image obtained by imaging, a region for changing the image effect added to the original image as a target region;
Setting the image effect within the target region extracted by the region extraction means different from the image effect outside the target region;
Generating a mask image for image effect to be added to the original image based on the setting of the image effect by the effect setting means;
Combining the mask image generated by the image generation means with the original image;
An image effect addition program for causing a computer to execute
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008014062A JP5082884B2 (en) | 2008-01-24 | 2008-01-24 | Imaging apparatus and image effect addition program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008014062A JP5082884B2 (en) | 2008-01-24 | 2008-01-24 | Imaging apparatus and image effect addition program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2009177508A true JP2009177508A (en) | 2009-08-06 |
JP5082884B2 JP5082884B2 (en) | 2012-11-28 |
Family
ID=41032140
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2008014062A Expired - Fee Related JP5082884B2 (en) | 2008-01-24 | 2008-01-24 | Imaging apparatus and image effect addition program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5082884B2 (en) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012009995A (en) * | 2010-06-23 | 2012-01-12 | Olympus Imaging Corp | Imaging apparatus, image processing method and image processing program |
JP2012014645A (en) * | 2010-07-05 | 2012-01-19 | Olympus Imaging Corp | Image processing device, imaging device, image processing method, and image processing program |
JP2012015859A (en) * | 2010-07-01 | 2012-01-19 | Olympus Imaging Corp | Imaging apparatus, image processing apparatus, and image processing method |
JP2012104932A (en) * | 2010-11-08 | 2012-05-31 | Olympus Imaging Corp | Imaging device and imaging method |
JP2016029828A (en) * | 2015-10-16 | 2016-03-03 | オリンパス株式会社 | Imaging device, imaging method, and program |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001169083A (en) * | 1999-12-06 | 2001-06-22 | Fuji Photo Film Co Ltd | Picture processing method, picture processor and recording medium |
-
2008
- 2008-01-24 JP JP2008014062A patent/JP5082884B2/en not_active Expired - Fee Related
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001169083A (en) * | 1999-12-06 | 2001-06-22 | Fuji Photo Film Co Ltd | Picture processing method, picture processor and recording medium |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012009995A (en) * | 2010-06-23 | 2012-01-12 | Olympus Imaging Corp | Imaging apparatus, image processing method and image processing program |
JP2012015859A (en) * | 2010-07-01 | 2012-01-19 | Olympus Imaging Corp | Imaging apparatus, image processing apparatus, and image processing method |
JP2012014645A (en) * | 2010-07-05 | 2012-01-19 | Olympus Imaging Corp | Image processing device, imaging device, image processing method, and image processing program |
JP2012104932A (en) * | 2010-11-08 | 2012-05-31 | Olympus Imaging Corp | Imaging device and imaging method |
US8842200B2 (en) | 2010-11-08 | 2014-09-23 | Olympus Imaging Corp. | Imaging device and imaging method capable of bright spot processing |
JP2016029828A (en) * | 2015-10-16 | 2016-03-03 | オリンパス株式会社 | Imaging device, imaging method, and program |
Also Published As
Publication number | Publication date |
---|---|
JP5082884B2 (en) | 2012-11-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5767485B2 (en) | Image processing apparatus and control method | |
JP5968068B2 (en) | Imaging apparatus for controlling exposure, control method for imaging apparatus, program, and recording medium | |
KR101247647B1 (en) | Image synthesizing device, image synthesizing method, and recording medium | |
JP5804857B2 (en) | Image processing apparatus, image processing method, and program | |
JP2010263423A (en) | Method and device for processing image | |
JP5082884B2 (en) | Imaging apparatus and image effect addition program | |
JP2008164758A (en) | Image restoration device | |
JP4935665B2 (en) | Imaging apparatus and image effect providing program | |
JP2007243917A (en) | Imaging apparatus and image processing program | |
JP2008166947A (en) | Imaging apparatus | |
JP4584884B2 (en) | Imaging apparatus and imaging method | |
JP6541501B2 (en) | IMAGE PROCESSING APPARATUS, IMAGING APPARATUS, AND IMAGE PROCESSING METHOD | |
JP4952574B2 (en) | Image composition apparatus and program | |
JP5882644B2 (en) | Image processing apparatus, control method thereof, and program | |
JP5413625B2 (en) | Image composition apparatus and program | |
JP5446847B2 (en) | Image processing apparatus and method, and program | |
JP5125478B2 (en) | Imaging apparatus and image effect providing program | |
JP5822606B2 (en) | Image processing apparatus and image processing apparatus control method | |
JP5146500B2 (en) | Image composition apparatus, image composition method, and program | |
JP2023111637A (en) | Image processing device and method and imaging apparatus | |
JP4389671B2 (en) | Image processing apparatus, image processing method, and computer program | |
JP2018097897A (en) | Image processing apparatus and image processing program | |
JP2011151454A (en) | Image processor, imaging apparatus and image processing method | |
JP6075829B2 (en) | IMAGING DEVICE, CAMERA SYSTEM, IMAGING DEVICE CONTROL METHOD, PROGRAM, AND STORAGE MEDIUM | |
JP2021057626A (en) | Image processing apparatus, image processing method, and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20110124 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20110624 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20120315 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20120321 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20120521 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20120807 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20120820 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5082884 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20150914 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20150914 Year of fee payment: 3 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |