JP4935665B2 - Imaging apparatus and image effect providing program - Google Patents

Imaging apparatus and image effect providing program Download PDF

Info

Publication number
JP4935665B2
JP4935665B2 JP2007327697A JP2007327697A JP4935665B2 JP 4935665 B2 JP4935665 B2 JP 4935665B2 JP 2007327697 A JP2007327697 A JP 2007327697A JP 2007327697 A JP2007327697 A JP 2007327697A JP 4935665 B2 JP4935665 B2 JP 4935665B2
Authority
JP
Japan
Prior art keywords
image
mask
mask image
pixel
imaging
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2007327697A
Other languages
Japanese (ja)
Other versions
JP2009152779A (en
Inventor
宏美 冨井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2007327697A priority Critical patent/JP4935665B2/en
Publication of JP2009152779A publication Critical patent/JP2009152779A/en
Application granted granted Critical
Publication of JP4935665B2 publication Critical patent/JP4935665B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)
  • Editing Of Facsimile Originals (AREA)
  • Studio Devices (AREA)

Description

本発明は、撮像された画像に対して画像効果を施す撮像装置、及び画像効果付与プログラムに関する。   The present invention relates to an imaging apparatus that applies an image effect to a captured image, and an image effect applying program.

従来、例えばクロスフィルタをデジタルカメラのレンズに取り付けて撮像する、或いは撮像により得られた画像に対して画像効果を付与することで、画像効果が付与された画像を取得することが一般に行われている。   Conventionally, for example, a cross filter is attached to a lens of a digital camera to capture an image, or an image effect is applied to an image obtained by imaging, and an image with an image effect is generally obtained. Yes.

例えば、撮像により得られた画像(以下、元画像)に対して画像効果を付与する場合、元画像に対して直接画像効果を付与すると、画像効果を付与する処理に時間がかかることから、元画像を縮小した縮小画像から画像効果として用いる画像(以下、マスク画像)を作成し、作成されたマスク画像を元画像と同一の画角になるように拡大した後、元画像に合成している(特許文献1参照)。
特開2006−211321号公報
For example, when an image effect is applied to an image obtained by imaging (hereinafter referred to as an original image), if the image effect is directly applied to the original image, it takes time to apply the image effect. An image to be used as an image effect (hereinafter referred to as a mask image) is created from the reduced image obtained by reducing the image, and the created mask image is enlarged so as to have the same angle of view as the original image, and then combined with the original image. (See Patent Document 1).
JP 2006-213121 A

しかしながら、マスク画像は元画像に合成される際に拡大されることから、マスク画像の画質が低下してしまう。つまり画質が低下したマスク画像を、そのまま元画像に合成した場合には、マスク画像に形成されるパターンと元画像との境界がわかりやすく、付与された画像効果が不自然なものとなりやすい。   However, since the mask image is enlarged when it is combined with the original image, the image quality of the mask image is degraded. That is, when a mask image with reduced image quality is directly combined with the original image, the boundary between the pattern formed on the mask image and the original image is easy to understand, and the applied image effect tends to be unnatural.

本発明は、上述した課題を解決するために発明されたものであり、縮小画像からマスク画像を作成した場合であっても、元画像に対して適切な画像効果を付与することができるようにした撮像装置、及び画像効果付与プログラムを提供することを目的とする。   The present invention has been invented to solve the above-described problems, and can provide an appropriate image effect to an original image even when a mask image is created from a reduced image. It is an object of the present invention to provide an imaging device and an image effect imparting program.

第1の発明の撮像装置は、撮像時に得られた元画像を縮小する画像縮小手段と、前記画像縮小手段により生成された縮小画像を利用して、前記元画像に付与する画像効果用のマスク画像を生成する画像生成手段と、前記マスク画像に対してフィルタ処理を実行するフィルタ処理手段と、前記フィルタ処理されたマスク画像を拡大する画像拡大手段と、拡大されたマスク画像と前記元画像とを合成する画像合成手段と、を備えたことを特徴とする。   An image pickup apparatus according to a first aspect of the present invention is an image reduction means for reducing an original image obtained at the time of image pickup, and an image effect mask to be applied to the original image using the reduced image generated by the image reduction means. Image generating means for generating an image; filter processing means for executing a filtering process on the mask image; image enlarging means for enlarging the filtered mask image; the enlarged mask image and the original image; And image synthesizing means for synthesizing.

第2の発明は、第1の発明において、前記縮小画像における注目領域を検出する領域検出手段を備え、前記画像生成手段は、検出された前記注目領域に対応したマスク画像を作成することを特徴とする。   According to a second aspect of the present invention, in the first aspect of the present invention, the image processing device includes a region detection unit that detects a region of interest in the reduced image, and the image generation unit creates a mask image corresponding to the detected region of interest. And

第3の発明は、第2の発明において、前記領域検出手段は、前記縮小画像の各画素における輝度を算出して、算出された各画素における輝度のうち、輝度が高い画素を前記注目領域として検出することを特徴とする。   In a third aspect based on the second aspect, the area detection means calculates a luminance at each pixel of the reduced image, and a pixel having a higher luminance among the calculated luminances at each pixel is used as the attention area. It is characterized by detecting.

第4の発明は、第2又は第3の発明において、前記領域検出手段により検出された前記注目領域の周縁における色彩情報を取得する色彩情報取得手段をさらに備え、前記画像生成手段は、前記注目領域の大きさと該注目領域の周縁における色彩情報とに基づいて前記マスク画像を生成することを特徴とする。   According to a fourth aspect, in the second or third aspect, the apparatus further comprises color information acquisition means for acquiring color information at the periphery of the attention area detected by the area detection means, wherein the image generation means The mask image is generated based on the size of the region and the color information at the periphery of the region of interest.

第5の発明は、第2〜4の発明のいずれかにおいて、前記画像生成手段は、前記注目領域が複数検出されたときに、複数の注目領域からいずれかの注目領域を選択して、選択された注目領域に基づいたマスク画像を生成することを特徴とする。   In a fifth aspect based on any one of the second to fourth aspects, the image generation means selects and selects one of the attention areas from the plurality of attention areas when a plurality of the attention areas are detected. A mask image based on the attention area thus generated is generated.

第6の発明は、第1〜5発明のいずれかにおいて、前記マスク画像は、前記縮小画像と同一の画像サイズで、かつ予め設定されたパターンが前記注目領域に対応する位置に形成された画像からなることを特徴とする。   According to a sixth invention, in any one of the first to fifth inventions, the mask image is an image having the same image size as the reduced image and a preset pattern formed at a position corresponding to the region of interest. It is characterized by comprising.

第7の発明は、第6の発明において、前記パターンは、前記注目領域を基点にして複数のラインを放射状に延出させた形状からなることを特徴とする。   According to a seventh invention, in the sixth invention, the pattern has a shape in which a plurality of lines are radially extended from the region of interest as a base point.

第8の発明は、第7の発明において、前記複数のラインのそれぞれの先端周縁における画素の色を、該ラインの色から前記マスク画像の背景の色に近づけるように段階的に変化させたことを特徴とする。   According to an eighth aspect, in the seventh aspect, the color of the pixel at the tip periphery of each of the plurality of lines is changed in a stepwise manner so that the color of the line approaches the background color of the mask image. It is characterized by.

第9の発明の画像効果付与プログラムは、撮像時に得られた元画像を縮小することで、縮小画像を取得するステップと、前記縮小画像を利用して、前記元画像に付与する画像効果用のマスク画像を生成するステップと、生成されたマスク画像に対してフィルタ処理を実行するステップと、フィルタ処理が実行されたマスク画像を拡大するステップと、拡大されたマスク画像と前記元画像とを合成するステップと、をコンピュータに実行させることを特徴とする。   According to a ninth aspect of the invention, there is provided an image effect imparting program for obtaining a reduced image by reducing an original image obtained at the time of imaging, and an image effect imparted to the original image using the reduced image. Generating a mask image; performing a filtering process on the generated mask image; enlarging the mask image subjected to the filtering process; and combining the enlarged mask image and the original image. And causing the computer to execute.

本発明によれば、生成されたマスク画像に対してフィルタ処理を施した後、元画像と同一の画角となるように拡大することから、拡大されたマスク画像の画質が荒くなることを防止し、また、マスク画像と元画像とが合成されることで、付与される画像効果に対して違和感を与えることがない。   According to the present invention, after the generated mask image is filtered, the image is enlarged so as to have the same angle of view as the original image, so that the image quality of the enlarged mask image is prevented from becoming rough. In addition, since the mask image and the original image are combined, there is no sense of incongruity with the applied image effect.

図1は、デジタルカメラ10の構成の一例を示す概略図である。このデジタルカメラ10は、CPU15によって統括制御される。このCPU15には操作部16やレリーズボタン17の操作信号が入力されることから、CPU15は、入力される操作信号に基づいてデジタルカメラ10の各部を制御する。   FIG. 1 is a schematic diagram illustrating an example of the configuration of the digital camera 10. The digital camera 10 is centrally controlled by the CPU 15. Since the operation signals of the operation unit 16 and the release button 17 are input to the CPU 15, the CPU 15 controls each unit of the digital camera 10 based on the input operation signals.

撮像光学系20は、撮像レンズ21の他に、ズームレンズ22やフォーカスレンズ23を備えている。ズームレンズ22は、撮像時の撮像倍率を変更する際にレンズ駆動機構24によって光軸方向に沿って移動される。フォーカスレンズ23は、撮像時における焦点調節を行う際に、レンズ駆動機構24によって光軸方向に微小移動される。   The imaging optical system 20 includes a zoom lens 22 and a focus lens 23 in addition to the imaging lens 21. The zoom lens 22 is moved along the optical axis direction by the lens driving mechanism 24 when changing the imaging magnification at the time of imaging. The focus lens 23 is finely moved in the optical axis direction by the lens driving mechanism 24 when performing focus adjustment during imaging.

CCD25は、撮像光学系20を介して入射される被写体光を受光し、受光した光量に応じた信号電荷を蓄積することで、被写体光を光電変換する。なお、このCCD25における信号電荷の蓄積や蓄積された信号電荷の出力は、ドライバ26によって制御される。   The CCD 25 receives subject light incident via the imaging optical system 20, and photoelectrically converts the subject light by accumulating signal charges corresponding to the received light amount. The accumulation of signal charges in the CCD 25 and the output of the accumulated signal charges are controlled by the driver 26.

CCD25によって蓄積された信号電荷は、アナログ画像信号としてAFE回路27に出力される。このAFE回路27は、図示しないAGC回路やCDS回路を含んで構成される。AFE回路27は、入力されたアナログ画像信号に対してゲインコントロール、雑音除去などのアナログ処理を施す。   The signal charge accumulated by the CCD 25 is output to the AFE circuit 27 as an analog image signal. The AFE circuit 27 includes an AGC circuit and a CDS circuit (not shown). The AFE circuit 27 performs analog processing such as gain control and noise removal on the input analog image signal.

DFE回路28は、AFE回路27によってアナログ処理が施されたアナログ画像信号をデジタル画像信号に変換する。変換されたデジタル画像信号は1コマ毎にまとめられ、デジタル画像データとしてバッファメモリ30に記憶される。なお、ドライバ26、AFE回路27及びDFE回路28は、それぞれタイミングジェネレータ(TG)31における作動タイミングに基づいて制御される。また、符号32はバスであり、このバス32を介してデジタルカメラ10の各部が電気的に接続される。   The DFE circuit 28 converts the analog image signal subjected to the analog processing by the AFE circuit 27 into a digital image signal. The converted digital image signals are collected frame by frame and stored in the buffer memory 30 as digital image data. The driver 26, the AFE circuit 27, and the DFE circuit 28 are controlled based on the operation timing in the timing generator (TG) 31, respectively. Reference numeral 32 denotes a bus, and each part of the digital camera 10 is electrically connected via the bus 32.

画像処理部35は、バッファメモリ30に記憶されたデジタル画像データに対して、輪郭補償、ガンマ補正、ホワイトバランス調整などの画像処理を施す。この画像処理が施されたデジタル画像データは例えばJPEG方式などの記憶方式で圧縮するためのフォーマット処理(画像後処理)が施された後、再度バッファメモリ30に記憶される。このバッファメモリ30に記憶されたデジタル画像データは、所定の圧縮方式に対応する圧縮率を用いて圧縮処理される。   The image processing unit 35 performs image processing such as contour compensation, gamma correction, and white balance adjustment on the digital image data stored in the buffer memory 30. The digital image data subjected to this image processing is subjected to format processing (image post-processing) for compression by a storage method such as the JPEG method, and then stored in the buffer memory 30 again. The digital image data stored in the buffer memory 30 is compressed using a compression rate corresponding to a predetermined compression method.

例えばデジタルカメラ10に設けられたLCDモニタ36にスルー画像を表示する場合には、画像処理後のデジタル画像データに対して、LCDモニタ36の解像度に合わせた圧縮率を用いて圧縮処理を実行し、表示制御部37に出力する。   For example, when a through image is displayed on the LCD monitor 36 provided in the digital camera 10, compression processing is executed on the digital image data after the image processing using a compression rate that matches the resolution of the LCD monitor 36. And output to the display control unit 37.

一方、デジタル画像データを記憶する場合には、画像記憶用に合わせた圧縮率を用いた圧縮処理が施され、内蔵メモリ38に記憶される。この内蔵メモリ38に格納されたデジタル画像データは、メディアコントローラ39を介して、メモリカードや光学ディスクなどの記憶媒体40に書き込まれる。なお、画像記憶用に合わせた圧縮率としては、予めデジタルカメラ10において設定される画像記憶用の解像度に合わせた圧縮率の他、予めユーザが操作部16を操作することにより設定した解像度に合わせた圧縮率が挙げられる。   On the other hand, when storing digital image data, a compression process using a compression rate suitable for image storage is performed and stored in the built-in memory 38. The digital image data stored in the built-in memory 38 is written into a storage medium 40 such as a memory card or an optical disk via the media controller 39. As the compression rate for image storage, in addition to the compression rate set for the image storage resolution set in advance in the digital camera 10, the compression rate is set according to the resolution set by the user operating the operation unit 16 in advance. Compression rate.

ストロボ装置41は、例えば測光センサ43における被写体の輝度が所定値以下となる場合に、被写体に向けてストロボ光を発光する。このストロボ装置41におけるストロボ光の発光タイミングや発光量はストロボ制御部42によって制御される。   The strobe device 41 emits strobe light toward the subject when, for example, the luminance of the subject in the photometric sensor 43 is a predetermined value or less. The strobe light emission timing and amount of light emitted from the strobe device 41 are controlled by a strobe control unit 42.

以下では、縮小処理される前の画像データを元画像データ、縮小処理された画像データを縮小画像データ、縮小画像データに基づいて作成される画像装飾用の画像データをマスク画像データと称して説明する。また、元画像データ、縮小画像データ及びマスク画像データを表示したものを、元画像、縮小画像、マスク画像とそれぞれ称して説明する。   In the following description, image data before reduction processing is referred to as original image data, image data after reduction processing is referred to as reduction image data, and image data for image decoration created based on the reduction image data is referred to as mask image data. To do. Further, the display of original image data, reduced image data, and mask image data will be referred to as an original image, a reduced image, and a mask image, respectively.

画像拡縮部50は、内蔵メモリ38に記憶された元画像データを所定の縮小率にて縮小処理する他に、後述するマスク画像データを所定の拡大率にて拡大する。なお、後述するマスク画像データを作成する際の処理を高速とするためには、上述した縮小率は大きくすれば良いことになるが、マスク画像を拡大するときの拡大率も大きくなることから、拡大した後のマスク画像における画質が低下してしまう。そこで、マスク画像データを作成するときの元画像データの縮小率は、処理速度とマスク画像の画質とを考慮して設定される。一方、拡大率は、マスク画像の大きさが元画像の大きさと同一になる拡大率である。なお、画像データを縮小、及び拡大する方法としては、周知のバイリニア法や、バイキュービック法が挙げられる。   In addition to reducing the original image data stored in the built-in memory 38 at a predetermined reduction rate, the image enlargement / reduction unit 50 enlarges mask image data described later at a predetermined enlargement rate. In order to increase the processing speed when creating mask image data, which will be described later, the reduction ratio described above may be increased. However, the enlargement ratio when the mask image is enlarged also increases. The image quality of the enlarged mask image is degraded. Therefore, the reduction rate of the original image data when creating the mask image data is set in consideration of the processing speed and the image quality of the mask image. On the other hand, the enlargement ratio is an enlargement ratio at which the size of the mask image is the same as the size of the original image. As a method for reducing and enlarging the image data, a known bilinear method and a bicubic method can be cited.

画像生成部51は、元画像データに合成するマスク画像データを生成する。この画像生成部51は、後述する領域検出部52によって検出された注目領域の大きさ(画素数)と、後述する色彩情報取得部53によって取得された色彩情報とから、マスク画像データを作成する。   The image generation unit 51 generates mask image data to be combined with the original image data. The image generation unit 51 creates mask image data from the size (number of pixels) of the attention area detected by the area detection unit 52 described later and the color information acquired by the color information acquisition unit 53 described later. .

図2に示すように、マスク画像データをLCDモニタ36に表示すると、縮小画像と同一の画角からなるマスク画像MIが表示される。このマスク画像MIは、黒色となる背景(図2の点で示すハッチングの領域65)に対して、例えば、輝度の高い色彩のクロスパターン66、67が配置された画像からなる。上述したクロスパターンは、後述する注目領域の中心となる画素を基点とした複数のラインが、それぞれ放射状に延出された形状からなる。このクロスパターンのラインの長さや太さは、注目領域の大きさ(画素数)に基づいて決定される。なお、クロスパターンの太さや長さと、注目領域の大きさとが対応されたテーブルデータを予め記憶させておき、抽出された注目領域の大きさからクロスパターンの大きさや太さを決定すればよい。   As shown in FIG. 2, when the mask image data is displayed on the LCD monitor 36, a mask image MI having the same angle of view as the reduced image is displayed. This mask image MI is made up of an image in which, for example, cross patterns 66 and 67 with high luminance are arranged on a black background (hatched area 65 indicated by a dot in FIG. 2). The cross pattern described above has a shape in which a plurality of lines starting from a pixel that becomes the center of a region of interest described later are radially extended. The length and thickness of the cross pattern line are determined based on the size (number of pixels) of the region of interest. Note that table data in which the thickness and length of the cross pattern correspond to the size of the attention area is stored in advance, and the size and thickness of the cross pattern may be determined from the extracted size of the attention area.

また、クロスパターンの色は、後述する色彩情報取得部53によって取得された色彩情報に基づいて決定される。つまり、クロスパターンの中心側から各ラインの先端に向けて輝度が低くなるように、各画素の階調値(RGB値や、YCrCb値)を決定していく。なお、上述したクロスパターンのライン数や、ラインの角度は、予めユーザが任意に選択できるようにしてもよいし、予め設定されたものであってもよい。また、クロスパターンは、検出された全ての注目領域に対して配置しても良いし、注目領域の大きさによって、クロスパターンを配置する注目領域を選択できるようにしてもよい。   The color of the cross pattern is determined based on the color information acquired by the color information acquisition unit 53 described later. That is, the gradation value (RGB value or YCrCb value) of each pixel is determined so that the luminance decreases from the center side of the cross pattern toward the tip of each line. Note that the number of lines in the cross pattern and the angle of the lines described above may be arbitrarily selected by the user in advance or may be set in advance. The cross pattern may be arranged for all detected attention areas, or the attention area where the cross pattern is arranged may be selected depending on the size of the attention area.

この画像生成部51は、領域検出部52と、色彩情報取得部53とを備えている。領域検出部52は、縮小画像内の注目領域を検出する。注目領域の検出としては、縮小画像において、輝度の高い画素を抽出し、抽出された画素のうち、複数の画素が略円形、又は略楕円形となるように隣接されている領域を注目領域とする。注目領域が検出されるときに、注目領域の中心となる画素も併せて求められる。   The image generation unit 51 includes an area detection unit 52 and a color information acquisition unit 53. The region detection unit 52 detects a region of interest in the reduced image. As the detection of the attention area, pixels with high luminance are extracted from the reduced image, and among the extracted pixels, an area adjacent so that a plurality of pixels are substantially circular or substantially elliptical is defined as the attention area. To do. When the attention area is detected, a pixel that is the center of the attention area is also obtained.

図3(a)は、例えば駅周辺の夜景を撮像した画像PIについて説明する。夜景を撮像した場合、外灯の発光部から離れる程、外灯の発光部からの照射光の影響が低くなることから輝度が低くなる。図3(b)に示すように、画像PIにおいて、例えば外灯の発光部及びその周縁部の領域70に注目すると、外灯の発光部に該当する領域(ハッチングを行っていない領域71)、その周縁の領域(斜線のハッチングを行っている領域72)、さらに外側となる領域(点のハッチングを行っている領域73)の順で輝度が低くなる。つまり、領域71の画素における輝度が、注目領域として検出される輝度よりも高くなることから、領域71を注目領域として検出する。この場合、画素74が注目領域71の中心となる。   FIG. 3A illustrates an image PI obtained by capturing a night view around a station, for example. When a night scene is imaged, the farther away from the light emitting part of the outer light, the lower the luminance because the influence of the irradiation light from the light emitting part of the outer light becomes lower. As shown in FIG. 3B, in the image PI, for example, when attention is paid to the light emitting portion of the outdoor lamp and the peripheral region 70 thereof, the region corresponding to the light emitting portion of the external light (region 71 where hatching is not performed) and the peripheral edge thereof. The brightness decreases in the order of the area (hatched area 72 where hatching is performed) and the outer area (area 73 where dot hatching is performed). That is, since the luminance in the pixels of the region 71 is higher than the luminance detected as the attention region, the region 71 is detected as the attention region. In this case, the pixel 74 is the center of the attention area 71.

色彩情報取得部53は、領域検出部52によって検出された注目領域の周縁の画素のうち、輝度が略同一となる画素の階調値の平均値を色彩情報として取得する。図3(b)においては、領域72においては、外灯が点灯することで照射光の影響が大きい領域であることから、この照射光の影響が大きい領域となる各画素の階調値の平均値を色彩情報として取得する。   The color information acquisition unit 53 acquires, as color information, an average value of gradation values of pixels having substantially the same luminance among the peripheral pixels of the region of interest detected by the region detection unit 52. In FIG. 3B, since the area 72 is an area where the influence of the irradiation light is large due to the lighting of the outside lamp, the average value of the gradation values of each pixel which is an area where the influence of the irradiation light is large. Is acquired as color information.

フィルタ処理部54は、生成されたマスク画像データに対してローパスフィルタ(LPF)処理を行う。このLPF処理としては、3×3の計9個の画素71〜79のうち、中心にある画素75に対する重み付けを「2」とし、画素71〜74及び画素76〜79に対する重み付けを「1」としたコンボリューション演算を行う処理が挙げられる。図4に示すように、例えば3×3の計9個の画素71〜79について述べると、画素77が赤色、画素74、78がピンク色、画素71〜73、画素75,76及び画素79が白色からなる場合には、このLPF処理を行うことで、画素75が白色から薄いピンク色となる。この処理は、マスク画像を構成する全ての画素を用いて行われることから、マスク画像中のパターンと背景との境界がはっきりした画像を、パターンと背景との境界をぼかした画像に加工することができる。   The filter processing unit 54 performs low-pass filter (LPF) processing on the generated mask image data. In this LPF process, among the 9 pixels 71 to 79 in total of 3 × 3, the weight for the pixel 75 at the center is “2”, and the weight for the pixels 71 to 74 and the pixels 76 to 79 is “1”. A process for performing the convolution calculation. As shown in FIG. 4, for example, a total of nine pixels 71 to 79 of 3 × 3 are described. The pixel 77 is red, the pixels 74 and 78 are pink, the pixels 71 to 73, the pixels 75 and 76, and the pixel 79 are In the case of white, the pixel 75 changes from white to light pink by performing this LPF process. Since this processing is performed using all the pixels that make up the mask image, an image with a clear boundary between the pattern and the background in the mask image is processed into an image with a blurred boundary between the pattern and the background. Can do.

画像合成部55は、画像生成部51にて生成されたマスク画像データと縮小画像データとを合成する、或いは、画像拡縮部50で拡大されたマスク画像データと元画像データとを合成する。画像合成部55によって合成された画像データは、内蔵メモリ38に記憶される。   The image composition unit 55 synthesizes the mask image data generated by the image generation unit 51 and the reduced image data, or synthesizes the mask image data enlarged by the image enlargement / reduction unit 50 and the original image data. The image data synthesized by the image synthesis unit 55 is stored in the built-in memory 38.

次に、デジタルカメラ10において撮像された画像データに画像効果を付与する際の処理手順について、図5のフローチャートに基づいて説明する。なお、撮像された画像データに画像効果を付与するか否かを予めユーザが選択できるようにしてもよいし、全ての画像データに対して自動的に画像効果を付与するようにしてもよい。デジタルカメラ10によって撮像処理が実行されると、撮像により取得された画像データを元画像データとした上で、ステップS101に進む。   Next, a processing procedure for giving an image effect to image data captured by the digital camera 10 will be described based on a flowchart of FIG. It should be noted that it may be possible for the user to select in advance whether or not to apply an image effect to the captured image data, or an image effect may be automatically applied to all image data. When the imaging process is executed by the digital camera 10, the image data acquired by imaging is used as original image data, and the process proceeds to step S <b> 101.

ステップS101は、元画像データから縮小画像データを作成する処理である。なお、このステップS101の処理により、元画像データとは別に縮小画像データが作成され、内蔵メモリ38に記憶される。   Step S101 is processing for creating reduced image data from original image data. Note that reduced image data is created separately from the original image data and stored in the built-in memory 38 by the processing in step S101.

ステップS102は、ステップS101において作成された縮小画像データを用いて、注目領域を検出する処理である。ステップS102においては、縮小画像を構成する画素のうち、輝度の高い画素を抽出し、抽出された画素のうち、複数の画素が略円形又は略楕円形となるように隣り合う領域を注目領域として検出する。この注目領域の検出時に、その中心となる画素が特定される。つまり、図3の場合には、夜間の駅周辺を撮像した画像の場合には、外灯の発光部が注目領域として検出される。   Step S102 is processing for detecting a region of interest using the reduced image data created in step S101. In step S102, pixels having high luminance are extracted from the pixels constituting the reduced image, and the adjacent areas are selected as the attention area so that the plurality of extracted pixels are substantially circular or oval. To detect. At the time of detecting this attention area, the pixel serving as the center is specified. That is, in the case of FIG. 3, in the case of an image obtained by imaging the vicinity of the station at night, the light emitting part of the outdoor lamp is detected as the attention area.

ステップS103は、ステップS102によって抽出された注目領域の周縁における画素の色彩情報を検出する処理である。なお、ステップS103においては、注目領域の周縁の領域のうち、輝度が略同一となる画素を検出し、検出された画素の階調値を平均した値を色彩情報として取得する。   Step S103 is processing for detecting color information of pixels at the periphery of the attention area extracted in step S102. In step S103, pixels having substantially the same luminance are detected from the peripheral area of the attention area, and a value obtained by averaging the gradation values of the detected pixels is acquired as color information.

ステップS104は、マスク画像データの作成処理である。ステップS102において抽出された注目領域の大きさ(画素数)はわかっていることから、この注目領域の大きさから、マスク画像に配置されるパターンの大きさ、つまり、クロスパターンの各ラインの長さを示す画素数及び太さを示す画素数がそれぞれ決定される。また、取得された色彩情報を用いて、クロスパターンの基点から各ラインの先端に向けて輝度が小さくなるように、クロスパターンの各画素の色(RGB値、又はYCrCb値)が決定される。これら決定により、背景が黒色で、注目領域の中心に該当する画素を基点としたクロスパターンが設けられたマスク画像データが生成される。   Step S104 is a process for creating mask image data. Since the size (number of pixels) of the attention area extracted in step S102 is known, the size of the pattern arranged in the mask image, that is, the length of each line of the cross pattern is determined from the size of the attention area. The number of pixels indicating the thickness and the number of pixels indicating the thickness are respectively determined. Also, using the acquired color information, the color (RGB value or YCrCb value) of each pixel of the cross pattern is determined so that the luminance decreases from the base point of the cross pattern toward the tip of each line. By these determinations, mask image data having a black background and a cross pattern with a pixel corresponding to the center of the region of interest as a base point is generated.

ステップS105は、ステップS104にて作成されたマスク画像データに対するLPF処理である。このLPF処理を行うことで、マスク画像がクロスパターンと背景との境界をぼかした画像となる。   Step S105 is an LPF process for the mask image data created in step S104. By performing this LPF process, the mask image becomes an image in which the boundary between the cross pattern and the background is blurred.

ステップ106は、縮小画像データと、マスク画像データとを合成する処理である。図6に示すように、取得された画像が、例えば駅周辺の夜景を撮像した画像PIで、作成されたマスク画像MIの場合には、これら画像を合成することで画像CIが取得される。   Step 106 is a process of combining the reduced image data and the mask image data. As shown in FIG. 6, in the case where the acquired image is, for example, an image PI obtained by capturing a night view around the station and the created mask image MI, the image CI is acquired by combining these images.

ステップS107は、ステップS106の処理を実行することで得られた画像をLCDモニタ36に表示する処理である。   Step S107 is a process of displaying the image obtained by executing the process of step S106 on the LCD monitor 36.

ステップS108は、合成された画像を変更するか否かが選択される処理である。例えば、合成された画像の変更を行わない場合にはステップS109に進み、合成された画像の変更を行う場合にはステップS102に戻る。なお、合成された画像を変更するとは、例えば合成するマスク画像のパターンをクロスパターンから他のパターンに変更する、又は、選択されているパターンがクロスパターンである場合には、クロスパターンのライン数を変更する、更にはマスク画像データのパターンの変更は行わないが、クロスパターンの角度を変更することが挙げられる。   Step S108 is processing for selecting whether or not to change the synthesized image. For example, if the synthesized image is not changed, the process proceeds to step S109. If the synthesized image is changed, the process returns to step S102. Note that changing the combined image means, for example, changing the pattern of the mask image to be combined from a cross pattern to another pattern, or if the selected pattern is a cross pattern, the number of lines in the cross pattern In addition, the pattern of the mask image data is not changed, but the angle of the cross pattern is changed.

ステップS109は、マスク画像データを拡大する処理である。ステップ105の処理を行うことで、マスク画像データは、背景とクロスパターンとの境界がぼけた画像からなることから、ステップS109によりマスク画像データを拡大しても、マスク画像データの画質を劣化させずに済む。   Step S109 is processing for enlarging the mask image data. By performing the processing in step 105, the mask image data is an image in which the boundary between the background and the cross pattern is blurred. Therefore, even if the mask image data is enlarged in step S109, the image quality of the mask image data is deteriorated. You do n’t have to.

ステップS110は、元画像データと拡大したマスク画像データとを合成する処理である。ステップS109によって拡大されたマスク画像データは、その画質は劣化していないことから、元画像に合成されるクロスパターンに対して違和感を与えることがない。これにより、クロススクリーンフィルタを用いて撮像を行うことで得られる画像と同等の画像を、擬似的に、また、高速に作成することができる。なお、ステップS111は、作成された合成画像データを内蔵メモリ38に記憶する処理である。   Step S110 is a process of combining the original image data and the enlarged mask image data. Since the image quality of the mask image data enlarged in step S109 has not deteriorated, it does not give a sense of incongruity to the cross pattern synthesized with the original image. Thereby, an image equivalent to an image obtained by performing imaging using a cross screen filter can be created in a pseudo and high speed manner. Step S <b> 111 is processing for storing the created composite image data in the built-in memory 38.

本実施形態では、縮小画像とマスク画像とを合成した後、LCDモニタ36に表示させる内容としているが、これに限定される必要はなく、元画像と拡大したマスク画像との合成画像を縮小してLCDモニタ36に表示させるようにしてもよい。   In this embodiment, the reduced image and the mask image are combined and then displayed on the LCD monitor 36. However, the present invention is not limited to this, and the combined image of the original image and the enlarged mask image is reduced. It may be displayed on the LCD monitor 36.

本実施形態では、元画像を縮小した縮小画像としているが、例えばLCDモニタ36にてサムネイル画像を表示することが可能なデジタルカメラであれば、サムネイル画像を縮小画像として用いることも可能である。   In the present embodiment, a reduced image obtained by reducing the original image is used. However, for example, if the digital camera is capable of displaying a thumbnail image on the LCD monitor 36, the thumbnail image can be used as the reduced image.

本実施形態では、画像拡縮部50、画像生成部51、フィルタ処理部54及び画像合成部55を、画像処理部35及びCPU15とは別に構成した形態としているが、これに限定されるものではなく、これら各部の機能を画像処理部35又はCPU15が備えている形態であってもよい。   In the present embodiment, the image enlargement / reduction unit 50, the image generation unit 51, the filter processing unit 54, and the image synthesis unit 55 are configured separately from the image processing unit 35 and the CPU 15, but are not limited thereto. The image processing unit 35 or the CPU 15 may have the functions of these units.

本実施形態では、マスク画像のパターンとしてクロスパターンを挙げているが、これに限定する必要はなく、例えば、音符やハート等のパターンであってもよい。   In the present embodiment, a cross pattern is cited as a mask image pattern, but the present invention is not limited to this. For example, a pattern such as a note or a heart may be used.

なお、上述したクロスパターンでは、先端に向けてラインの幅(太さ)が細くなるように形成することが一般的である。つまり、図7に示すように、ラインの先端を細くする場合、例えばラインの幅となる画素数を5画素とした場合、先端に向けて、3画素、1画素と段階的に画素数を減らしている。このようなラインの場合にLPF処理を行うと、例えばラインの幅を減少させた画素(図7においては、A行3列目の画素や、B行7列目の画素)の周縁において、画質の低下を防止することができない場合や、クロスパターンの各ラインが意図している太さよりも細くなってしまう場合がある。このような画質の低下やライン自体が細くなることを防止するために、例えばライン先端の画素のうち、ライン周縁の画素の色を背景の色とはせずラインの色と背景の色との間の階調値を備えた色とすることが考えられる。   Note that the cross pattern described above is generally formed so that the width (thickness) of the line becomes narrower toward the tip. That is, as shown in FIG. 7, when the tip of a line is narrowed, for example, when the number of pixels corresponding to the width of the line is five, the number of pixels is gradually reduced to three pixels and one pixel toward the tip. ing. When LPF processing is performed in the case of such a line, for example, the image quality is improved at the periphery of the pixel whose width is reduced (in FIG. 7, the pixel in the A row and the third column and the pixel in the B row and the seventh column). In some cases, it is not possible to prevent a decrease in the width of the cross pattern, or each line of the cross pattern becomes thinner than the intended thickness. In order to prevent such deterioration of image quality and thinning of the line itself, for example, among the pixels at the end of the line, the color of the pixel at the edge of the line is not the background color, and the line color and the background color It is conceivable to use a color having an intermediate gradation value.

例えばA行の画素について説明すると、このA行では、ラインとして使用する画素は、2列目の画素までであることから、A行2列目の画素における階調値と背景の階調値との差分を、ラインとして使用していない3〜10列目の画素数(この場合、8個)で除算する。除算することで得られた値を2列目の画素の階調値から減算し、その減算により得られた階調値をA行3列目の画素における階調値とする。また、3列目の画素の階調値から、上述した除算により得られた値を減算した階調値をA行4列目の画素における階調値とする。同様にして、5〜10列目の画素の階調値をそれぞれ求めることで、ラインとして使用していない3〜10列目の画素の色が段階的に背景の色に近づける、つまり、ラインとしていない3〜10列目の画素の色の濃淡を決定する。なお、E行についても同様である。   For example, the pixel in row A will be described. In this row A, the pixels used as a line are up to the pixel in the second column. Is divided by the number of pixels in the 3rd to 10th columns that are not used as lines (in this case, 8). The value obtained by the division is subtracted from the gradation value of the pixel in the second column, and the gradation value obtained by the subtraction is set as the gradation value in the pixel in the A row and the third column. A gradation value obtained by subtracting the value obtained by the above-described division from the gradation value of the pixel in the third column is set as the gradation value in the pixel in the A row and the fourth column. Similarly, by obtaining the gradation values of the pixels in the fifth to tenth columns, the colors of the pixels in the third to tenth columns that are not used as lines gradually approach the background color, that is, as lines. The shades of pixels in the 3rd to 10th columns are determined. The same applies to the E row.

また、B行及びD行についても同様であるが、B行及びD行は、ラインとして使用していない画素は、7〜10列目の画素であることから、この場合は、階調値の差分を画素数(この場合、4個)で除算し、それぞれの列に該当する画素の階調値をそれぞれ求めればよい。このように、ラインの先端となる画素のそれぞれをライン先端に向けて段階的に背景の色に近づけるように各画素の色を決定することで、ローパスフィルタ処理を実行したときに生じる画質の低下を抑制することができる。   The same applies to the B row and the D row, but in the B row and the D row, the pixels that are not used as lines are the pixels in the seventh to tenth columns. The difference is divided by the number of pixels (in this case, 4), and the gradation value of the pixel corresponding to each column may be obtained. In this way, the image quality degradation that occurs when low-pass filter processing is performed by determining the color of each pixel so that each of the pixels at the tip of the line gradually approaches the background color toward the tip of the line Can be suppressed.

なお、上述した方法を用いると、ラインの幅が太い(ラインの幅となる画素数を多くした)場合に、ラインの色は、その先端に向けて背景の色に近づけるようにラインを構成する画素の色が決定されることになるが、例えば外側の行の画素の色が、内側の行の画素の色よりも濃くなる、つまり、ある行の画素と、他の行の画素とにおいて色の濃淡が反転しまうことがある。このような場合には、外側の行の画素を全て用いずに、つまり、ラインを構成する画素と隣り合う画素から、ライン先端となる画素までの全ての画素を用いずに、例えばラインの幅が細くなる画素から次のラインの幅が細くなる画素までの画素など、所定数の画素に対して、段階的に背景の色に近づけるように各画素の色を決定すればよい。   When the above-described method is used, when the line width is large (the number of pixels corresponding to the line width is increased), the line is configured so that the line color approaches the background color toward the tip. The color of the pixel will be determined. For example, the color of the pixel in the outer row is darker than the color of the pixel in the inner row, that is, the color in the pixel in one row and the pixel in another row The shade of the image may be reversed. In such a case, without using all the pixels in the outer row, that is, without using all the pixels from the pixels adjacent to the pixels constituting the line to the pixels at the tip of the line, for example, the width of the line For a predetermined number of pixels, such as pixels from a pixel that becomes thinner to a pixel that the width of the next line becomes thinner, the color of each pixel may be determined so as to gradually approach the background color.

本実施形態では、輝度の高い領域を注目領域として検出し、検出された注目領域に対してクロスパターンを合成する実施形態としているが、例えば元画像、或いは縮小画像の背景の色彩情報と注目領域の色彩情報とを取得し、背景の色彩情報と同一系統の色彩情報からなる注目領域に対して、クロスパターンを付与することも可能である。また、この他に、背景の色彩情報を取得し、取得された背景の色彩情報に応じて、合成するマスク画像データのパターンの色を調整することも可能である。   In the present embodiment, an area with high luminance is detected as an attention area, and a cross pattern is synthesized with the detected attention area. For example, the background color information of the original image or the reduced image and the attention area It is also possible to acquire the color information and to add a cross pattern to the region of interest consisting of the same color information as the background color information. In addition, it is also possible to acquire background color information and adjust the color of the pattern of the mask image data to be synthesized in accordance with the acquired background color information.

本実施形態では、撮像した画像に対して画像効果を付与する機能を備えたデジタルカメラについて説明したが、これに限定されるものではなく、例えば、図5のフローチャートに示す手順を実行できる画像処理装置であってもよい。また、図5のフローチャートに示す手順をコンピュータに実行させることができるプログラム、及び該プログラムを記憶し、コンピュータで読み取ることができる記憶媒体であってもよい。   In the present embodiment, a digital camera having a function of adding an image effect to a captured image has been described. However, the present invention is not limited to this. For example, image processing that can execute the procedure shown in the flowchart of FIG. It may be a device. Moreover, the program which can make a computer perform the procedure shown in the flowchart of FIG. 5 and the storage medium which memorize | stores this program and can be read with a computer may be sufficient.

デジタルカメラの概略の一例を示す機能ブロックである。It is a functional block which shows an example of the outline of a digital camera. マスク画像の一例を示す図である。It is a figure which shows an example of a mask image. 夜間の駅周辺を撮像したときに得られる画像の一例を示す図である。It is a figure which shows an example of the image obtained when the periphery of a station at night is imaged. ローパスフィルタ処理の一例を示す図である。It is a figure which shows an example of a low-pass filter process. 画像効果を付与する処理手順を示すフローチャートである。It is a flowchart which shows the process sequence which provides an image effect. 画像効果が付与された画像の一例を示す図である。It is a figure which shows an example of the image to which the image effect was provided. クロスパターンのライン先端の画素の配色の一例を示す図である。It is a figure which shows an example of the color scheme of the pixel of the line tip of a cross pattern.

符号の説明Explanation of symbols

10…デジタルカメラ、38…内蔵メモリ、50…画像拡縮部、51…画像生成部、52…領域検出部、53…色彩情報取得部、54…フィルタ処理部、55…画像合成部、66,67…クロスパターン   DESCRIPTION OF SYMBOLS 10 ... Digital camera, 38 ... Built-in memory, 50 ... Image expansion / contraction part, 51 ... Image generation part, 52 ... Area | region detection part, 53 ... Color information acquisition part, 54 ... Filter processing part, 55 ... Image composition part, 66, 67 ... Cross pattern

Claims (9)

撮像時に得られた元画像を縮小する画像縮小手段と、
前記画像縮小手段により生成された縮小画像を利用して、前記元画像に付与する画像効果用のマスク画像を生成する画像生成手段と、
前記マスク画像に対してフィルタ処理を実行するフィルタ処理手段と、
前記フィルタ処理されたマスク画像を拡大する画像拡大手段と、
拡大されたマスク画像と前記元画像とを合成する画像合成手段と、
を備えたことを特徴とする撮像装置。
Image reduction means for reducing the original image obtained at the time of imaging;
Image generation means for generating a mask image for image effect to be applied to the original image using the reduced image generated by the image reduction means;
Filter processing means for performing filter processing on the mask image;
Image enlarging means for enlarging the filtered mask image;
Image synthesizing means for synthesizing the enlarged mask image and the original image;
An imaging apparatus comprising:
請求項1に記載の撮像装置において、
前記縮小画像における注目領域を検出する領域検出手段を備え、
前記画像生成手段は、検出された前記注目領域に対応したマスク画像を作成することを特徴とする撮像装置。
The imaging device according to claim 1,
Comprising an area detecting means for detecting an attention area in the reduced image;
The imaging apparatus, wherein the image generation means creates a mask image corresponding to the detected attention area.
請求項2記載の撮像装置において、
前記領域検出手段は、前記縮小画像の各画素における輝度を算出して、算出された各画素における輝度のうち、輝度が高い画素を前記注目領域として検出することを特徴とする撮像装置。
The imaging apparatus according to claim 2, wherein
The imaging apparatus according to claim 1, wherein the area detecting unit calculates a luminance at each pixel of the reduced image, and detects a pixel having a higher luminance among the calculated luminances at each pixel as the attention area.
請求項2又は3に記載の撮像装置において、
前記領域検出手段により検出された前記注目領域の周縁における色彩情報を取得する色彩情報取得手段をさらに備え、
前記画像生成手段は、前記注目領域の大きさと該注目領域の周縁における色彩情報とに基づいて前記マスク画像を生成することを特徴とする撮像装置。
In the imaging device according to claim 2 or 3,
Color information acquisition means for acquiring color information at the periphery of the region of interest detected by the area detection means;
The imaging apparatus, wherein the image generation unit generates the mask image based on a size of the attention area and color information at a periphery of the attention area.
請求項2〜4のいずれか1項に記載の撮像装置において、
前記画像生成手段は、前記注目領域が複数検出されたときに、複数の注目領域からいずれかの注目領域を選択して、選択された注目領域に基づいたマスク画像を生成することを特徴とする撮像装置。
In the imaging device according to any one of claims 2 to 4,
The image generation means selects one of the attention areas from the plurality of attention areas when a plurality of the attention areas are detected, and generates a mask image based on the selected attention areas. Imaging device.
請求項1〜5のいずれか1項に記載の撮像装置において、
前記マスク画像は、前記縮小画像と同一の画像サイズで、かつ予め設定されたパターンが前記注目領域に対応する位置に形成された画像からなることを特徴とする撮像装置。
In the imaging device according to any one of claims 1 to 5,
The imaging apparatus according to claim 1, wherein the mask image is an image having the same image size as the reduced image, and a preset pattern formed at a position corresponding to the region of interest.
請求項6に記載の撮像装置において、
前記パターンは、前記注目領域の中心を基点にして複数のラインを放射状に延出させた形状からなることを特徴とする撮像装置。
The imaging device according to claim 6,
The image pickup apparatus according to claim 1, wherein the pattern has a shape in which a plurality of lines are radially extended with the center of the region of interest as a base point.
請求項7に記載の撮像装置において、
前記複数のラインのそれぞれの先端周縁における画素の色を、該ラインの色から前記マスク画像の背景の色に近づけるように段階的に変化させたことを特徴とする撮像装置。
The imaging apparatus according to claim 7,
An image pickup apparatus, wherein a color of a pixel at a peripheral edge of each of the plurality of lines is changed stepwise from a color of the line so as to approach a background color of the mask image.
撮像時に得られた元画像を縮小することで、縮小画像を取得するステップと、
前記縮小画像を利用して、前記元画像に付与する画像効果用のマスク画像を生成するステップと、
生成されたマスク画像に対してフィルタ処理を実行するステップと、
フィルタ処理が実行されたマスク画像を拡大するステップと、
拡大されたマスク画像と前記元画像とを合成するステップと、
をコンピュータに実行させることを特徴とする画像効果付与プログラム。
Obtaining a reduced image by reducing the original image obtained at the time of imaging;
Using the reduced image to generate a mask image for an image effect to be applied to the original image;
Performing a filtering process on the generated mask image;
Enlarging the filtered mask image;
Combining the enlarged mask image and the original image;
An image effect providing program that causes a computer to execute the above.
JP2007327697A 2007-12-19 2007-12-19 Imaging apparatus and image effect providing program Expired - Fee Related JP4935665B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007327697A JP4935665B2 (en) 2007-12-19 2007-12-19 Imaging apparatus and image effect providing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007327697A JP4935665B2 (en) 2007-12-19 2007-12-19 Imaging apparatus and image effect providing program

Publications (2)

Publication Number Publication Date
JP2009152779A JP2009152779A (en) 2009-07-09
JP4935665B2 true JP4935665B2 (en) 2012-05-23

Family

ID=40921420

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007327697A Expired - Fee Related JP4935665B2 (en) 2007-12-19 2007-12-19 Imaging apparatus and image effect providing program

Country Status (1)

Country Link
JP (1) JP4935665B2 (en)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20110090327A1 (en) * 2009-10-15 2011-04-21 General Electric Company System and method for imaging with enhanced depth of field
US20110091125A1 (en) * 2009-10-15 2011-04-21 General Electric Company System and method for imaging with enhanced depth of field
JP6056511B2 (en) * 2013-01-30 2017-01-11 株式会社ソシオネクスト Image processing apparatus, method, program, and imaging apparatus
JP7238510B2 (en) * 2019-03-19 2023-03-14 大日本印刷株式会社 Information processing device, information processing method and program
JP2023022714A (en) * 2021-08-03 2023-02-15 キヤノン株式会社 Information processing system, server, information processing method, and program

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11284860A (en) * 1998-01-28 1999-10-15 Konica Corp Image processing method, image processing unit and recording medium recording image processing program and read by computer
JP2005117399A (en) * 2003-10-08 2005-04-28 Sanyo Electric Co Ltd Image processor
JP4683190B2 (en) * 2005-01-28 2011-05-11 カシオ計算機株式会社 Imaging apparatus, image effect applying method, and image effect applying program

Also Published As

Publication number Publication date
JP2009152779A (en) 2009-07-09

Similar Documents

Publication Publication Date Title
KR101247647B1 (en) Image synthesizing device, image synthesizing method, and recording medium
JP5767485B2 (en) Image processing apparatus and control method
JP5898466B2 (en) Imaging device, control method thereof, and program
JP5968068B2 (en) Imaging apparatus for controlling exposure, control method for imaging apparatus, program, and recording medium
JP6720881B2 (en) Image processing apparatus and image processing method
JP5206466B2 (en) Image correction apparatus, image correction program, and image photographing apparatus
JP6137792B2 (en) IMAGING DEVICE, CONTROL METHOD FOR IMAGING DEVICE, PROGRAM, AND STORAGE MEDIUM
JP5861924B2 (en) Imaging device
JP4935665B2 (en) Imaging apparatus and image effect providing program
JP5082884B2 (en) Imaging apparatus and image effect addition program
JP2007243917A (en) Imaging apparatus and image processing program
JP5146498B2 (en) Image composition apparatus, image composition method, and program
JP2007049374A (en) Imaging method and imaging apparatus
JP6541501B2 (en) IMAGE PROCESSING APPARATUS, IMAGING APPARATUS, AND IMAGE PROCESSING METHOD
JP4952574B2 (en) Image composition apparatus and program
JP2008099260A (en) Image processing device, electronic camera and image processing program
JP2009200743A (en) Image processor, image processing method, image processing program and imaging apparatus
JP5413625B2 (en) Image composition apparatus and program
JP5125478B2 (en) Imaging apparatus and image effect providing program
JP5933306B2 (en) Imaging device
JP2008211674A (en) Image signal processing method and apparatus
JP2023111637A (en) Image processing device and method and imaging apparatus
JP6223173B2 (en) Image processing apparatus, control method thereof, and program
JP5910613B2 (en) Image composition apparatus and program
JP4389671B2 (en) Image processing apparatus, image processing method, and computer program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20101216

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110215

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120119

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120124

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120206

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150302

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4935665

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150302

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees