JP2010147660A - Image processor, electronic camera and image processing program - Google Patents

Image processor, electronic camera and image processing program Download PDF

Info

Publication number
JP2010147660A
JP2010147660A JP2008320960A JP2008320960A JP2010147660A JP 2010147660 A JP2010147660 A JP 2010147660A JP 2008320960 A JP2008320960 A JP 2008320960A JP 2008320960 A JP2008320960 A JP 2008320960A JP 2010147660 A JP2010147660 A JP 2010147660A
Authority
JP
Japan
Prior art keywords
subject
image
noise removal
removal processing
region
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2008320960A
Other languages
Japanese (ja)
Other versions
JP5453796B2 (en
Inventor
Saeko Samejima
冴映子 鮫島
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2008320960A priority Critical patent/JP5453796B2/en
Publication of JP2010147660A publication Critical patent/JP2010147660A/en
Application granted granted Critical
Publication of JP5453796B2 publication Critical patent/JP5453796B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)
  • Editing Of Facsimile Originals (AREA)
  • Facsimile Image Signal Circuits (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an image processor capable of appropriately removing noise to be generated in an image irrespective of attributes in the image, and to provide an image processing program and an electronic camera. <P>SOLUTION: The image processor includes: an area division part which discriminates each object in the image based on either of an image to be input or photography information obtained in acquisition of the image to divide the image into a plurality of object areas including each object; a setting part which sets at least one of strength and types of noise removal processing to the object areas based on the objects in the object areas for every object area divided by the area division part; and a noise removal processing part which performs the noise removal processing for every plurality of object areas according to setting of the setting part. <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

本発明は、画像処理を行う画像処理装置、電子カメラ及び画像処理プログラムに関する。   The present invention relates to an image processing apparatus that performs image processing, an electronic camera, and an image processing program.

従来から、画像の特徴に応じたノイズ除去処理を行う画像処理装置が知られている。例えば、特許文献1の画像処理装置は、画像を複数の矩形領域に分割し、矩形領域毎に属性を判定する。そして、矩形領域の属性に応じて、明度、色相及び彩度のそれぞれの成分に対して、ノイズ除去フィルタを別々に適用する。
特開2002−101422号公報
2. Description of the Related Art Conventionally, image processing apparatuses that perform noise removal processing according to image characteristics are known. For example, the image processing apparatus of Patent Literature 1 divides an image into a plurality of rectangular areas, and determines an attribute for each rectangular area. And according to the attribute of a rectangular area, a noise removal filter is applied separately with respect to each component of brightness, hue, and saturation.
JP 2002-101422 A

ところが、上述した画像処理装置では、画像を複数の矩形領域に分割し、矩形領域毎の属性を判定していることから、分割された矩形領域の中には、例えば空の一部と建物の一部とが混在する矩形領域も含まれてしまう。このような、空の一部と建物の一部とが混在する矩形領域の場合、属性を判定すると、空、又は建物のいずれか一方の属性となる。仮に、矩形領域の属性が空であると判定された場合には、空に適した強いノイズ除去処理が実行されてしまい、建物のディテールが消えてしまう。一方、矩形領域の属性が建物であると判定された場合には、建物のディテールを残すために弱いノイズ除去処理が実行されてしまい、空の部分に発生するノイズを除去しきれない。   However, since the image processing apparatus described above divides an image into a plurality of rectangular areas and determines the attributes of each rectangular area, the divided rectangular areas include, for example, a part of the sky and a building. A rectangular area mixed with a part is also included. In the case of such a rectangular region in which a part of the sky and a part of the building are mixed, when the attribute is determined, the attribute is either the sky or the building. If it is determined that the attribute of the rectangular area is empty, strong noise removal processing suitable for the sky is executed, and the details of the building disappear. On the other hand, when it is determined that the attribute of the rectangular area is a building, weak noise removal processing is executed to leave the details of the building, and noise generated in the empty portion cannot be removed.

そこで、本発明は、画像内の属性に拘わらず画像内に発生するノイズを適切に除去することができるようにした画像処理装置、画像処理プログラム及び電子カメラを提供することを目的とする。   SUMMARY An advantage of some aspects of the invention is that it provides an image processing apparatus, an image processing program, and an electronic camera that can appropriately remove noise generated in an image regardless of attributes in the image.

本発明の画像処理装置は、入力される画像、又は該画像の取得時に得られた撮影情報のいずれかに基づいて、画像内の各被写体を判別し、該被写体をそれぞれ含む複数の被写体領域に該画像を分割する領域分割部と、前記領域分割部により分割された前記被写体領域毎に、該被写体領域内の被写体に基づいて該被写体領域に対するノイズ除去処理の強度及び種類の少なくとも一方を設定する設定部と、前記設定部の設定に応じて該複数の被写体領域毎にノイズ除去処理を行うノイズ除去処理部とを備える。   The image processing apparatus of the present invention discriminates each subject in the image based on either the input image or the shooting information obtained at the time of obtaining the image, and assigns to a plurality of subject areas each including the subject. An area dividing unit that divides the image, and at least one of the strength and type of noise removal processing for the subject area is set based on the subject in the subject area for each of the subject areas divided by the area dividing unit. A setting unit; and a noise removal processing unit that performs noise removal processing for each of the plurality of subject areas in accordance with the setting of the setting unit.

なお、前記設定部は、前記被写体領域から得られる空間周波数に基づいて該被写体領域に対するノイズ除去処理の強度及び種類の少なくとも一方を設定しても良い。   The setting unit may set at least one of the strength and type of noise removal processing for the subject area based on the spatial frequency obtained from the subject area.

また、前記設定部は、前記複数の被写体領域のうち、低周波数成分を多く含む被写体領域に対するノイズ除去処理の強度を、高周波成分を多く含む被写体領域に対するノイズ除去処理の強度よりも強く設定しても良い。   Further, the setting unit sets the strength of noise removal processing for a subject region including a lot of low frequency components among the plurality of subject regions to be stronger than the strength of noise removal processing for a subject region including many high frequency components. Also good.

また、前記設定部は、前記領域分割部により分割される複数の被写体領域のうち、所定の被写体と判断された被写体領域に対するノイズ除去処理の強度を、他の被写体領域に対するノイズ除去処理の強度とは異なる強度に設定しても良い。   In addition, the setting unit may set the noise removal processing strength for a subject region determined as a predetermined subject among the plurality of subject regions divided by the region dividing portion, and the noise removal processing strength for another subject region. May be set to different intensities.

また、前記所定の被写体は、空であり、前記設定部は、前記被写体が空であると判別された被写体領域に対するノイズ除去処理の強度を、前記他の被写体領域に対するノイズ除去処理の強度よりも強く設定しても良い。   Further, the predetermined subject is empty, and the setting unit sets the noise removal processing strength for the subject region determined to be empty as compared to the noise removal processing strength for the other subject regions. It may be set strongly.

また、前記所定の被写体は、肌であり、前記設定部は、前記被写体が肌であると判別された被写体領域に対するノイズ除去処理の強度を、前記他の被写体領域に対するノイズ除去処理の強度よりも強く設定しても良い。   In addition, the predetermined subject is skin, and the setting unit sets the noise removal processing strength for the subject region determined to be the skin to be higher than the noise removal processing strength for the other subject regions. It may be set strongly.

本発明の電子カメラは、本発明の画像処理装置と、取り込まれた被写体光束を光電変換することにより前記画像の元になる画像信号を出力する撮像部とを備える。   The electronic camera of the present invention includes the image processing apparatus of the present invention and an imaging unit that outputs an image signal that is a source of the image by photoelectrically converting the captured subject light beam.

本発明の画像処理プログラムは、入力される画像、又は該画像の取得時に得られた撮影情報のいずれかに基づいて、被写体領域を判別し、該画像を該被写体領域ごとに分割する領域分割工程と、前記領域分割部により分割された前記被写体領域毎に、該被写体領域内の被写体に基づいて該被写体領域に対するノイズ除去処理の強度及び種類の少なくとも一方を設定する設定工程と、前記設定工程の設定に応じて該複数の被写体領域毎にノイズ除去処理を行うノイズ除去処理工程とをコンピュータにて実行させることが可能である。   The image processing program of the present invention determines a subject area based on either an input image or photographing information obtained at the time of acquiring the image, and an area dividing step of dividing the image into the subject areas A setting step for setting at least one of the strength and type of noise removal processing for the subject region based on the subject in the subject region for each subject region divided by the region dividing unit; and It is possible to cause the computer to execute a noise removal processing step of performing noise removal processing for each of the plurality of subject areas in accordance with the setting.

本発明の画像処理装置、画像処理プログラム及び電子カメラによれば、画像に含まれる被写体毎にノイズ除去処理が実行されるので、画像内に発生するノイズを適切に除去することができる。   According to the image processing apparatus, the image processing program, and the electronic camera of the present invention, the noise removal process is executed for each subject included in the image, so that noise generated in the image can be appropriately removed.

以下、図面を用いて本発明の実施形態について説明する。以下の実施形態では、本発明の画像処理装置の一例として、電子カメラを用いて説明する。図1は、本発明の実施形態における電子カメラ1の構成を示すブロック図である。図1に示すように、電子カメラ1は、撮像レンズ2、撮像素子3、A/D変換部4、バッファメモリ5、画像処理部6、制御部7、表示部8、操作部9、記録I/F部10、記録媒体11、バス12を備える。   Hereinafter, embodiments of the present invention will be described with reference to the drawings. In the following embodiments, an electronic camera is used as an example of the image processing apparatus of the present invention. FIG. 1 is a block diagram showing a configuration of an electronic camera 1 according to an embodiment of the present invention. As shown in FIG. 1, the electronic camera 1 includes an imaging lens 2, an imaging element 3, an A / D conversion unit 4, a buffer memory 5, an image processing unit 6, a control unit 7, a display unit 8, an operation unit 9, and a recording I. / F unit 10, recording medium 11, and bus 12.

撮像レンズ2は、撮像素子3の撮像面に被写体像を結像する。なお、撮像レンズ2の他に、ズームレンズやフォーカスレンズなどの複数のレンズからなる撮像光学系であっても良い。撮像素子3は、撮像レンズ2を通過した被写体光を光電変換し、R、G、Bの各色に対応するアナログ画像信号を出力する。撮影モードにおいて、レリーズ釦25が操作されない撮影待機状態では、撮像素子3は、所定間隔毎に間引き読み出しを行い、スルー画像の元になる画像信号を出力する。その後、撮像素子3は、レリーズ釦25が全押しされると、撮影待機状態が解除されて、撮影時に得られる画像(以下、撮影画像という)の元になる画像信号を出力する。   The imaging lens 2 forms a subject image on the imaging surface of the imaging element 3. In addition to the imaging lens 2, an imaging optical system including a plurality of lenses such as a zoom lens and a focus lens may be used. The imaging element 3 photoelectrically converts the subject light that has passed through the imaging lens 2 and outputs analog image signals corresponding to R, G, and B colors. In the shooting mode, in the shooting standby state in which the release button 25 is not operated, the image sensor 3 performs thinning-out reading at predetermined intervals and outputs an image signal that is a source of a through image. Thereafter, when the release button 25 is fully pressed, the imaging device 3 releases the shooting standby state and outputs an image signal that is the basis of an image obtained at the time of shooting (hereinafter referred to as a shot image).

撮像素子3から出力される画像信号は、A/D変換部4に入力される。A/D変換部4は、撮像素子3から出力されるアナログ画像信号をA/D変換し、デジタル画像信号に変換する。なお、このデジタル画像信号は、1コマにまとめられ、画像データとしてバッファメモリ5に記録される。バッファメモリ5は、画像処理部6による画像処理の前工程や後工程で画像データを一時的に記憶する。   An image signal output from the image sensor 3 is input to the A / D converter 4. The A / D conversion unit 4 performs A / D conversion on the analog image signal output from the image sensor 3 and converts the analog image signal into a digital image signal. The digital image signals are collected into one frame and recorded in the buffer memory 5 as image data. The buffer memory 5 temporarily stores image data in the pre-process and post-process of image processing by the image processing unit 6.

画像処理部6は、バッファメモリ5に記憶された画像データに対して画像処理を行う。この画像処理としては、周知のホワイトバランス調整、色補間、階調変換処理、輪郭強調処理などの他に、後述するノイズ除去処理が挙げられる。なお、このノイズ除去処理は、例えば、色補間処理の後に実行される。この画像処理部6は、上述した画像処理が施された画像データに対して、JPEG(Joint Photographic Experts Group)形式などで圧縮する処理や、圧縮された上記のデータを伸長復元する処理をも実行する。   The image processing unit 6 performs image processing on the image data stored in the buffer memory 5. As this image processing, in addition to known white balance adjustment, color interpolation, gradation conversion processing, contour enhancement processing, etc., noise removal processing described later can be cited. Note that this noise removal processing is executed after color interpolation processing, for example. The image processing unit 6 also performs processing for compressing the image data subjected to the above-described image processing in a JPEG (Joint Photographic Experts Group) format or the like, and processing for decompressing and restoring the compressed data. To do.

この画像処理部6は、ノイズ除去処理部21の機能を有している。このノイズ除去処理部21は、上述したノイズ除去処理を実行する。ノイズ除去処理部21は、後述する領域分割部23により分割される撮影画像の各被写体領域に対して、該被写体領域に合わせたノイズ除去処理を実行する。ノイズ除去処理は、公知のローパスフィルタ処理により行う。   The image processing unit 6 has the function of the noise removal processing unit 21. The noise removal processing unit 21 performs the noise removal process described above. The noise removal processing unit 21 performs noise removal processing according to the subject area on each subject region of the captured image divided by the region division unit 23 described later. The noise removal process is performed by a known low-pass filter process.

制御部7は、所定のシーケンスプログラムにしたがって、電子カメラ1の統括的な制御を行うとともに、AE処理やAF処理などを行う。また、制御部7は、判別部22、領域分割部23、設定部24などの機能を有している。   The control unit 7 performs overall control of the electronic camera 1 according to a predetermined sequence program, and performs AE processing, AF processing, and the like. In addition, the control unit 7 has functions such as a determination unit 22, a region division unit 23, and a setting unit 24.

判別部22は、撮影画像に含まれる被写体を判別する。被写体としては、例えば人物を含む動植物、建造物の他に、空や山などの風景などが挙げられる。判別部22は、被写体認識、ヒストグラム解析、テクスチャ解析を組み合わせて用いることで、撮影画像に含まれる被写体を判別する。   The determination unit 22 determines a subject included in the captured image. Examples of subjects include landscapes such as the sky and mountains, in addition to animals and plants and buildings including people. The determination unit 22 determines a subject included in the captured image by using a combination of subject recognition, histogram analysis, and texture analysis.

被写体認識は、周知のパターンマッチングや特徴量抽出により、画像中の被写体を認識する手法である。判別部22は、被写体認識により撮影画像に被写体となる人物が含まれているか否かを判別する。なお、被写体認識としてパターンマッチングを用いる場合には、撮影画像に人物の顔が含まれているか否かを判別する他に、建築物や生物などが含まれているか否かも判別できる。一方、被写体認識として特徴量抽出を用いる場合には、例えば特開2001−16573号公報などに記載されているが、眉、目、鼻、唇の各端点、顔の輪郭点、頭頂点や顎の下端点などの特徴点を特徴量として求めることで、撮影画像に人物が含まれているか否かを判別する。例えば撮影画像から顔が検出された際には、判別部22は、顔の付近に位置する髪の毛や、首、衣服なども検出する。   Subject recognition is a technique for recognizing a subject in an image by well-known pattern matching or feature amount extraction. The determination unit 22 determines whether or not a person who is a subject is included in the captured image by subject recognition. Note that when pattern matching is used for subject recognition, it is possible to determine whether a photographed image includes a person's face or not, as well as whether a building or a living thing is included. On the other hand, when feature amount extraction is used for subject recognition, it is described in, for example, Japanese Patent Application Laid-Open No. 2001-16573. However, eyebrow, eye, nose, lip end points, face contour points, head apexes and jaws It is determined whether or not a person is included in the captured image by obtaining a feature point such as a lower end point of the image as a feature amount. For example, when a face is detected from a photographed image, the determination unit 22 also detects hair, neck, clothes, and the like located near the face.

ヒストグラム解析は、撮影画像に含まれる各画素の色相から作成される色相ヒストグラムを用いて色傾向を解析する手法である。判別部22は、作成した色相ヒストグラムが青色に対して高頻度の分布となる場合には、青色となる画素の領域が撮影画像のどの位置に現れているかを特定する。例えば青色となる画素の領域が撮影画像の上部に位置している場合には、青色となる画素の領域が示す被写体を空であると判別する。この色相ヒストグラムを作成する場合、撮影画像の色情報においては、YCbCr成分からなる色情報であっても良いし、R,G,Bの各色成分からなる色情報であってもよい。   Histogram analysis is a technique for analyzing a color tendency using a hue histogram created from the hue of each pixel included in a captured image. When the created hue histogram has a high-frequency distribution with respect to blue, the determination unit 22 specifies in which position in the captured image the pixel region that is blue appears. For example, when the area of the pixel that becomes blue is located in the upper part of the photographed image, it is determined that the subject indicated by the area of the pixel that becomes blue is empty. When creating this hue histogram, the color information of the photographed image may be color information made up of YCbCr components or color information made up of R, G, B color components.

テクスチャ解析は、撮影画像から求められるテクスチャ特徴量を解析することにより、被写体を認識する手法である。例えば、撮影画像に含まれる各画素の輝度値の輝度分布や、空間周波数などをテクスチャ特徴量とする。判別部22は、撮影画像をテクスチャ解析することで、衣服の模様、草原、樹木などを認識することができる。   Texture analysis is a technique for recognizing a subject by analyzing a texture feature amount obtained from a captured image. For example, the luminance distribution of the luminance value of each pixel included in the captured image, the spatial frequency, and the like are used as the texture feature amount. The determination unit 22 can recognize a pattern of clothes, a meadow, a tree, and the like by performing texture analysis on the captured image.

なお、被写体を判別する手法として、被写体認識、ヒストグラム解析、テクスチャ解析を組み合わせる例を示したが、撮影画像から求められる空間周波数の解析結果のみで被写体を判別することも可能である。つまり、判別部22は、撮影画像から求められた空間周波数から同一の空間周波数となる領域を被写体として判別すればよい。   In addition, as an example of a method for determining a subject, an example in which subject recognition, histogram analysis, and texture analysis are combined has been described. However, it is also possible to determine a subject based only on a spatial frequency analysis result obtained from a captured image. That is, the determination unit 22 may determine a region having the same spatial frequency as the subject from the spatial frequency obtained from the captured image.

領域分割部23は、判別部22により判別された被写体毎に撮影画像を複数の被写体領域に分割する。図2(a)に示すように、撮影画像に含まれる被写体が人物、ビル、空及び地面となる場合、判別部22によって、これら被写体がそれぞれ判別される。さらに、人物の場合には、髪の毛、顔、首、衣服などが被写体として判別される。この場合、領域分割部23は、撮影画像を、「髪の毛」の領域31、「顔」の領域32、「首」の領域33、「衣服」の領域34、「地面」の領域35、「ビル」の領域36、「空」の領域37に分割する(図2(b)参照)。   The area dividing unit 23 divides the captured image into a plurality of subject areas for each subject determined by the determining unit 22. As shown in FIG. 2A, when the subjects included in the captured image are a person, a building, the sky, and the ground, the subjects are discriminated by the discriminating unit 22. Further, in the case of a person, hair, face, neck, clothes, etc. are determined as subjects. In this case, the area dividing unit 23 divides the captured image into a “hair” area 31, a “face” area 32, a “neck” area 33, a “clothing” area 34, a “ground” area 35, and a “building” ”Area 36 and“ empty ”area 37 (see FIG. 2B).

設定部24は、領域分割部23により分割された被写体領域毎に、ノイズ除去処理の強度(強弱)を設定する。なお、ノイズ除去処理の強度は、該被写体領域に含まれる被写体に基づいて設定される。被写体領域毎に設定されたノイズ除去処理の強度は、ノイズ除去処理部21に出力される。ノイズ除去処理の強度としては、例えば「強」、「弱」の2種類が挙げられる。例えば、髪の毛や建物など、輪郭が明確な被写体に対応する被写体領域(以下、輪郭が明確な被写体領域という)に対してノイズ除去処理を実行したときには、輪郭がぼやけてしまうことがある。したがって、このような被写体領域に対しては、ノイズ除去処理の強度として「弱」が設定される。   The setting unit 24 sets the strength (strength) of noise removal processing for each subject region divided by the region dividing unit 23. The intensity of the noise removal process is set based on the subject included in the subject area. The intensity of the noise removal process set for each subject area is output to the noise removal processing unit 21. As the strength of the noise removal processing, for example, there are two types of “strong” and “weak”. For example, when noise removal processing is performed on a subject area corresponding to a subject having a clear outline (hereinafter referred to as a subject area having a clear outline) such as a hair or a building, the outline may be blurred. Therefore, “weak” is set as the strength of the noise removal processing for such a subject area.

一方、空や海など、輪郭が含まれない被写体に対応する被写体領域(以下、輪郭が含まれない被写体領域という)の場合には、強いノイズ除去処理を行っても、輪郭がぼやけるおそれがない。また、このような被写体領域では、ノイズが目立ちやすいため、このような被写体領域に対しては、ノイズ除去処理の強度として「強」が設定される。また、一般的に画像において、顔や首などの肌色の領域をきれいに見せることが好まれることから、肌色の被写体領域に対しても、ノイズ除去処理の強度として「強」が設定される。   On the other hand, in the case of a subject area that corresponds to a subject that does not include a contour, such as the sky or the sea (hereinafter referred to as a subject region that does not include a contour), there is no possibility that the contour will be blurred even if strong noise removal processing is performed. . Further, since noise is conspicuous in such a subject region, “strong” is set as the strength of the noise removal processing for such a subject region. In addition, since it is generally preferable to display a skin-colored region such as a face or a neck in an image, “strong” is set as the strength of the noise removal processing for the skin-colored subject region.

上述したように、ノイズ除去処理部21で実行されるノイズ除去処理としてローパスフィルタ処理が挙げられる。例えば、ノイズ除去処理の強度が「強」に設定される場合、ノイズ除去処理部21は、5×5の計25個の画素を用いたローパスフィルタ処理を実行する。さらに、ノイズ除去処理の強度が「弱」設定される場合、ノイズ除去処理部21は、3×3の計9個の画素を用いたローパスフィルタ処理を実行する。   As described above, the low-pass filter process is an example of the noise removal process executed by the noise removal processing unit 21. For example, when the strength of the noise removal process is set to “strong”, the noise removal processing unit 21 executes a low-pass filter process using a total of 25 pixels of 5 × 5. Further, when the strength of the noise removal processing is set to “weak”, the noise removal processing unit 21 executes low-pass filter processing using a total of 9 pixels of 3 × 3.

表示部8は、制御部7の制御により各種の画像を表示する。表示部8に表示される各種の画像は、スルー画像、撮影画像、記録媒体11に記録された画像、メニー画像などを含む。操作部9は、レリーズ釦25、十字キー26などを有する。レリーズ釦25は、撮影時にユーザにより操作される。十字キー26は、上記のメニュー画像等で操作される。なお、レリーズ釦25及び十字キー26の状態は制御部7により検知され、検知された釦の状態に基づいたシーケンスが実行される。記録I/F部10は、記録媒体11を接続するためのコネクタを備えている。この記録I/F部10と記録媒体11とが接続されることにより、記録媒体11に対してデータの書き込み/読み出しを実行する。バス12は、バッファメモリ5、画像処理部6、制御部7、表示部8、記録I/F部10を相互に接続することにより、データや信号の出入力を実行する。   The display unit 8 displays various images under the control of the control unit 7. Various images displayed on the display unit 8 include a through image, a captured image, an image recorded on the recording medium 11, a many image, and the like. The operation unit 9 includes a release button 25, a cross key 26, and the like. The release button 25 is operated by the user at the time of shooting. The cross key 26 is operated on the above menu image or the like. The state of the release button 25 and the cross key 26 is detected by the control unit 7, and a sequence based on the detected button state is executed. The recording I / F unit 10 includes a connector for connecting the recording medium 11. When the recording I / F unit 10 and the recording medium 11 are connected, data writing / reading is executed on the recording medium 11. The bus 12 connects the buffer memory 5, the image processing unit 6, the control unit 7, the display unit 8, and the recording I / F unit 10, thereby executing input / output of data and signals.

図3は、電子カメラ1における撮像時の流れを示すフローチャートである。図3に示すフローチャートは、電子カメラ1が撮影待機状態であることを契機にして実行される。   FIG. 3 is a flowchart showing a flow at the time of imaging in the electronic camera 1. The flowchart shown in FIG. 3 is executed when the electronic camera 1 is in a shooting standby state.

ステップS101は、撮影モードを開始する処理である。この撮影モードが開始されると、制御部7は、撮像素子3を間引き制御して、スルー画像を所定時間毎に取得する。取得されたスルー画像は、表示部8に順次表示される。   Step S101 is processing for starting the shooting mode. When this shooting mode is started, the control unit 7 performs thinning control of the image sensor 3 and acquires a through image at predetermined time intervals. The acquired through images are sequentially displayed on the display unit 8.

ステップS102は、レリーズ釦25が操作されたか否かを判定する処理である。レリーズ釦25が操作されると、その操作信号が制御部7に入力される。制御部7は、この操作信号が入力されたか否かによってレリーズ釦25が操作されたか否かを判定する。例えば、制御部7によりレリーズ釦25が操作されたと判定された場合(ステップS102の判定がYESとなる場合)には、ステップS103に進む。一方、レリーズ釦25が操作されていないと判定された場合(ステップS102の判定がNOとなる場合)には、レリーズ釦25が操作されるまで、待機状態となる。   Step S102 is processing for determining whether or not the release button 25 has been operated. When the release button 25 is operated, the operation signal is input to the control unit 7. The control unit 7 determines whether or not the release button 25 is operated based on whether or not this operation signal is input. For example, when it is determined that the release button 25 has been operated by the control unit 7 (when the determination in step S102 is YES), the process proceeds to step S103. On the other hand, when it is determined that the release button 25 has not been operated (when the determination in step S102 is NO), a standby state is maintained until the release button 25 is operated.

ステップS103は、撮影画像を取得する処理である。制御部7は、撮像素子3を制御して、撮影画像を取得する。   Step S103 is processing for acquiring a captured image. The control unit 7 controls the image sensor 3 and acquires a captured image.

ステップS104は、被写体を判別する処理である。判別部22は、ステップS103で取得された撮影画像を用いて、上述した被写体認識、ヒストグラム解析、テクスチャ解析などにより、該撮影画像に含まれる被写体を判別する。例えば、判別部22は、図2(a)の撮影画像から、髪の毛、顔、首、衣服、地面、ビル、空を被写体として判別する。   Step S104 is processing to determine the subject. The determination unit 22 uses the captured image acquired in step S103 to determine a subject included in the captured image by subject recognition, histogram analysis, texture analysis, and the like described above. For example, the determination unit 22 determines hair, face, neck, clothes, ground, building, and sky as subjects from the captured image of FIG.

ステップS105は、被写体毎に撮影画像を複数の被写体領域に分割する処理である。領域分割部23は、ステップS104で判別部22により判別された被写体毎に撮影画像を複数の被写体領域に分割する。図2(b)は、図2(a)の被写体毎に撮影画像を分割した状態の例を示す図である。   Step S105 is processing for dividing the captured image into a plurality of subject areas for each subject. The region dividing unit 23 divides the captured image into a plurality of subject regions for each subject determined by the determining unit 22 in step S104. FIG. 2B is a diagram illustrating an example of a state in which the captured image is divided for each subject in FIG.

ステップS106は、分割された各被写体領域に対するノイズ除去処理の強度を設定する処理である。設定部24は、ステップS105で領域分割部23により分割された被写体領域毎にノイズ除去処理の強度を設定する。例えば、設定部24は、輪郭が明確な被写体領域、すなわち図2(b)に示す領域31、領域34、領域36に対しては、ノイズ除去処理の強度として「弱」を設定する。また、設定部24は、輪郭を含まない被写体領域、すなわち図2(b)に示す領域32、領域33、領域35、領域37に対しては、ノイズ除去処理の強度として「強」を設定する。なお、設定されたノイズ除去処理の強度は、被写体領域毎に対応付けられた後、ノイズ除去処理部21に出力される。   Step S106 is a process of setting the strength of the noise removal process for each divided subject area. The setting unit 24 sets the strength of the noise removal process for each subject region divided by the region dividing unit 23 in step S105. For example, the setting unit 24 sets “weak” as the strength of the noise removal processing for the subject region having a clear outline, that is, the region 31, the region 34, and the region 36 illustrated in FIG. The setting unit 24 sets “strong” as the strength of the noise removal processing for the subject region that does not include the outline, that is, the region 32, the region 33, the region 35, and the region 37 illustrated in FIG. . The set noise removal processing intensity is output to the noise removal processing unit 21 after being associated with each subject area.

ステップS107は、撮影画像に対する画像処理である。画像処理部6は、撮影画像に対して各種の画像処理を施す。この画像処理の際に、ノイズ除去処理部21によるノイズ除去処理が実行される。ノイズ除去処理部21は、色補間処理が施された後の撮影画像に対して、設定部24により設定されたノイズ除去処理の強度を用いたノイズ除去処理を行う。つまり、分割された被写体領域毎に、該被写体領域に含まれる被写体に合わせたノイズ除去処理が実行される。例えば、輪郭を含まない被写体領域に対しては、強いノイズ除去処理が行われ、輪郭を含む被写体領域に対しては、弱いノイズ除去処理が実行される。なお、ステップS108は、画像処理が施された撮影画像を記録媒体11に記録する処理である。   Step S107 is image processing on the captured image. The image processing unit 6 performs various image processes on the captured image. During this image processing, noise removal processing by the noise removal processing unit 21 is executed. The noise removal processing unit 21 performs noise removal processing using the intensity of noise removal processing set by the setting unit 24 on the captured image that has been subjected to color interpolation processing. That is, for each divided subject area, a noise removal process is executed according to the subject included in the subject area. For example, a strong noise removal process is performed on a subject area that does not include a contour, and a weak noise removal process is performed on a subject area that includes a contour. Note that step S108 is a process of recording the captured image on which the image processing has been performed on the recording medium 11.

以上説明したように、本実施形態の電子カメラ1は、判別された被写体毎に撮影画像を複数の被写体領域に分割した後に、該被写体領域に含まれる被写体に応じた強度を用いたノイズ除去処理を実行する。したがって、本実施形態の電子カメラ1によれば、撮影画像に含まれる被写体に対応した適切なノイズ除去処理を実行することができる。   As described above, the electronic camera 1 according to the present embodiment divides a captured image into a plurality of subject areas for each determined subject, and then performs noise removal processing using intensity according to the subject included in the subject region. Execute. Therefore, according to the electronic camera 1 of the present embodiment, it is possible to execute an appropriate noise removal process corresponding to the subject included in the captured image.

また、本実施形態の電子カメラ1は、予め領域を設定したときに生じる異なる被写体の一部がそれぞれ含まれる領域を発生させずに済む。そのため、本実施形態の電子カメラ1によれば、このような領域に対してノイズ除去処理を施した場合に生じる、被写体の輪郭がぼやける、或いはノイズを効果的に除去できないなどの問題が発生せず、適切なノイズ除去処理を実行することが可能となる。   In addition, the electronic camera 1 according to the present embodiment does not need to generate areas each including a part of different subjects that are generated when areas are set in advance. Therefore, according to the electronic camera 1 of the present embodiment, problems such as blurring of the contour of the subject or inability to effectively remove noise occur when noise removal processing is performed on such an area. Therefore, it is possible to execute an appropriate noise removal process.

さらに、予め領域を設定した場合には、領域より大きいノイズ除去フィルタを用いることができない。そのため、輪郭を含まない広い領域などに対して、一様にノイズ除去処理を実行することができず、ノイズ除去処理後に、逆にノイズが目立つ可能性やノイズ除去処理が効果的に作用できない可能性がある。しかし、本実施形態の電子カメラ1によれば、このような問題が発生しないため、ノイズ除去処理の効果が大きい画像を得ることができる。   Furthermore, when a region is set in advance, a noise removal filter larger than the region cannot be used. For this reason, noise removal processing cannot be performed uniformly over a wide area that does not contain contours, and noise may be conspicuous after the noise removal processing, or noise removal processing may not work effectively. There is sex. However, according to the electronic camera 1 of the present embodiment, since such a problem does not occur, an image with a large effect of noise removal processing can be obtained.

(実施形態の補足)
(1)本実施形態では、電子カメラの例を示したが、これに限らない。例えば、画像処理装置に、本実施形態における被写体を判別する手順(図3のステップS104)、被写体毎に撮影画像を複数の被写体領域に分割する手順(図3のステップS105)、分割された各被写体領域に対するノイズ除去処理の強度を設定する手順(図3のステップS106)、ノイズ除去処理を実行する手順(図3のステップS107)に示す機能を備えることも可能である。また、画像処理装置の他に画像処理プログラムであっても良い。この場合、予め画像処理プログラムを記録媒体に格納しておき、コンピュータに接続した後に、この画像処理プログラムを実行させるか、又はインストールさせることが可能である。
(Supplement of embodiment)
(1) In the present embodiment, an example of an electronic camera is shown, but the present invention is not limited to this. For example, the procedure for discriminating the subject in the present embodiment (step S104 in FIG. 3), the procedure for dividing the captured image into a plurality of subject areas for each subject (step S105 in FIG. 3), It is also possible to provide the functions shown in the procedure for setting the intensity of the noise removal processing for the subject area (step S106 in FIG. 3) and the procedure for executing the noise removal processing (step S107 in FIG. 3). In addition to the image processing apparatus, an image processing program may be used. In this case, it is possible to store the image processing program in a recording medium in advance and execute or install the image processing program after connecting to the computer.

(2)本実施形態では、ノイズ除去処理の強度に合わせて、ローパスフィルタ処理にて用いられる画素数を変更しているが、この他に、ローパスフィルタ処理を行う際に用いる画素数を変更せずに、各画素に対する重み付けを変更することでノイズ除去処理の強度を変更する、或いはローパスフィルタ処理を実行する回数を変更するなどローパスフィルタ処理の処理内容(種類)を変更することも可能である。   (2) In this embodiment, the number of pixels used in the low-pass filter processing is changed in accordance with the strength of the noise removal processing. However, in addition to this, the number of pixels used when performing the low-pass filter processing can be changed. In addition, it is possible to change the processing content (type) of the low-pass filter processing, such as changing the intensity of the noise removal processing by changing the weighting for each pixel, or changing the number of times the low-pass filter processing is executed. .

(3)本実施形態では、設定部24は、被写体領域に含まれる被写体に基づいてノイズ除去処理の強度を変更しているが、この他に、判別部22により撮影画像から得られる空間周波数の解析結果、或いは被写体領域毎に求められる空間周波数に基づいてノイズ除去処理の強度を設定することも可能である。つまり、高周波数成分が多い被写体領域に対しては、設定部24はノイズ除去処理の強度として「弱」を設定し、低周波数成分が多い被写体領域に対しては、設定部24はノイズ除去処理の強度として「強」を設定する。   (3) In the present embodiment, the setting unit 24 changes the intensity of the noise removal processing based on the subject included in the subject region, but in addition to this, the setting unit 24 determines the spatial frequency obtained from the photographed image by the determination unit 22. It is also possible to set the strength of noise removal processing based on the analysis result or the spatial frequency obtained for each subject area. In other words, the setting unit 24 sets “weak” as the strength of the noise removal process for a subject area with many high frequency components, and the setting unit 24 sets the noise removal process for a subject area with many low frequency components. Set “Strong” as the strength of.

(4)本実施形態では、ノイズ除去処理の強度として「強」、「弱」の2種類の例を挙げたが、3種類以上でも良い。   (4) In the present embodiment, two examples of “strong” and “weak” are given as the strength of the noise removal processing, but three or more types may be used.

また、不図示のメモリに、代表的な被写体と、該被写体に対して施されるローパスフィルタ処理に関するパラメータとを対応付けたデータを予め記録しておき、このデータを参照することで、各被写体に対するノイズ除去処理の強度を決定することも可能である。この場合、設定部24は、ステップS104で認識された被写体毎に、それぞれ対応するパラメータがメモリに記録されているか否かを判定する。そして、設定部24は、パラメータが記録されていると判定した場合には、そのパラメータを読み出し、ノイズ除去処理部21に出力する。次に、ノイズ除去処理部21は、読み出されたパラメータを用いて、ステップS105で領域分割部23により分割された被写体領域毎にノイズ除去処理を行う。これにより、被写体に対応したより適切なノイズ除去処理を行うことができる。   In addition, in a memory (not shown), data in which a representative subject is associated with a parameter relating to low-pass filter processing applied to the subject is recorded in advance, and each subject can be referred to by referring to this data. It is also possible to determine the strength of the noise removal process for. In this case, the setting unit 24 determines whether or not the corresponding parameter is recorded in the memory for each subject recognized in step S104. If the setting unit 24 determines that the parameter is recorded, the setting unit 24 reads the parameter and outputs the parameter to the noise removal processing unit 21. Next, the noise removal processing unit 21 performs noise removal processing for each subject region divided by the region division unit 23 in step S105 using the read parameters. Thereby, more appropriate noise removal processing corresponding to the subject can be performed.

(5)本実施形態では、画像処理が施された撮影画像を記録する例を示したが、これに限らない。例えば、ステップS107の後で、ノイズ除去処理後の撮影画像と、ノイズ除去処理前の撮影画像とを合成した画像を生成する。また、合成する際に、ノイズ除去処理後の撮影画像の割合と、ノイズ除去処理前の撮影画像の割合とを調整することにより、ノイズ除去処理の強度を変更することも可能である。   (5) In the present embodiment, an example in which a captured image subjected to image processing is recorded has been described, but the present invention is not limited to this. For example, after step S107, an image obtained by synthesizing the captured image after the noise removal process and the captured image before the noise removal process is generated. In addition, when combining, the intensity of the noise removal process can be changed by adjusting the ratio of the captured image after the noise removal process and the ratio of the captured image before the noise removal process.

(6)ステップS104で顔が検出された場合には、判別部22は、被写体が男性か女性かを推定することも可能である。例えば、判別部22は、唇付近の色が赤い場合には、被写体が女性であると推定する。そして、設定部24は、被写体が女性であると推定された場合には、男性であると推定された場合と比較して、肌色の被写体領域に対して、強いノイズ除去処理を設定する。これにより、被写体が女性である場合には、しわや肌荒れなどが目立ちにくい好ましい画像を得ることができる。   (6) If a face is detected in step S104, the determination unit 22 can also estimate whether the subject is male or female. For example, when the color near the lips is red, the determination unit 22 estimates that the subject is a woman. Then, when the subject is estimated to be female, the setting unit 24 sets stronger noise removal processing for the skin-colored subject region as compared to the case where the subject is estimated to be male. As a result, when the subject is a woman, it is possible to obtain a preferable image in which wrinkles and rough skin are not noticeable.

(7)ステップS104で判別部22は、撮影条件により全ての被写体を判別できない場合がある。この場合、設定部24は、被写体を判別できない被写体領域をまとめ、まとめた被写体領域に対してノイズ除去処理の強度を設定する。   (7) In step S104, the determination unit 22 may not be able to determine all subjects depending on the shooting conditions. In this case, the setting unit 24 collects subject areas where the subject cannot be identified, and sets the noise removal processing intensity for the collected subject areas.

(8)本実施形態では、領域分割部23は、判別部22により判別された被写体毎に撮影画像を複数の被写体領域に分割したが、これに限らない。例えば、領域分割部23は、特開2005−12307号公報に示されるように、外光パッシブ方式の測距装置によって得られる複数の測距点の値に基づいて距離画像を作成し、この距離画像を用いて撮影画像を同一の被写体距離に含まれる被写体領域で分割することも可能である。この場合、設定部24は、分割された被写体領域毎に空間周波数を求めて、求めた空間周波数に対応するノイズ除去処理の強度を設定する。   (8) In the present embodiment, the region dividing unit 23 divides the captured image into a plurality of subject regions for each subject determined by the determining unit 22, but the present invention is not limited to this. For example, as shown in Japanese Patent Application Laid-Open No. 2005-12307, the region dividing unit 23 creates a distance image based on the values of a plurality of distance measuring points obtained by an external light passive distance measuring device. It is also possible to divide a photographed image into subject areas included in the same subject distance using an image. In this case, the setting unit 24 obtains a spatial frequency for each of the divided subject areas, and sets the strength of noise removal processing corresponding to the obtained spatial frequency.

また、判別部22に予め複数の学習サンプルを用いて被写体を学習させておき、領域分割部23は、学習結果に基づいて判別された被写体毎に撮影画像を複数の被写体領域に分割しても良い。また、領域分割部23は、AE処理で求められた輝度情報を用いても良いし、これらの方法を複合的に用いて、被写体毎に撮影画像を複数の被写体領域に分割しても良い。   In addition, the determination unit 22 is made to learn a subject in advance using a plurality of learning samples, and the region dividing unit 23 may divide the captured image into a plurality of subject regions for each subject determined based on the learning result. good. The area dividing unit 23 may use the luminance information obtained by the AE process, or may divide the captured image into a plurality of object areas for each subject by using these methods in combination.

(9)本実施形態では、撮影時に取得された撮影画像に対してノイズ除去処理を行うが、この他に、再生時に記録媒体11に記録された画像に対してノイズ除去処理を行った後に、ノイズ除去処理後の画像を表示部8に表示することも可能である。   (9) In this embodiment, noise removal processing is performed on a captured image acquired at the time of photographing. In addition to this, after noise removal processing is performed on an image recorded on the recording medium 11 at the time of reproduction, It is also possible to display the image after the noise removal processing on the display unit 8.

(10)本実施形態では、判別部22は、ステップS103で取得した撮影画像から被写体を判別しているが、この他に、ステップS101で取得したスルー画像から被写体を判別することも可能である。   (10) In the present embodiment, the determination unit 22 determines the subject from the captured image acquired in step S103, but it is also possible to determine the subject from the through image acquired in step S101. .

(11)本実施形態では、ステップS103で取得した撮影画像に対してノイズ除去処理部21により自動的にノイズ除去処理を行う例を示したが、これに限らない。例えば、制御部7は、ノイズ除去処理を行うか否かを予め設定する、或いはステップS103の後に撮影画像を表示部8に表示するとともに、ユーザから十字キー26を介して、ノイズ除去処理を行うか否かの選択を受け付けることも可能である。   (11) In the present embodiment, an example in which the noise removal processing unit 21 automatically performs noise removal processing on the captured image acquired in step S103 has been described, but the present invention is not limited thereto. For example, the control unit 7 sets in advance whether or not to perform noise removal processing, or displays a captured image on the display unit 8 after step S103 and performs noise removal processing from the user via the cross key 26. It is also possible to accept selection of whether or not.

本発明の実施形態における電子カメラ1の構成を示すブロック図である。It is a block diagram which shows the structure of the electronic camera 1 in embodiment of this invention. 撮影画像及び被写体毎に撮影画像を分割した状態の例を示す図である。It is a figure which shows the example of the state which divided | segmented the picked-up image for every picked-up image and to-be-photographed object. 電子カメラ1における撮像時の流れを示すフローチャートである。3 is a flowchart showing a flow at the time of imaging in the electronic camera 1.

符号の説明Explanation of symbols

1…電子カメラ、7…制御部、 21…ノイズ除去処理部、22…判別部、23…領域分割部、24…設定部
DESCRIPTION OF SYMBOLS 1 ... Electronic camera, 7 ... Control part, 21 ... Noise removal process part, 22 ... Discrimination part, 23 ... Area division part, 24 ... Setting part

Claims (8)

入力される画像、又は該画像の取得時に得られた撮影情報のいずれかに基づいて、画像内の各被写体を判別し、該被写体をそれぞれ含む複数の被写体領域に該画像を分割する領域分割部と、
前記領域分割部により分割された前記被写体領域毎に、該被写体領域内の被写体に基づいて該被写体領域に対するノイズ除去処理の強度及び種類の少なくとも一方を設定する設定部と、
前記設定部の設定に応じて該複数の被写体領域毎にノイズ除去処理を行うノイズ除去処理部と
を備えたことを特徴とする画像処理装置。
An area dividing unit that discriminates each subject in the image based on either the input image or the shooting information obtained at the time of acquiring the image, and divides the image into a plurality of subject areas each including the subject When,
A setting unit that sets at least one of the strength and type of noise removal processing for the subject region based on the subject in the subject region for each subject region divided by the region dividing unit;
An image processing apparatus comprising: a noise removal processing unit that performs noise removal processing for each of the plurality of subject areas according to the setting of the setting unit.
請求項1に記載の画像処理装置において、
前記設定部は、前記被写体領域から得られる空間周波数に基づいて該被写体領域に対するノイズ除去処理の強度及び種類の少なくとも一方を設定することを特徴とする画像処理装置。
The image processing apparatus according to claim 1.
The image processing apparatus, wherein the setting unit sets at least one of a strength and a type of a noise removal process for the subject region based on a spatial frequency obtained from the subject region.
請求項2に記載の画像処理装置において、
前記設定部は、前記複数の被写体領域のうち、低周波数成分を多く含む被写体領域に対するノイズ除去処理の強度を、高周波成分を多く含む被写体領域に対するノイズ除去処理の強度よりも強く設定することを特徴とする画像処理装置。
The image processing apparatus according to claim 2,
The setting unit sets the strength of noise removal processing for a subject region including a large amount of low-frequency components among the plurality of subject regions more strongly than the strength of noise removal processing for a subject region including a large amount of high-frequency components. An image processing apparatus.
請求項1乃至3に記載の画像処理装置において、
前記設定部は、前記領域分割部により分割される複数の被写体領域のうち、所定の被写体と判断された被写体領域に対するノイズ除去処理の強度を、他の被写体領域に対するノイズ除去処理の強度とは異なる強度に設定することを特徴とする画像処理装置。
The image processing apparatus according to claim 1, wherein
The setting unit differs in noise removal processing strength for a subject region determined as a predetermined subject from a plurality of subject regions divided by the region dividing unit from noise removal processing strength for other subject regions. An image processing apparatus characterized in that the intensity is set.
請求項4に記載の画像処理装置において、
前記所定の被写体は、空であり、
前記設定部は、前記被写体が空であると判別された被写体領域に対するノイズ除去処理の強度を、前記他の被写体領域に対するノイズ除去処理の強度よりも強く設定することを特徴とする画像処理装置。
The image processing apparatus according to claim 4.
The predetermined subject is empty;
The image processing apparatus characterized in that the setting unit sets the strength of noise removal processing for a subject area determined to be empty as the subject is stronger than the strength of noise removal processing for the other subject regions.
請求項4に記載の画像処理装置において、
前記所定の被写体は、肌であり、
前記設定部は、前記被写体が肌であると判別された被写体領域に対するノイズ除去処理の強度を、前記他の被写体領域に対するノイズ除去処理の強度よりも強く設定することを特徴とする画像処理装置。
The image processing apparatus according to claim 4.
The predetermined subject is skin,
The image processing apparatus characterized in that the setting unit sets the strength of noise removal processing for a subject region in which the subject is determined to be skin to be stronger than the strength of noise removal processing for the other subject region.
請求項1から請求項6のいずれか1項に記載の画像処理装置と、
取り込まれた被写体光束を光電変換することにより前記画像の元になる画像信号を出力する撮像部と、
を備えたことを特徴とする電子カメラ。
The image processing apparatus according to any one of claims 1 to 6,
An imaging unit that outputs an image signal that is a source of the image by photoelectrically converting the captured subject luminous flux;
An electronic camera characterized by comprising:
入力される画像、又は該画像の取得時に得られた撮影情報のいずれかに基づいて、被写体領域を判別し、該画像を該被写体領域ごとに分割する領域分割工程と、
前記領域分割部により分割された前記被写体領域毎に、該被写体領域内の被写体に基づいて該被写体領域に対するノイズ除去処理の強度及び種類の少なくとも一方を設定する設定工程と、
前記設定工程の設定に応じて該複数の被写体領域毎にノイズ除去処理を行うノイズ除去処理工程と
をコンピュータにて実行させることが可能な画像処理プログラム。
A region dividing step of determining a subject region based on either an input image or photographing information obtained at the time of acquiring the image, and dividing the image into the subject regions;
A setting step for setting at least one of the strength and type of noise removal processing for the subject region based on the subject in the subject region for each subject region divided by the region dividing unit;
An image processing program capable of causing a computer to execute a noise removal processing step of performing noise removal processing for each of the plurality of subject areas according to the setting of the setting step.
JP2008320960A 2008-12-17 2008-12-17 Image processing apparatus, electronic camera, and image processing program Expired - Fee Related JP5453796B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008320960A JP5453796B2 (en) 2008-12-17 2008-12-17 Image processing apparatus, electronic camera, and image processing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008320960A JP5453796B2 (en) 2008-12-17 2008-12-17 Image processing apparatus, electronic camera, and image processing program

Publications (2)

Publication Number Publication Date
JP2010147660A true JP2010147660A (en) 2010-07-01
JP5453796B2 JP5453796B2 (en) 2014-03-26

Family

ID=42567656

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008320960A Expired - Fee Related JP5453796B2 (en) 2008-12-17 2008-12-17 Image processing apparatus, electronic camera, and image processing program

Country Status (1)

Country Link
JP (1) JP5453796B2 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012105019A (en) * 2010-11-09 2012-05-31 Toshiba Corp Image processing device, method, and program thereof
WO2012153661A1 (en) * 2011-05-06 2012-11-15 シャープ株式会社 Image correction device, image correction display device, image correction method, program, and recording medium
WO2019167453A1 (en) * 2018-02-28 2019-09-06 富士フイルム株式会社 Image processing device, image processing method, and program
JP2020190531A (en) * 2019-05-23 2020-11-26 東芝Itコントロールシステム株式会社 Radiation inspection device

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS61161091A (en) * 1985-01-08 1986-07-21 Fuji Photo Film Co Ltd Image processing method
JPH06339020A (en) * 1993-05-31 1994-12-06 Canon Inc Picture processing method and device
JP2002222416A (en) * 2001-01-26 2002-08-09 Mitsubishi Electric Corp Picture quality improving device
JP2005012307A (en) * 2003-06-17 2005-01-13 Minolta Co Ltd Imaging apparatus
JP2008113222A (en) * 2006-10-30 2008-05-15 Sony Corp Image processing apparatus, imaging apparatus, image processing method in these apparatuses, and program allowing computer to execute the method

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS61161091A (en) * 1985-01-08 1986-07-21 Fuji Photo Film Co Ltd Image processing method
JPH06339020A (en) * 1993-05-31 1994-12-06 Canon Inc Picture processing method and device
JP2002222416A (en) * 2001-01-26 2002-08-09 Mitsubishi Electric Corp Picture quality improving device
JP2005012307A (en) * 2003-06-17 2005-01-13 Minolta Co Ltd Imaging apparatus
JP2008113222A (en) * 2006-10-30 2008-05-15 Sony Corp Image processing apparatus, imaging apparatus, image processing method in these apparatuses, and program allowing computer to execute the method

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012105019A (en) * 2010-11-09 2012-05-31 Toshiba Corp Image processing device, method, and program thereof
WO2012153661A1 (en) * 2011-05-06 2012-11-15 シャープ株式会社 Image correction device, image correction display device, image correction method, program, and recording medium
WO2019167453A1 (en) * 2018-02-28 2019-09-06 富士フイルム株式会社 Image processing device, image processing method, and program
JPWO2019167453A1 (en) * 2018-02-28 2021-03-18 富士フイルム株式会社 Image processing equipment, image processing methods, and programs
JP2020190531A (en) * 2019-05-23 2020-11-26 東芝Itコントロールシステム株式会社 Radiation inspection device
JP7355525B2 (en) 2019-05-23 2023-10-03 東芝Itコントロールシステム株式会社 Radiation inspection equipment

Also Published As

Publication number Publication date
JP5453796B2 (en) 2014-03-26

Similar Documents

Publication Publication Date Title
KR101590868B1 (en) A image processing method an image processing apparatus a digital photographing apparatus and a computer-readable storage medium for correcting skin color
JP4848965B2 (en) Imaging device
JP5949331B2 (en) Image generating apparatus, image generating method, and program
WO2007125866A1 (en) Object extracting method, object pursuing method, image synthesizing method, computer program for extracting object, computer program for pursuing object, computer program for synthesizing images, object extracting device, object pursuing device, and image synthesizing device
US20100188520A1 (en) Imaging device and storage medium storing program
JP2008092515A (en) Electronic camera, image processing apparatus and program
JP4983643B2 (en) Imaging apparatus and correction program
JP5453796B2 (en) Image processing apparatus, electronic camera, and image processing program
US11069031B2 (en) Image processing apparatus, control method for image processing apparatus, image pickup apparatus, and non-transitory computer-readable storage medium to control reflected color components of input image
JP5272775B2 (en) Electronic still camera
JP2010092094A (en) Image processing apparatus, image processing program, and digital camera
JP2012085083A (en) Image processing apparatus, image pickup device, and image processing program
KR20180138530A (en) Detection apparatus, image processing apparatus, detection method, and image processing method
US9600735B2 (en) Image processing device, image processing method, program recording medium
JP5509621B2 (en) Image processing apparatus, camera, and program
JP2007258923A (en) Image processing apparatus, image processing method, image processing program
JP2009296172A (en) Image processing apparatus, image capturing apparatus, method of controlling image processing apparatus, method of controlling image capturing apparatus, program, and recording medium
JP5146223B2 (en) Program, camera, image processing apparatus, and image contour extraction method
JP4946913B2 (en) Imaging apparatus and image processing program
JP5463688B2 (en) Focus evaluation device, camera and program
JP6590681B2 (en) Image processing apparatus, image processing method, and program
JP4784097B2 (en) Signal processing method, signal processing apparatus, and storage medium storing signal processing procedure
JP6776532B2 (en) Image processing equipment, imaging equipment, electronic devices and image processing programs
JP2018152095A (en) Image processing apparatus, imaging apparatus, and image processing program
JP2014165876A (en) Image processing apparatus, imaging apparatus, and image processing program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20111216

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120627

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20121228

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130115

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130318

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130903

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20131105

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20131210

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20131223

R150 Certificate of patent or registration of utility model

Ref document number: 5453796

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees