JP5547975B2 - Imaging apparatus, microscope system, and white balance adjustment method - Google Patents
Imaging apparatus, microscope system, and white balance adjustment method Download PDFInfo
- Publication number
- JP5547975B2 JP5547975B2 JP2010009461A JP2010009461A JP5547975B2 JP 5547975 B2 JP5547975 B2 JP 5547975B2 JP 2010009461 A JP2010009461 A JP 2010009461A JP 2010009461 A JP2010009461 A JP 2010009461A JP 5547975 B2 JP5547975 B2 JP 5547975B2
- Authority
- JP
- Japan
- Prior art keywords
- white balance
- image
- region
- unit
- small
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Landscapes
- Color Image Communication Systems (AREA)
- Studio Devices (AREA)
- Color Television Image Signal Generators (AREA)
- Processing Of Color Television Signals (AREA)
- Facsimile Image Signal Circuits (AREA)
Description
本発明は、画像処理技術に関し、特に、撮像した画像の画質を向上させる技術に関する。 The present invention relates to an image processing technique, and more particularly to a technique for improving the image quality of a captured image.
現在広く普及しているデジタルカメラやデジタルビデオカメラにおいては、撮影したカラー画像の色信号が一定の割合となるように調整するホワイトバランス調整機能を備えている。また、その多くは、使用者が高画質な画像を簡単に撮像できるように、このホワイトバランス調整をカメラ自らが行うオートホワイトバランス機能を備えているものが多い。 Digital cameras and digital video cameras that are widely used nowadays have a white balance adjustment function that adjusts the color signal of a captured color image so that the color signal becomes a certain ratio. Many of them have an auto white balance function in which the camera itself performs this white balance adjustment so that the user can easily take a high-quality image.
オートホワイトバランスは、被写体の色信号を色毎に積算して各色の相関を求め、光源等の変化に対して各色成分が同一レベルとなるように各色成分のバランスを補正するものである。しかしながら、被写体の無彩色領域以外の色信号を積算した場合や、積算した色信号に白飛びなどのノイズが混ざっている場合には、ホワイトバランスの調整を適切に行うことができなくなる。そこで、被写体の無彩色領域以外の色信号を選択する技術や、ノイズの影響を抑制する技術が提案されている。 In auto white balance, the color signals of a subject are integrated for each color to obtain a correlation between the colors, and the balance of the color components is corrected so that the color components are at the same level with respect to changes in the light source or the like. However, when the color signals other than the achromatic region of the subject are integrated, or when noise such as whiteout is mixed in the integrated color signal, the white balance cannot be adjusted appropriately. Therefore, a technique for selecting a color signal other than the achromatic area of the subject and a technique for suppressing the influence of noise have been proposed.
例えば、特許文献1には、映像信号における輝度信号の高周波成分量を検出し、この高周波成分量が所定の閾値以下であるときの輝度信号に対応した色信号を用いて、ホワイトバランス調整を行う技術が開示されている。 For example, in Patent Document 1, a high-frequency component amount of a luminance signal in a video signal is detected, and white balance adjustment is performed using a color signal corresponding to the luminance signal when the high-frequency component amount is a predetermined threshold value or less. Technology is disclosed.
また、例えば特許文献2には、輝度値の大きさが所定範囲内である画素の数が所定範囲内に入るように輝度値の下限値を調整することで、ノイズを含む画素を含まない無彩色の画像信号が選択されるようにして、ホワイトバランス調整を行う技術が開示されている。 Further, for example, Patent Document 2 does not include a pixel including noise by adjusting the lower limit value of the luminance value so that the number of pixels whose luminance value is within a predetermined range falls within the predetermined range. A technique for performing white balance adjustment by selecting a color image signal is disclosed.
特許文献1の技術は、撮像画像における高周波成分を多く含む領域は被写体部分であり、他の部分は無彩色領域であってそれは背景部分であるとの推定を根拠として、高周波成分量に基づいた無彩色領域の抽出を行うものである。しかし、実際には、撮像画像中で高周波成分が多くは含まれていない部分であるのに被写体部分である場合がある。このような場合には、ホワイトバランスの調整を適切に行うことはできない。 The technique of Patent Document 1 is based on the amount of high-frequency components based on the assumption that a region containing a lot of high-frequency components in a captured image is a subject portion, and the other portions are achromatic regions and are background portions. An achromatic region is extracted. However, in reality, there are cases in which the captured image is a portion that does not contain many high-frequency components but is a subject portion. In such a case, the white balance cannot be adjusted appropriately.
また、特許文献2の技術では、例えば顕微鏡による標本の観察像の画像では、輝度値の許容範囲及び画素数の許容範囲の設定によっては、標本における厚みの薄い部分までも無彩色領域として抽出してしまう場合がある。このような場合には、ホワイトバランスの調整を適切に行うことはできない。 In the technique of Patent Document 2, for example, in an image of an observation image of a specimen by a microscope, even a thin part of the specimen is extracted as an achromatic region depending on the setting of the allowable range of luminance values and the allowable range of the number of pixels. May end up. In such a case, the white balance cannot be adjusted appropriately.
本発明は上述した問題に鑑みてなされたものであり、その解決しようとする課題は、オートホワイトバランス調整の精度を向上させることである。 The present invention has been made in view of the above-described problems, and a problem to be solved is to improve the accuracy of auto white balance adjustment.
本発明の態様のひとつである撮像装置は、被写体を撮像する撮像素子を備えており、複数の色成分の画像信号により色彩が画素毎に表現されている該被写体の撮像画像を生成する撮像手段と、該撮像画像を複数の小領域に分割する領域分割手段と、該撮像画像における該複数の小領域の各々に含まれる画素についての、色成分毎の画素の画像信号の標準偏差を該小領域毎に算出する標準偏差算出手段と、該撮像画像における該複数の小領域の各々に含まれる画素についての、色成分毎の画素の画像信号の平均値を該小領域毎に算出する平均値算出手段と、予め記憶部に記憶されており、該画像信号の大きさと該画像信号に対し重畳される該撮像素子が発生させるノイズの量との対応関係を示すノイズモデルに基づき、該撮像画像における該複数の小領域のうち、該平均値に対する該標準偏差が、該ノイズモデルにおいて該平均値を該画像信号の大きさとみたときのノイズ量を基準として所定の範囲内である小領域を、平坦領域として抽出する平坦領域抽出手段と、該撮像画像における該平坦領域のホワイトバランスゲインを算出するホワイトバランスゲイン算出手段と、該ホワイトバランスゲイン算出手段が算出した該平坦領域のホワイトバランスゲインに基づき、該撮像手段により生成される撮像画像のホワイトバランスを調整するホワイトバランス調整手段と、該平坦領域抽出手段が平坦領域として抽出した各小領域のうち、色成分毎の画像信号の平均値の全てが最大値となる小領域、若しくは、当該平均値が、当該色成分毎の平均値の最大値を基準にして設定した閾値以上である小領域を、ホワイトバランスゲイン算出最適領域として抽出するホワイトバランスゲイン算出最適領域抽出手段と、を有し、該ホワイトバランスゲイン算出手段は、該撮像画像における該ホワイトバランスゲイン算出最適領域のホワイトバランスゲインを算出し、該ホワイトバランス調整手段は、該ホワイトバランスゲイン算出手段が算出した該ホワイトバランスゲイン算出最適領域のホワイトバランスゲインに基づき、該撮像手段により生成される撮像画像のホワイトバランスを調整する、ことを特徴とするものであり、この特徴によって前述した課題を解決する。 An imaging apparatus according to one aspect of the present invention includes an imaging device that images a subject, and imaging means that generates a captured image of the subject in which colors are expressed for each pixel by image signals of a plurality of color components. Area dividing means for dividing the captured image into a plurality of small areas, and the standard deviation of the image signal of the pixel for each color component for the pixels included in each of the plurality of small areas in the captured image Standard deviation calculating means for calculating each area, and an average value for calculating the average value of the image signal of the pixel for each color component for each pixel included in each of the plurality of small areas in the captured image The captured image is based on a noise model that is stored in advance in a storage unit and indicates a correspondence relationship between the magnitude of the image signal and the amount of noise generated by the imaging element superimposed on the image signal. The compound in Among the small regions, a small region in which the standard deviation with respect to the average value is within a predetermined range with reference to the amount of noise when the average value is regarded as the size of the image signal in the noise model is defined as a flat region. Based on the white balance gain of the flat area calculated by the flat area extracting means for extracting, the white balance gain calculating means for calculating the white balance gain of the flat area in the captured image, and the white balance gain of the flat area calculated by the white balance gain calculating means White balance adjustment means for adjusting the white balance of the captured image generated by the means, and among the small areas extracted by the flat area extraction means as flat areas, all of the average values of the image signals for each color component are the maximum values. Or the average value is greater than or equal to the threshold set on the basis of the maximum average value for each color component. White balance gain calculation optimal region extraction means for extracting a small region as a white balance gain calculation optimal region, and the white balance gain calculation means includes a white balance of the white balance gain calculation optimal region in the captured image. The gain is calculated, and the white balance adjustment unit adjusts the white balance of the captured image generated by the imaging unit based on the white balance gain of the white balance gain calculation optimum region calculated by the white balance gain calculation unit. The above-described problems are solved by this feature.
また、本発明の別の態様のひとつである撮像装置は、被写体を撮像する撮像素子を備えており、複数の色成分の画像信号により色彩が画素毎に表現されている該被写体の撮像画像を生成する撮像手段と、該撮像画像を複数の小領域に分割する領域分割手段と、該撮像画像における該複数の小領域の各々に含まれる画素についての、色成分毎の画素の画像信号の標準偏差を該小領域毎に算出する標準偏差算出手段と、該撮像画像における該複数の小領域の各々に含まれる画素についての、色成分毎の画素の画像信号の平均値を該小領域毎に算出する平均値算出手段と、予め記憶部に記憶されており、該画像信号の大きさと該画像信号に対し重畳される該撮像素子が発生させるノイズの量との対応関係を示すノイズモデルに基づき、該撮像画像における該複数の小領域のうち、該平均値に対する該標準偏差が、該ノイズモデルにおいて該平均値を該画像信号の大きさとみたときのノイズ量を基準として所定の範囲内である小領域を、平坦領域として抽出する平坦領域抽出手段と、該撮像画像における該平坦領域のホワイトバランスゲインを算出するホワイトバランスゲイン算出手段と、該ホワイトバランスゲイン算出手段が算出した該平坦領域のホワイトバランスゲインに基づき、該撮像手段により生成される撮像画像のホワイトバランスを調整するホワイトバランス調整手段と、該平坦領域抽出手段が該平坦領域である小領域の抽出を行えたか否かを判定する平坦領域抽出判定手段と、該平坦領域である小領域の抽出を該平坦領域抽出手段が行えなかったと該平坦領域抽出判定手段が判定したときに、該平坦領域抽出手段による該平坦領域である小領域の再抽出を、該撮像手段が生成する該被写体についての別の撮像画像に対して行わせる平坦領域再抽出手段と、を有することを特徴とするものである。 An imaging device according to another aspect of the present invention includes an imaging device that captures an image of a subject. A captured image of the subject in which colors are expressed for each pixel by image signals of a plurality of color components. A standard of image signals of pixels for each color component for imaging means to be generated, area dividing means for dividing the captured image into a plurality of small areas, and pixels included in each of the plurality of small areas in the captured image Standard deviation calculating means for calculating a deviation for each small area, and an average value of the image signal of the pixel for each color component for each pixel included in each of the plurality of small areas in the captured image, for each small area Based on an average value calculating means to be calculated and a noise model that is stored in advance in the storage unit and indicates a correspondence relationship between the magnitude of the image signal and the amount of noise generated by the imaging device superimposed on the image signal , In the captured image Among the plurality of small regions, a small region in which the standard deviation with respect to the average value is within a predetermined range based on a noise amount when the average value is regarded as the size of the image signal in the noise model, Based on the flat area extraction means for extracting as a flat area, the white balance gain calculation means for calculating the white balance gain of the flat area in the captured image, and the white balance gain of the flat area calculated by the white balance gain calculation means White balance adjusting means for adjusting white balance of a captured image generated by the imaging means, and flat area extraction determining means for determining whether or not the flat area extracting means has extracted a small area that is the flat area. When the flat area extraction means cannot extract the small area which is the flat area, the flat area extraction determination means When was boss, the re-extraction of the small region which is the flat area by the flat region extracting means, a flat area reextracted means for causing relative to another of the captured image for the subject is image pickup means for generating a It is characterized by having .
なお、このとき、該平坦領域再抽出手段が該平坦領域抽出手段に行わせた該平坦領域である小領域の再抽出の回数が所定回数以上になったか否かを判定する平坦領域再抽出回数判定手段と、該平坦領域である小領域の再抽出の回数が所定回数以上になったと該平坦領域再抽出回数判定手段が判定したときに、オートホワイトバランス失敗の警告を出力する警告手段と、を更に有するように構成することもできる。 At this time, the flat area re-extraction means determines whether or not the number of times of re-extraction of the small area, which is the flat area, performed by the flat area extraction means exceeds a predetermined number. A determination unit, and a warning unit that outputs an auto white balance failure warning when the flat region re-extraction number determination unit determines that the number of times of re-extraction of the small region that is the flat region is equal to or greater than a predetermined number of times, It can also comprise so that it may have further.
また、前述した撮像装置において、該ホワイトバランスゲイン算出最適領域抽出手段が該ホワイトバランスゲイン算出最適領域である小領域の抽出を行えたか否かを判定するホワイトバランスゲイン算出最適領域抽出判定手段と、該ホワイトバランスゲイン算出最適領域である小領域の抽出を該ホワイトバランスゲイン算出最適領域抽出手段が行えなかったと該ホワイトバランスゲイン算出最適領域抽出判定手段が判定したときに、該ホワイトバランスゲイン算出最適領域抽出手段による該ホワイトバランスゲイン算出最適領域である小領域の再抽出を、該撮像手段が生成する該被写体についての別の撮像画像に対して行わせるホワイトバランスゲイン算出最適領域再抽出手段と、を更に有するように構成することもできる。 Further, in the imaging apparatus described above, a white balance gain calculation optimal region extraction determination unit that determines whether or not the white balance gain calculation optimal region extraction unit has extracted a small region that is the white balance gain calculation optimal region; When the white balance gain calculation optimum region extraction means determines that the white balance gain calculation optimum region extraction means cannot extract the small region that is the white balance gain calculation optimum region, the white balance gain calculation optimum region A white balance gain calculation optimal region re-extraction unit that causes re-extraction of the small region, which is the white balance gain calculation optimal region by the extraction unit, to another captured image of the subject generated by the imaging unit; Furthermore, it can also comprise so that it may have.
なお、このとき、該ホワイトバランスゲイン算出最適領域再抽出手段が該ホワイトバランスゲイン算出最適領域抽出手段に行わせた該ホワイトバランスゲイン算出最適領域である小領域の再抽出の回数が所定回数以上になったか否かを判定するホワイトバランスゲイン算出最適領域再抽出回数判定手段と、該ホワイトバランスゲイン算出最適領域である小領域の再抽出の回数が所定回数以上になったと該ホワイトバランスゲイン算出最適領域再抽出回数判定手段が判定したときに、オートホワイトバランス失敗を表す警告を出力する警告手段と、を更に有するように構成することもできる。 At this time, the number of times of re-extraction of the small region, which is the white balance gain calculation optimal region, which the white balance gain calculation optimal region re-extraction unit has performed by the white balance gain calculation optimal region extraction unit exceeds a predetermined number of times. White balance gain calculation optimal region re-extraction number determination means for determining whether or not the white balance gain calculation optimal region, and when the number of times of re-extraction of the small region, which is the white balance gain calculation optimal region, exceeds a predetermined number, the white balance gain calculation optimal region A warning means for outputting a warning indicating an auto white balance failure when the re-extraction number determination means makes a determination may be further included.
また、本発明の別の態様のひとつである撮像装置は、被写体を撮像する撮像素子を備えており、複数の色成分の画像信号により色彩が画素毎に表現されている該被写体の撮像画像を生成する撮像手段と、該撮像画像を複数の小領域に分割する領域分割手段と、該撮像画像における該複数の小領域の各々に含まれる画素についての、色成分毎の画素の画像信号の標準偏差を該小領域毎に算出する標準偏差算出手段と、該撮像画像における該複数の小領域の各々に含まれる画素についての、色成分毎の画素の画像信号の平均値を該小領域毎に算出する平均値算出手段と、予め記憶部に記憶されており、該画像信号の大きさと該画像信号に対し重畳される該撮像素子が発生させるノイズの量との対応関係を示すノイズモデルに基づき、該撮像画像における該複数の小領域のうち、該平均値に対する該標準偏差が、該ノイズモデルにおいて該平均値を該画像信号の大きさとみたときのノイズ量を基準として所定の範囲内である小領域を、平坦領域として抽出する平坦領域抽出手段と、該撮像画像における該平坦領域のホワイトバランスゲインを算出するホワイトバランスゲイン算出手段と、該ホワイトバランスゲイン算出手段が算出した該平坦領域のホワイトバランスゲインに基づき、該撮像手段により生成される撮像画像のホワイトバランスを調整するホワイトバランス調整手段と、を有し、該撮像手段は、顕微鏡により得られた観察標本の顕微鏡画像を該撮像素子で撮像して、該観察標本の撮像画像を生成し、該観察標本の顕微鏡画像を撮像するときの該顕微鏡の観察条件の情報を取得する観察条件取得手段を更に有し、該観察条件の情報には、該顕微鏡の観察倍率の情報が含まれており、該領域分割手段は、観察条件取得手段が取得した観察条件に含まれている該観察倍率の情報に応じて変更した小領域の大きさで、該撮像画像を分割する、ことを特徴とするものである。 An imaging device according to another aspect of the present invention includes an imaging device that captures an image of a subject. A captured image of the subject in which colors are expressed for each pixel by image signals of a plurality of color components. A standard of image signals of pixels for each color component for imaging means to be generated, area dividing means for dividing the captured image into a plurality of small areas, and pixels included in each of the plurality of small areas in the captured image Standard deviation calculating means for calculating a deviation for each small area, and an average value of the image signal of the pixel for each color component for each pixel included in each of the plurality of small areas in the captured image, for each small area Based on an average value calculating means to be calculated and a noise model that is stored in advance in the storage unit and indicates a correspondence relationship between the magnitude of the image signal and the amount of noise generated by the imaging device superimposed on the image signal , In the captured image Among the plurality of small regions, a small region in which the standard deviation with respect to the average value is within a predetermined range based on a noise amount when the average value is regarded as the size of the image signal in the noise model, Based on the flat area extraction means for extracting as a flat area, the white balance gain calculation means for calculating the white balance gain of the flat area in the captured image, and the white balance gain of the flat area calculated by the white balance gain calculation means A white balance adjusting unit that adjusts a white balance of a captured image generated by the imaging unit, and the imaging unit captures a microscope image of an observation specimen obtained by a microscope with the imaging element, Generate a captured image of the observation specimen, and obtain information on the observation conditions of the microscope when capturing a microscope image of the observation specimen Observation condition acquisition means, the observation condition information includes information on the observation magnification of the microscope, and the region dividing means is included in the observation conditions acquired by the observation condition acquisition means. in the observation magnification of the size of the small region which has been changed in accordance with the information of who is, divides the captured image, it is characterized in.
また、本発明の別の態様のひとつである顕微鏡システムは、観察標本の顕微鏡画像を得る顕微鏡と、該顕微鏡により得られる該顕微鏡画像を撮像する撮像素子を備えており、複数の色成分の画像信号により色彩が画素毎に表現されている該観察標本の撮像画像を生成する撮像手段と、該撮像画像を複数の小領域に分割する領域分割手段と、該撮像画像における該複数の小領域の各々に含まれる画素についての、色成分毎の画素の画像信号の標準偏差を該小領域毎に算出する標準偏差算出手段と、該撮像画像における該複数の小領域の各々に含まれる画素についての、色成分毎の画素の画像信号の平均値を該小領域毎に算出する平均値算出手段と、予め記憶部に記憶されており、該画像信号の大きさと該画像信号に対し重畳される該撮像素子が発生させるノイズの量との対応関係を示すノイズモデルに基づき、該撮像画像における該複数の小領域のうち、該平均値に対する該標準偏差が、該ノイズモデルにおいて該平均値を該画像信号の大きさとみたときのノイズ量を基準として所定の範囲内である小領域を、平坦領域として抽出する平坦領域抽出手段と、該撮像画像における該平坦領域のホワイトバランスゲインを算出するホワイトバランスゲイン算出手段と、該ホワイトバランスゲイン算出手段が算出した該平坦領域のホワイトバランスゲインに基づき、該撮像手段により生成される撮像画像のホワイトバランスを調整するホワイトバランス調整手段と、該観察標本の顕微鏡画像を撮像するときの該顕微鏡の観察条件の情報を取得する観察条件取得手段と、を有し、該観察条件の情報には、該顕微鏡の観察倍率の情報が含まれており、該領域分割手段は、観察条件取得手段が取得した観察条件に含まれている該観察倍率の情報に応じて変更した小領域の大きさで、該撮像画像を分割する、ことを特徴とするものであり、この特徴によって前述した課題を解決する。 In addition, a microscope system according to another aspect of the present invention includes a microscope that obtains a microscope image of an observation specimen, and an imaging device that captures the microscope image obtained by the microscope, and an image of a plurality of color components. An imaging unit that generates a captured image of the observation specimen in which a color is expressed for each pixel by a signal; an area dividing unit that divides the captured image into a plurality of small regions; and a plurality of the small regions in the captured image. Standard deviation calculating means for calculating the standard deviation of the image signal of the pixel for each color component for each pixel included in each of the small regions, and the pixels included in each of the plurality of small regions in the captured image Average value calculating means for calculating the average value of the image signal of the pixel for each color component for each of the small regions, and stored in the storage unit in advance, and the size of the image signal and the image signal superimposed on the image signal The image sensor Based on a noise model indicating a correspondence relationship with the amount of noise to be generated, the standard deviation of the plurality of small regions in the captured image with respect to the average value is the magnitude of the image signal in the noise model. A flat area extracting means for extracting a small area within a predetermined range with reference to the amount of noise when viewed as a flat area, and a white balance gain calculating means for calculating a white balance gain of the flat area in the captured image; Based on the white balance gain of the flat region calculated by the white balance gain calculating means, white balance adjusting means for adjusting the white balance of the captured image generated by the imaging means, and taking a microscope image of the observation specimen Observation condition acquisition means for acquiring information on observation conditions of the microscope at the time, and The information includes the information of the observation magnification of the microscope, and the region dividing means includes the small region changed according to the information of the observation magnification included in the observation condition acquired by the observation condition acquisition means. The captured image is divided according to size, and the above-described problems are solved by this feature.
本発明によれば、以上のようにすることにより、高い精度でのオートホワイトバランス調整を可能にするという効果を奏する。 According to the present invention, by performing the above, there is an effect of enabling automatic white balance adjustment with high accuracy.
以下、本発明の実施の形態を図面に基づいて説明する。 Hereinafter, embodiments of the present invention will be described with reference to the drawings.
[第一の実施形態] [First embodiment]
図1は本実施形態に係る撮像装置の構成図である。この撮像装置は、撮像部1、制御部2、ホワイトバランス調整部(以降、「WB調整部」と記す)5、画像処理部6、操作部7、及び表示部8を備えている。ここで、撮像部1、制御部2、WB調整部5、及び画像処理部6はいずれもデータバス9に接続されており、各種のデータを制御部2の管理の下で相互に授受することができる。 FIG. 1 is a configuration diagram of an imaging apparatus according to the present embodiment. The imaging apparatus includes an imaging unit 1, a control unit 2, a white balance adjustment unit (hereinafter referred to as “WB adjustment unit”) 5, an image processing unit 6, an operation unit 7, and a display unit 8. Here, the imaging unit 1, the control unit 2, the WB adjustment unit 5, and the image processing unit 6 are all connected to the data bus 9, and exchange various data under the control of the control unit 2. Can do.
撮像部1は、撮像素子11、撮像素子駆動部12、前置処理部13、増幅部14、及びA/D変換部15を備えている。 The imaging unit 1 includes an imaging device 11, an imaging device driving unit 12, a preprocessing unit 13, an amplification unit 14, and an A / D conversion unit 15.
撮像素子11は、例えばCCD(電荷結合素子:Charge Coupled Device)であり、赤(R)、緑(G)、及び青(B)の光の三原色の各色の輝度を検出する画素がベイヤ配列(Bayer array)を成しており、各画素単位の受光量に応じた信号を出力する。撮像素子11は、撮像素子駆動部12からの駆動信号に基づいた露出時間で駆動され、その出力信号は前置処理部13に入力される。 The image sensor 11 is, for example, a CCD (Charge Coupled Device), and pixels that detect the luminance of each of the three primary colors of red (R), green (G), and blue (B) light are arranged in a Bayer array ( A signal corresponding to the amount of light received in each pixel unit is output. The image sensor 11 is driven with an exposure time based on the drive signal from the image sensor drive unit 12, and the output signal is input to the pre-processing unit 13.
前置処理部13は、撮像素子駆動部12から与えられる制御パルスに従い、撮像素子11からの出力信号を、撮像画像を構成する各画素の画像信号として増幅部14へ出力する。 The pre-processing unit 13 outputs an output signal from the image sensor 11 to the amplifying unit 14 as an image signal of each pixel constituting the captured image according to the control pulse given from the image sensor driving unit 12.
増幅部14は、前置処理部13から出力される画像信号を、制御部2によって設定される利得で増幅する。 The amplification unit 14 amplifies the image signal output from the pre-processing unit 13 with a gain set by the control unit 2.
A/D変換部15は、増幅部14で増幅された、アナログ信号である画像信号を、撮像素子駆動部12からのクロック信号に従ってアナログ−デジタル変換して、撮像画像を表現しているデジタルデータを出力する。A/D変換部15から出力される、デジタルデータである撮像画像は、WB調整部5に入力されると共にデータバス9を介して制御部2にも入力される。制御部2内では、この撮像画像はメモリ3に記憶される。 The A / D conversion unit 15 performs analog-to-digital conversion on the image signal, which is an analog signal, amplified by the amplification unit 14 in accordance with the clock signal from the image sensor driving unit 12, and expresses a captured image. Is output. A captured image, which is digital data, output from the A / D conversion unit 15 is input to the WB adjustment unit 5 and also to the control unit 2 via the data bus 9. In the control unit 2, this captured image is stored in the memory 3.
撮像部1は、以上のように構成されており、被写体を撮像して、複数の色成分の画像信号により色彩が画素毎に表現されている当該被写体の撮像画像を生成する。 The imaging unit 1 is configured as described above, images a subject, and generates a captured image of the subject in which colors are expressed for each pixel by image signals of a plurality of color components.
なお、撮像部1は、画像の撮像を所定の時間間隔で順次行って撮像画像を順次出力する。従って、メモリ3における撮像画像の記憶は順次更新される。 The imaging unit 1 sequentially captures images at predetermined time intervals and sequentially outputs captured images. Accordingly, the storage of the captured image in the memory 3 is sequentially updated.
制御部2はメモリ3及びCPU4を備えている。 The control unit 2 includes a memory 3 and a CPU 4.
メモリ3は、各種のデータを記憶しておく記憶部である。メモリ3は、例えば、撮像部1から出力される撮像画像や、領域分割部21により設定される小領域の大きさに関する情報を記憶しておく。メモリ3は、更に、ホワイトバランスゲイン(以降、「WBゲイン」と記す)を算出する対象の領域の抽出に用いるノイズモデルや、WBゲイン算出部25において算出されWB調整部5に設定されるWBゲインなども記憶しておく。 The memory 3 is a storage unit that stores various data. The memory 3 stores, for example, information about the captured image output from the imaging unit 1 and the size of the small area set by the area dividing unit 21. The memory 3 further includes a noise model used for extraction of a target region for calculating a white balance gain (hereinafter referred to as “WB gain”), and a WB calculated by the WB gain calculation unit 25 and set in the WB adjustment unit 5. Also remember the gain.
CPU4は、撮像素子駆動部12、増幅部14、WB調整部5、及び画像処理部6とはデータバス9を介して接続されており、また、操作部7とも接続されている。CPU4は、これらの各部の動作の制御を行う中央演算装置である。CPU4は、例えば、不図示の読み出し専用メモリに予め格納させておいた所定の制御プログラムを読み出して実行することにより、これらの各部の動作の制御を行う。 The CPU 4 is connected to the image sensor driving unit 12, the amplifying unit 14, the WB adjusting unit 5, and the image processing unit 6 via the data bus 9, and is also connected to the operation unit 7. The CPU 4 is a central processing unit that controls operations of these units. For example, the CPU 4 reads and executes a predetermined control program stored in advance in a read-only memory (not shown), thereby controlling operations of these units.
なお、制御部2は、この他にも、領域分割部21、標準偏差算出部22、平均値算出部23、平坦領域抽出部24、及びホワイトバランスゲイン算出部(以降、「WBゲイン算出部」と記す)25を備えている。次に、これらの各部の動作について説明する。 In addition to this, the control unit 2 also includes a region dividing unit 21, a standard deviation calculating unit 22, an average value calculating unit 23, a flat region extracting unit 24, and a white balance gain calculating unit (hereinafter referred to as “WB gain calculating unit”). 25). Next, operations of these units will be described.
図1の撮像装置では、撮像画像を小領域に分割し、分割した小領域毎且つ色成分毎の各画素の画像信号の標準偏差を算出し、WBゲインの算出を行う撮像画像上の領域を、算出された標準偏差とノイズモデルとの比較結果に基づいて抽出する。 In the imaging apparatus of FIG. 1, the captured image is divided into small areas, the standard deviation of the image signal of each pixel for each divided small area and for each color component is calculated, and the area on the captured image for calculating the WB gain is calculated. Then, extraction is performed based on the comparison result between the calculated standard deviation and the noise model.
まず、上述した抽出に用いるノイズモデルについて説明する。 First, the noise model used for the above-described extraction will be described.
ノイズモデルの一例を図2に示す。図2に例示するように、このノイズモデルは、画像信号の大きさと画像信号に重畳されるノイズの量との対応関係を示す複数の座標点データで構成されているものである。これはすなわち、撮像素子11の露光量と画像信号上に重畳されると予想されるノイズとの関係を定量化したものである。 An example of the noise model is shown in FIG. As illustrated in FIG. 2, the noise model includes a plurality of coordinate point data indicating the correspondence between the magnitude of the image signal and the amount of noise superimposed on the image signal. That is, the relationship between the exposure amount of the image sensor 11 and the noise expected to be superimposed on the image signal is quantified.
画像信号に重畳されるノイズとは、撮像素子11の特性により発生する、各画素の画像信号のばらつきである。このノイズを定量的に表したノイズ量は、各画素の画像信号の標準偏差を算出することで求めることができる。なお、撮像素子11の特性により発生するノイズには、光ショットノイズ、暗電流によるノイズ、読み出しノイズがあるが、入射光量が多い場合は、このうちの光ショットノイズが支配的である。従って、この場合のノイズ量は、撮像素子11への入射光量に依存する。 The noise superimposed on the image signal is a variation in the image signal of each pixel generated due to the characteristics of the image sensor 11. The amount of noise that quantitatively represents this noise can be obtained by calculating the standard deviation of the image signal of each pixel. Note that noise generated by the characteristics of the image sensor 11 includes light shot noise, noise due to dark current, and readout noise. When the amount of incident light is large, light shot noise is dominant. Therefore, the amount of noise in this case depends on the amount of light incident on the image sensor 11.
このノイズモデルで表される、画像信号の大きさに応じて発生するノイズの量は、実測により、若しくは光ショットノイズの算出式を用いることにより、求めることができる。 The amount of noise generated according to the magnitude of the image signal represented by this noise model can be obtained by actual measurement or by using a calculation formula for optical shot noise.
実測によるノイズ量の算出では、無彩色領域のみの一様な画像の一部の範囲若しくは全範囲を指定し、指定した範囲に含まれるR、G、Bそれぞれの画素について実測された画像信号の標準偏差を算出し、この算出結果をノイズ量とする。 In the calculation of the amount of noise by actual measurement, a partial range or the entire range of a uniform image only in the achromatic region is designated, and the image signal actually measured for each of the R, G, and B pixels included in the designated range is specified. A standard deviation is calculated, and this calculation result is used as a noise amount.
例えば、指定した範囲のR、G、B各々の画素数をNr 、Ng 、Nb とし、R、G、B各々の画素の画像信号の大きさをXri、Xgi、Xbiとし、指定した範囲に含まれるR、G、B各々の画素の画像信号の大きさの平均値をXrAve、XgAve、XbAveとする。このとき、R、G、B各色成分の画像信号の大きさに対するノイズ量σr、σg、σbは、それぞれ下記の[数1]式の計算を行うことにより算出される。 For example, the number of R, G, B pixels in the specified range is Nr, Ng, Nb, and the size of the image signal of each R, G, B pixel is Xri, Xgi, Xbi, and is included in the specified range. Let Xr Ave , Xg Ave , and Xb Ave be the average values of the image signal sizes of the R, G, and B pixels. At this time, the noise amounts σr, σg, and σb with respect to the magnitudes of the image signals of the R, G, and B color components are respectively calculated by calculating the following [Equation 1].
つまり、[数1]式で表されるノイズモデルにより示される画像信号の大きさとノイズの量との対応関係は、無彩色領域のみの一様な画像の一部の範囲若しくは全範囲に含まれる色成分毎の画素の画像信号についての平均値と標準偏差との対応関係である。 That is, the correspondence between the magnitude of the image signal and the amount of noise indicated by the noise model expressed by the equation 1 is included in a partial range or the entire range of a uniform image only in the achromatic region. This is a correspondence relationship between an average value and a standard deviation of image signals of pixels for each color component.
一方、画像信号の大きさに応じて発生するノイズの量を、光ショットノイズの算出式を用いて求める場合には、以下のようにする。 On the other hand, when the amount of noise generated according to the magnitude of the image signal is obtained using a calculation formula for optical shot noise, the following is performed.
撮像素子11の受光面への入射光量をPとし、撮像素子11の量子効率をQとする。このとき、光ショットノイズの量σSは、下記の[数2]式の計算を行うことにより算出される。 The amount of light incident on the light receiving surface of the image sensor 11 is P, and the quantum efficiency of the image sensor 11 is Q. At this time, the amount of optical shot noise σS is calculated by calculating the following [Equation 2].
R、G、Bの各色成分について、上記の[数2]式により光ショットノイズを求める。 For each of the R, G, and B color components, the optical shot noise is obtained by the above [Equation 2].
輝度が異なる無彩色領域のみの複数画像について、上記の[数1]式若しくは[数2]式によりノイズ量を求め、画像信号の大きさとノイズ量との関係をグラフ化する。こうすることで、ノイズモデルが得られる。このノイズモデルに相当するデータテーブルを、メモリ3に予め記憶させておく。 For a plurality of images having only achromatic regions with different luminances, the amount of noise is obtained by the above [Equation 1] or [Equation 2], and the relationship between the magnitude of the image signal and the amount of noise is graphed. By doing so, a noise model is obtained. A data table corresponding to the noise model is stored in the memory 3 in advance.
なお、ノイズモデルは、図2に例示するように、ISO(国際標準化機構)で策定されたISO感度毎に用意しておくようにする。そして、小領域毎の標準偏差と比較するノイズモデルとしては、図1の撮像装置に画像の撮像時に設定していたISO感度のものを使用する。なお、ISO感度とは、撮像部1に入射する光に対する感度を表す数値であり、制御部2は、設定されたISO感度に対応する利得を、増幅部14に設定する。 A noise model is prepared for each ISO sensitivity established by ISO (International Organization for Standardization), as illustrated in FIG. As the noise model to be compared with the standard deviation for each small region, the noise model having the ISO sensitivity set when the image is captured in the image capturing apparatus of FIG. 1 is used. The ISO sensitivity is a numerical value representing sensitivity to light incident on the imaging unit 1, and the control unit 2 sets a gain corresponding to the set ISO sensitivity in the amplification unit 14.
次に、このノイズモデルと比較される、分割した小領域毎且つ色成分毎の標準偏差の算出について説明する。 Next, calculation of the standard deviation for each divided small region and each color component, which is compared with this noise model, will be described.
例えば、画像を分割した小領域内のR、G、B各々の画素数をNR 、NG 、NB とし、R、G、B各々の画素の画像信号をXRi、XGi、XBiとし、当該小領域内のR、G、B各々の画素の画像信号の大きさの平均値をXRAve、XGAve、XBAveとする。このとき、当該小領域内のR、G、B各々の画素についての画像信号の標準偏差σR 、σG 、σB は、それぞれ下記の[数3]式の計算を行うことにより算出される。 For example, the number of R, G, and B pixels in a small area obtained by dividing an image is NR, NG, and NB, and the image signal of each R, G, and B pixel is XRi, XGi, and XBi. XR Ave , XG Ave , and XB Ave are average values of the magnitudes of the image signals of the R, G, and B pixels. At this time, the standard deviations σ R, σ G, and σ B of the image signal for each of the R, G, and B pixels in the small region are calculated by calculating the following [Equation 3], respectively.
図1の説明に戻る。領域分割部21は、操作部7に対する操作によって指定されてメモリ3に記憶された画像サイズの情報と、メモリ3に予め記憶されている小領域の大きさとに基づいて、撮像画像を複数の小領域に分割し、当該分割後の各小領域を特定する座標データを算出する。領域分割部21からは、各小領域についての、座標データと水平方向及び垂直方向の大きさとが出力されて、標準偏差算出部22及び平均値算出部23に入力される。 Returning to the description of FIG. The area dividing unit 21 divides a captured image into a plurality of small images based on the information on the image size specified by the operation on the operation unit 7 and stored in the memory 3 and the size of the small area stored in advance in the memory 3. Dividing into regions, coordinate data specifying each small region after the division is calculated. From the area dividing unit 21, the coordinate data and the horizontal and vertical sizes for each small area are output and input to the standard deviation calculating unit 22 and the average value calculating unit 23.
領域分割部21により行われる小領域の座標データの算出を、図3及び図4を用いて説明する。 The calculation of the coordinate data of the small area performed by the area dividing unit 21 will be described with reference to FIGS.
図3は、撮像部1で撮像されてメモリ3に記憶された撮像画像の一例であり、図4は、図3の撮像画像が小領域に分割された様子を表している。 FIG. 3 is an example of a captured image captured by the image capturing unit 1 and stored in the memory 3, and FIG. 4 illustrates a state in which the captured image of FIG. 3 is divided into small regions.
領域分割部21は、まず、操作部7に対する操作によって指定された図3の撮像画像の画像サイズと、予め記憶されている小領域の大きさとをメモリ3から読み出す。そして、読み出した値に基づき、この撮像画像を図4に示すように小領域に分割したときの各小領域の座標データを算出する。 The area dividing unit 21 first reads from the memory 3 the image size of the captured image of FIG. 3 designated by the operation on the operation unit 7 and the size of the small area stored in advance. Based on the read value, the coordinate data of each small area when this captured image is divided into small areas as shown in FIG. 4 is calculated.
なお、画像サイズは、撮像画像の水平方向及び垂直方向の画素数を表したものであり、図4に示されているW(水平方向の画素数)及びH(垂直方向の画素数)である。 The image size represents the number of pixels in the horizontal direction and the vertical direction of the captured image, and is W (the number of pixels in the horizontal direction) and H (the number of pixels in the vertical direction) shown in FIG. .
また、小領域の座標データとは、矩形である当該小領域の左上の頂点の水平方向と垂直方向の座標とし、この座標で当該小領域を特定するものとする。この座標データを、(水平方向の座標,垂直方向の座標)形式で表記するものとすると、例えば、図4において、小領域501の座標データは(X0,Y0)で表され、小領域502の座標データは(X1,Y1)で表される。 Further, the coordinate data of the small area is the horizontal and vertical coordinates of the upper left vertex of the rectangular small area, and the small area is specified by these coordinates. If this coordinate data is expressed in the form of (horizontal coordinate, vertical coordinate), for example, in FIG. 4, the coordinate data of the small region 501 is represented by (X0, Y0), and the small region 502 The coordinate data is represented by (X1, Y1).
また、領域分割部21がメモリ3から読み出して出力する小領域の水平方向及び垂直方向の大きさは、例えば図4においては、それぞれw0及びh0である。従って、図4において、矩形である撮像画像の左上の頂点が(0,0)であるとすると、小領域501の座標データは(0,0)となり、小領域502の座標データは(w0,h0)となる。 Also, the horizontal and vertical sizes of the small areas read out from the memory 3 and output by the area dividing unit 21 are, for example, w0 and h0 in FIG. Therefore, in FIG. 4, if the upper left vertex of the rectangular captured image is (0, 0), the coordinate data of the small region 501 is (0, 0), and the coordinate data of the small region 502 is (w0, h0).
標準偏差算出部22は、まず、領域分割部21から出力された座標データに基づき、撮像画像から各小領域に含まれる画素の画像信号を抽出する。そして、その色成分毎の画素信号の標準偏差を小領域毎に算出し、その算出結果を、小領域を特定する座標データに対応付けて出力する。 First, the standard deviation calculation unit 22 extracts image signals of pixels included in each small region from the captured image based on the coordinate data output from the region dividing unit 21. Then, the standard deviation of the pixel signal for each color component is calculated for each small area, and the calculation result is output in association with the coordinate data for specifying the small area.
平均値算出部23は、領域分割部21から出力された座標データに基づき、撮像画像から各小領域に含まれる画素の画像信号を抽出し、その色成分毎の画素信号の平均値を小領域毎に算出し、その算出結果を、小領域を特定する座標データに対応付けて出力する。 The average value calculation unit 23 extracts image signals of pixels included in each small region from the captured image based on the coordinate data output from the region dividing unit 21, and calculates the average value of the pixel signals for each color component as the small region. It calculates every time, and the calculation result is output in association with the coordinate data for specifying the small area.
平坦領域抽出部24は、まず、メモリ3に予め記憶させておいたノイズモデルと、標準偏差算出部22により算出された標準偏差とを小領域毎に比較する。そして、平均値算出部23により算出された各小領域の色成分毎の画像信号の平均値に対し、当該標準偏差が、ノイズモデルを基準とした所望の範囲内にある小領域を抽出し、抽出された小領域を特定する座標データを、平坦領域として出力する。なお、本実施形態では、この平坦領域をWBゲイン算出領域とする。 The flat area extracting unit 24 first compares the noise model stored in the memory 3 in advance with the standard deviation calculated by the standard deviation calculating unit 22 for each small area. Then, for the average value of the image signal for each color component of each small region calculated by the average value calculation unit 23, a small region in which the standard deviation is within a desired range based on the noise model is extracted. Coordinate data specifying the extracted small area is output as a flat area. In the present embodiment, this flat area is set as the WB gain calculation area.
平坦領域抽出部24による平坦領域(本実施形態においてはWBゲイン算出領域)の抽出について、更に説明する。 The extraction of a flat region (WB gain calculation region in the present embodiment) by the flat region extraction unit 24 will be further described.
例えば、図2において、撮像装置に画像の撮像時に設定していたISO感度が「ISO(1)」であった場合を考える。このときに、図2の「ISO(1)」のノイズモデルにおいての各小領域の色成分毎の平均値Lに対する標準偏差σを基準とし、このσに対し上下a%(1±a/100)の範囲内の標準偏差を持つ小領域を抽出する。この抽出結果に係る小領域が、各小領域の色成分毎の画像信号の平均値に対し、標準偏差が、ノイズモデルを基準とした所望の範囲内にある小領域、すなわち平坦領域である。 For example, consider the case in FIG. 2 where the ISO sensitivity set at the time of capturing an image in the image capturing apparatus is “ISO (1)”. At this time, the standard deviation σ with respect to the average value L for each color component of each small area in the noise model of “ISO (1)” in FIG. 2 is used as a reference, and up and down a% (1 ± a / 100). ) To extract a small area having a standard deviation within the range. The small area according to this extraction result is a small area in which the standard deviation is within a desired range with reference to the noise model with respect to the average value of the image signal for each color component of each small area, that is, a flat area.
平坦領域抽出部24による平坦領域の抽出例を図5に示す。 An example of flat region extraction by the flat region extraction unit 24 is shown in FIG.
図5において、小領域101〜103は無彩色領域である背景部分である。この小領域101〜103は、各々の色成分毎の画像信号の平均値に対し、その標準偏差が、ノイズモデルを基準とした所望の範囲内にある平坦領域である。従って、本実施形態では、この平坦領域が、WBゲインの算出対象の領域として抽出される。 In FIG. 5, small areas 101 to 103 are background portions that are achromatic areas. The small areas 101 to 103 are flat areas whose standard deviation is within a desired range with respect to the average value of the image signal for each color component. Therefore, in the present embodiment, this flat region is extracted as a region for calculating the WB gain.
一方、図5において、小領域104も背景部分ではあるが、領域内に異物が存在しているため、その画像信号は、構造部及び構造部上のノイズを含んでいる。このため、小領域104の画像信号の標準偏差は、各々の色成分毎の画像信号の平均値に対し、ノイズモデルを基準とした所望の範囲内にはない。従って、平坦領域ではないこの小領域104は、WBゲイン算出領域として平坦領域抽出部24が抽出することはない。 On the other hand, in FIG. 5, although the small area 104 is also a background part, since the foreign substance exists in the area, the image signal includes the structure portion and noise on the structure portion. For this reason, the standard deviation of the image signal of the small area 104 is not within a desired range based on the noise model with respect to the average value of the image signal for each color component. Therefore, the small area 104 that is not a flat area is not extracted by the flat area extraction unit 24 as a WB gain calculation area.
図1の説明に戻る。WBゲイン算出部25は、メモリ3より撮像画像を読み出し、平坦領域抽出部24により出力された座標データに基づき、WBゲインを算出する対象とする小領域を特定し、その特定した小領域の画素の画像信号を用いてWBゲインを算出する。 Returning to the description of FIG. The WB gain calculation unit 25 reads a captured image from the memory 3, identifies a small region for which a WB gain is calculated based on the coordinate data output by the flat region extraction unit 24, and pixels of the identified small region The WB gain is calculated using the image signal.
なお、上述した領域分割部21、標準偏差算出部22、平均値算出部23、平坦領域抽出部24、及びWBゲイン算出部25の各部の機能をCPU4が提供するように構成することもできる。このためには、例えば、この各部の機能をCPU4に行わせるための制御プログラムを作成して不図示の読み出し専用メモリに格納しておき、CPU4が、この撮像装置の起動時にこの制御プログラムを読み出して実行するようにしておけばよい。 Note that the CPU 4 can also be configured to provide the functions of the above-described region dividing unit 21, standard deviation calculating unit 22, average value calculating unit 23, flat region extracting unit 24, and WB gain calculating unit 25. For this purpose, for example, a control program for causing the CPU 4 to perform the function of each unit is created and stored in a read-only memory (not shown), and the CPU 4 reads out the control program when the imaging apparatus is activated. You should just run it.
操作部7は、制御部2と接続されており、所定の操作に対応付けられている、撮像部1による撮像の開始の指示の入力を取得する。取得した撮像開始指示は、CPU4により制御部2からデータバス9へと送出される。 The operation unit 7 is connected to the control unit 2 and acquires an input of an instruction to start imaging by the imaging unit 1 that is associated with a predetermined operation. The acquired imaging start instruction is sent from the control unit 2 to the data bus 9 by the CPU 4.
WB調整部5は、撮像部1より出力された画像信号に対し、制御部2により設定されたWBゲインを用いてホワイトバランスの調整(以降、「WB調整」と記す)を行う。 The WB adjustment unit 5 performs white balance adjustment (hereinafter referred to as “WB adjustment”) on the image signal output from the imaging unit 1 using the WB gain set by the control unit 2.
画像処理部6には、WB調整部5と、データバス9を介して制御部2とが接続されている。画像処理部6は、WB調整部5によりWB調整された画像信号において、色配列における欠落した色画素を補う色補間処理や、輪郭補正処理、フォーマット変換等の各種の画像処理を行う。また、画像処理部6は、表示部8にて画像を表示することを可能にする画像信号を生成して表示部8へ出力する。 The image processing unit 6 is connected to the WB adjustment unit 5 and the control unit 2 via the data bus 9. The image processing unit 6 performs various types of image processing such as color interpolation processing that compensates for missing color pixels in the color array, contour correction processing, and format conversion in the image signal that has been subjected to WB adjustment by the WB adjustment unit 5. Further, the image processing unit 6 generates an image signal that enables the display unit 8 to display an image and outputs the image signal to the display unit 8.
表示部8は、この画像信号で表現されている画像の表示を行う。 The display unit 8 displays an image represented by this image signal.
次に、図1の撮像装置で行われる制御処理について説明する。図6は、図1の制御部2により行われる、本実施形態に係るオートホワイトバランス処理の処理内容を表したフローチャートである。 Next, a control process performed by the imaging apparatus in FIG. 1 will be described. FIG. 6 is a flowchart showing the processing content of the auto white balance processing according to the present embodiment performed by the control unit 2 of FIG.
撮像装置のユーザが操作部7を操作して撮像開始の指示を入力すると、CPU4は、この入力された撮像開始の指示を操作部7から取得する。すると、CPU4は、この撮像開始の指示を、データバス9を介して撮像素子駆動部12に転送する処理を行う。撮像素子駆動部12は、この撮像開始指示を取得すると、撮像素子11を駆動して撮像を開始させる。すると、撮像された画像を表現しているデータ(撮像画像)が撮像部1より出力されて制御部2及びWB調整部5に入力される。制御部2では、CPU4が、入力された撮像画像をメモリ3に記憶させると共に、図6の制御処理を開始する。 When the user of the imaging apparatus operates the operation unit 7 and inputs an instruction to start imaging, the CPU 4 acquires the input instruction to start imaging from the operation unit 7. Then, the CPU 4 performs processing for transferring this imaging start instruction to the imaging element driving unit 12 via the data bus 9. When acquiring the imaging start instruction, the imaging element driving unit 12 drives the imaging element 11 to start imaging. Then, data representing the captured image (captured image) is output from the imaging unit 1 and input to the control unit 2 and the WB adjustment unit 5. In the control unit 2, the CPU 4 stores the input captured image in the memory 3 and starts the control process of FIG.
図6において、S1では領域分割処理が行われる。この処理は、領域分割部21を機能させて、画像サイズと小領域の大きさとをメモリ3から読み出させ、読み出した値に基づき、この撮像画像を小領域に分割したときの各小領域の座標データを算出する処理であり、図3及び図4を用いて既に説明した処理である。 In FIG. 6, an area division process is performed in S1. In this process, the area dividing unit 21 is operated to read the image size and the size of the small area from the memory 3, and based on the read value, the captured image is divided into the small areas. This is a process for calculating coordinate data, which has already been described with reference to FIGS.
次に、S2において、標準偏差算出処理が行われる。この処理は、標準偏差算出部22を機能させて、領域分割部21から出力された座標データに基づき、撮像画像から各小領域の画素の画像信号を抽出し、その色成分毎の標準偏差を小領域毎に算出する処理である。この算出結果は、小領域を特定する座標データに対応付けられて標準偏差算出部22から出力される。 Next, in S2, standard deviation calculation processing is performed. In this process, the standard deviation calculation unit 22 is made to function, and based on the coordinate data output from the region dividing unit 21, the image signal of the pixel in each small region is extracted from the captured image, and the standard deviation for each color component is calculated. This is a process of calculating for each small area. This calculation result is output from the standard deviation calculation unit 22 in association with coordinate data specifying the small area.
次に、S3において、平均値算出処理が行われる。この処理は、平均値算出部23を機能させて、領域分割部21から出力された座標データに基づき、撮像画像から各小領域の画素の画像信号を抽出し、その色成分毎の平均値を小領域毎に算出する処理である。この算出結果は、小領域を特定する座標データに対応付けられて平均値算出部23から出力される。 Next, in S3, an average value calculation process is performed. In this process, the average value calculation unit 23 is made to function, and based on the coordinate data output from the region dividing unit 21, the image signals of the pixels in each small region are extracted from the captured image, and the average value for each color component is obtained. This is a process of calculating for each small area. This calculation result is output from the average value calculation unit 23 in association with coordinate data specifying the small area.
次に、S4において、WBゲイン算出領域抽出処理が行われる。この処理は、平坦領域抽出部24を機能させる処理である。前述したように、平坦領域抽出部24は、まず、メモリ3に予め記憶させておいたノイズモデルと、標準偏差算出部22により算出された標準偏差とを小領域毎に比較する。次に、平均値算出部23により算出された各小領域の色成分毎の画像信号の平均値に対し、当該標準偏差が、ノイズモデルを基準とした所望の範囲内にある小領域を抽出する。そして、この抽出された小領域を特定する座標データを、WBゲイン算出領域の抽出結果として出力する。 Next, in S4, WB gain calculation region extraction processing is performed. This process is a process for causing the flat area extraction unit 24 to function. As described above, the flat region extraction unit 24 first compares the noise model stored in the memory 3 in advance with the standard deviation calculated by the standard deviation calculation unit 22 for each small region. Next, with respect to the average value of the image signal for each color component of each small region calculated by the average value calculation unit 23, a small region whose standard deviation is within a desired range based on the noise model is extracted. . Then, the coordinate data specifying the extracted small area is output as the extraction result of the WB gain calculation area.
次に、S5において、WBゲイン算出処理が行われる。この処理は、WBゲイン算出部25を機能させる処理である。前述したように、WBゲイン算出部25は、まず、メモリ3より撮像画像を読み出し、当該撮像画像に対し、平坦領域抽出部24より出力された座標データに基づいて、WBゲインを算出する対象とする小領域を特定する。そして、その特定した小領域内の画素の画像信号を用いてWBゲインを算出する。なお、WBゲインの算出は、抽出したWBゲイン算出領域の色成分毎に画像信号の平均値を求め、G色の平均値に対するR色の平均値の比とB色の平均値の比とを取ることで算出する。WBゲイン算出部25は、このようにして算出されたWBゲインを、メモリ3に一旦格納する。 Next, in S5, a WB gain calculation process is performed. This process is a process for causing the WB gain calculation unit 25 to function. As described above, the WB gain calculation unit 25 first reads a captured image from the memory 3, and calculates a WB gain for the captured image based on the coordinate data output from the flat region extraction unit 24. Specify the small area to be used. Then, the WB gain is calculated using the image signal of the pixel in the specified small area. In calculating the WB gain, an average value of the image signals is obtained for each color component of the extracted WB gain calculation area, and the ratio of the average value of R to the average value of G and the ratio of the average value of B color are obtained. Calculate by taking. The WB gain calculation unit 25 temporarily stores the WB gain calculated in this way in the memory 3.
S6では、WB調整処理が行われる。この処理は、CPU4が、WBゲイン算出部25により格納されたWBゲインをメモリ3から読み出してWB調整部5に設定し、WB調整をWB調整部5に行わせる。WB調整部5は、WB調整を行ってWBゲイン算出領域におけるR、G、B各色の画像信号の平均値を一致させるようにする。このWB調整処理が完了するとオートホワイトバランス処理が終了する。 In S6, WB adjustment processing is performed. In this process, the CPU 4 reads the WB gain stored by the WB gain calculation unit 25 from the memory 3 and sets it in the WB adjustment unit 5, and causes the WB adjustment unit 5 to perform WB adjustment. The WB adjustment unit 5 performs WB adjustment so that the average values of the R, G, and B color image signals in the WB gain calculation region are matched. When this WB adjustment process is completed, the auto white balance process ends.
以上までの処理が図6のオートホワイトバランス処理である。この処理を図1の制御部2に行わせることで、図1の撮像装置でのオートホワイトバランス機能の提供が可能になる。 The above processing is the auto white balance processing of FIG. By causing the control unit 2 in FIG. 1 to perform this process, it is possible to provide an auto white balance function in the imaging apparatus in FIG.
なお、本実施形態に係る撮像装置では、撮像素子11として、単板カラーのベイヤ型のものを用いたが、ベイヤ型以外の単板カラーの撮像素子を用いてもよく、また、単色の撮像素子を3つ用いて撮像装置を構成してもよい。 In the imaging apparatus according to the present embodiment, a single-plate color Bayer type is used as the imaging element 11, but a single-plate color imaging element other than the Bayer type may be used, and monochromatic imaging is also possible. You may comprise an imaging device using three elements.
また、本実施形態に係る撮像装置では、WBゲイン算出領域の抽出のためにISO感度毎に1つのノイズモデルを使用するようにしたが、ISO感度毎に画像信号を構成する各色成分のノイズモデルを用意し、各色成分に対応したノイズモデルを使用してもよい。また、本実施形態に係る撮像装置では、ノイズモデルをデータテーブルとしてメモリ3に記憶させているが、これを例えばグラフ化したノイズモデルを表す式をメモリ3に記憶させ、平坦領域抽出部24では、そのノイズモデルを表す式より求めたノイズ量を用いて、平坦領域の抽出を行ってもよい。 In the imaging apparatus according to the present embodiment, one noise model is used for each ISO sensitivity for the extraction of the WB gain calculation area. However, the noise model for each color component constituting the image signal for each ISO sensitivity is used. And a noise model corresponding to each color component may be used. In the imaging apparatus according to the present embodiment, the noise model is stored in the memory 3 as a data table. However, for example, an equation representing the noise model that is graphed is stored in the memory 3, and the flat region extraction unit 24 The flat area may be extracted using the noise amount obtained from the expression representing the noise model.
また、制御部2が有する領域分割部21、標準偏差算出部22、平均値算出部23、及び平坦領域抽出部24は、座標データと小領域のサイズ(水平方向および垂直方向の大きさ)を出力するだけでなく、分割された各小領域の画素の画像信号を出力してもよい。 In addition, the area dividing unit 21, the standard deviation calculating unit 22, the average value calculating unit 23, and the flat area extracting unit 24 included in the control unit 2 set the coordinate data and the size of the small region (the size in the horizontal direction and the vertical direction). In addition to outputting, image signals of pixels in each divided small area may be output.
また、制御部2、WB調整部5、及び画像処理部6の機能を、例えばパーソナルコンピュータに行わせるようにしてもよい。なお、このようにするには、これらの各部の機能をコンピュータに行わせるための制御プログラムを作成し、この制御プログラムをパーソナルコンピュータに読み込ませて実行させるようにすればよい。 Further, the functions of the control unit 2, the WB adjustment unit 5, and the image processing unit 6 may be performed by, for example, a personal computer. In order to do this, a control program for causing the computer to perform the functions of these units may be created, and the control program may be read and executed by a personal computer.
以上のように、本実施形態では、画像を分割した小領域の画素の画像信号の色成分毎の標準偏差とノイズモデルとを比較し、この比較結果に基づいてWBゲイン算出領域を抽出する。本実施形態では、このようにすることで、被写体やゴミなどの構造部や白飛びや黒つぶれなどのノイズが存在しない領域を、WBゲイン算出領域として抽出することができる。つまり、無彩色領域である背景部分をWBゲイン算出領域として高精度に抽出することができるので、WBゲインの算出が高精度に行える結果、オートホワイトバランス調整の精度が向上する。 As described above, in this embodiment, the standard deviation for each color component of the image signal of the pixel in the small area obtained by dividing the image is compared with the noise model, and the WB gain calculation area is extracted based on the comparison result. In this embodiment, by doing in this way, it is possible to extract a structure part such as a subject or dust or an area where no noise such as overexposure or blackout exists as a WB gain calculation area. That is, since the background portion that is an achromatic region can be extracted with high accuracy as the WB gain calculation region, the WB gain can be calculated with high accuracy, and the accuracy of auto white balance adjustment is improved.
[第二の実施形態] [Second Embodiment]
図7は本実施形態に係る撮像装置の構成図である。なお、図7において、図1に示した第一の実施形態に係るものと同一の機能を有する構成要素には同一の参照符号を付している。これらの構成要素については既述したので、ここでの詳しい説明を省略する。 FIG. 7 is a configuration diagram of the imaging apparatus according to the present embodiment. In FIG. 7, the same reference numerals are assigned to components having the same functions as those in the first embodiment shown in FIG. Since these components have already been described, a detailed description thereof will be omitted here.
図7の構成は、制御部2がWBゲイン算出最適領域抽出部26、平坦領域再抽出部27、及び警告部28を備えている点において、図1の構成と相違している。 The configuration of FIG. 7 is different from the configuration of FIG. 1 in that the control unit 2 includes a WB gain calculation optimum region extraction unit 26, a flat region re-extraction unit 27, and a warning unit 28.
WBゲイン算出最適領域抽出部26は、平坦領域抽出部24が平坦領域として抽出した各小領域から、次の2つの条件の少なくともどちらか一方に合致する小領域を、WBゲイン算出最適領域として抽出する。その第一の条件は、平坦領域抽出部24が平坦領域として抽出した各小領域の色成分毎の画像信号の平均値の全てが最大値となる小領域である。また、その第二の条件は、平坦領域抽出部24が平坦領域として抽出した各小領域の色成分毎の画像信号の平均値が、その色成分毎の平均値の最大値を基準にして設定した閾値以上である小領域である。 The WB gain calculation optimum region extraction unit 26 extracts a small region that matches at least one of the following two conditions as a WB gain calculation optimum region from each of the small regions extracted by the flat region extraction unit 24 as a flat region. To do. The first condition is a small region in which all of the average values of the image signals for each color component of each small region extracted by the flat region extraction unit 24 as a flat region are the maximum value. The second condition is that the average value of the image signal for each color component of each small area extracted by the flat area extraction unit 24 as a flat area is set based on the maximum value of the average value for each color component. This is a small area that is equal to or greater than the threshold value.
WBゲイン算出最適領域抽出部26によりこのようにしてWBゲイン算出最適領域の抽出を行うのは、平坦領域抽出部24が抽出する平坦領域は、必ずしも無彩色領域である背景部分のみに限られるものではないからである。つまり、平坦領域として抽出された各小領域の色成分毎の画像信号の平均値を用いて小領域の更なる抽出を行うことで、無彩色領域の抽出がより高精度なものになるからである。 The WB gain calculation optimum region extraction unit 26 extracts the WB gain calculation optimum region in this way because the flat region extracted by the flat region extraction unit 24 is limited to only the background portion that is an achromatic region. It is not. In other words, it is possible to extract the achromatic region with higher accuracy by further extracting the small region using the average value of the image signals for each color component of each small region extracted as a flat region. is there.
なお、各小領域の色成分毎の画像信号の平均値の最大値を基準にして設定した閾値とは、ここでは、平坦領域抽出部24が平坦領域として抽出した小領域の色成分毎の平均値のうちの最大値を基準にして、その値からb%の範囲内の値とする。 Note that the threshold set with reference to the maximum value of the average value of the image signals for each color component of each small region is the average for each color component of the small region extracted as a flat region by the flat region extraction unit 24 here. Based on the maximum value among the values, the value is within a range of b% from the value.
平坦領域抽出部24とWBゲイン算出最適領域抽出部26とにより行われるWBゲイン算出最適領域の抽出について、図8を用いて更に説明する。 The extraction of the WB gain calculation optimum region performed by the flat region extraction unit 24 and the WB gain calculation optimum region extraction unit 26 will be further described with reference to FIG.
図8は、顕微鏡で観察した標本を撮像した画像の例を示している。図8において、分割した小領域201〜203は無彩色領域である背景部分であり、小領域204及び205は標本の厚みが薄い領域(背景部分ではない領域)である。 FIG. 8 shows an example of an image obtained by imaging a specimen observed with a microscope. In FIG. 8, the divided small areas 201 to 203 are background parts which are achromatic areas, and the small areas 204 and 205 are areas where the thickness of the specimen is thin (areas which are not background parts).
このとき、平坦領域抽出部24は、小領域201〜205の全てを平坦領域として抽出してしまうことがある。ここで、平坦領域抽出部24が小領域204及び205を抽出してしまうのは、顕微鏡で観察した標本を撮像した場合において、標本の厚みが薄い領域は背景部分と同程度の標準偏差を有していることがあるためである。しかしながら、小領域204及び205は、背景部分ではなく、標本の存在している領域であるため、これらをWBゲインの算出に用いることは適切とはいえない。 At this time, the flat area extraction unit 24 may extract all of the small areas 201 to 205 as a flat area. Here, the flat area extraction unit 24 extracts the small areas 204 and 205 when the specimen observed with a microscope is imaged, the area where the specimen is thin has a standard deviation comparable to that of the background portion. It is because there are things that are. However, since the small regions 204 and 205 are not background portions but regions where samples exist, it is not appropriate to use them for calculating the WB gain.
一方、WBゲイン算出最適領域抽出部26は、平坦領域抽出部24が平坦領域として抽出した各小領域から、前述した2つの条件の少なくともどちらか一方に合致する小領域を、WBゲイン算出最適領域として抽出する。WBゲイン算出最適領域抽出部26による小領域の抽出について、図9、図10、及び図11を用いて更に説明する。 On the other hand, the WB gain calculation optimum region extraction unit 26 selects a small region that matches at least one of the two conditions described above from each small region extracted by the flat region extraction unit 24 as a flat region. Extract as The extraction of the small area by the WB gain calculation optimum area extracting unit 26 will be further described with reference to FIGS. 9, 10, and 11. FIG.
図9、図10、及び図11は、それぞれ、各小領域の、R色、G色、及びB色それぞれの色成分毎の画像信号の平均値を表しているグラフの例である。 FIGS. 9, 10, and 11 are examples of graphs representing the average values of the image signals for the respective color components of the R color, the G color, and the B color in each small region.
図9において、R色成分の画像信号の平均値の最大値をRmaxとすると、この最大値Rmaxを基準にして設定した閾値は、Rmax×(b/100)となる。また、図10において、G色成分の画像信号の平均値の最大値をGmaxとすると、この最大値Gmaxを基準にして設定した閾値は、Gmax×(b/100)となる。更に、図11において、B色成分の画像信号の平均値の最大値をBmaxとすると、この最大値Bmaxを基準にして設定した閾値は、Bmax×(b/100)となる。 In FIG. 9, when the maximum value of the average value of the R color component image signal is Rmax, the threshold value set with reference to the maximum value Rmax is Rmax × (b / 100). In FIG. 10, if the maximum value of the average value of the G color component image signal is Gmax, the threshold value set based on the maximum value Gmax is Gmax × (b / 100). Further, in FIG. 11, when the maximum value of the average value of the B-color component image signal is Bmax, the threshold value set based on the maximum value Bmax is Bmax × (b / 100).
図9、図10、及び図11を参照すると、前述した第一及び第二の条件の少なくともどちらか一方に合致するのは、小領域201〜203であり、小領域204及び205は、この条件をどちらも満たしていない。従って、WBゲイン算出最適領域抽出部26は、小領域201〜203を抽出する。こうして、小領域201〜205のうち、背景部分である小領域201〜203のみが、WBゲイン算出最適領域として抽出される。 Referring to FIGS. 9, 10, and 11, the small regions 201 to 203 satisfy at least one of the first and second conditions described above, and the small regions 204 and 205 satisfy the condition. Neither of these is met. Therefore, the WB gain calculation optimum area extraction unit 26 extracts the small areas 201 to 203. In this way, only the small areas 201 to 203 which are the background portions of the small areas 201 to 205 are extracted as the WB gain calculation optimum area.
平坦領域再抽出部27は、平坦領域部24において平坦領域の抽出に失敗した場合(すなわち、平坦領域が全く抽出されなかった場合)に、所定の条件の下で、撮像部1が新たに撮像した画像を用いて平坦領域部24に平坦領域の抽出を再度行わせるものである。 The flat area re-extraction unit 27 newly picks up an image under the predetermined condition when the flat area extraction in the flat area unit 24 fails (that is, when no flat area is extracted). The flat region is extracted again by the flat region unit 24 using the obtained image.
平坦領域再抽出部27は、まず、メモリ3に記憶してある平坦領域再抽出回数を読み出し、カウントアップする。そして、このカウントアップした平坦領域再抽出回数と予めメモリ3に記憶されていた平坦領域再抽出設定回数とを比較する。 The flat area re-extraction unit 27 first reads the number of times of flat area re-extraction stored in the memory 3 and counts up. Then, the counted number of times of flat area re-extraction is compared with the number of times of flat area re-extraction set previously stored in the memory 3.
ここで、カウントアップした平坦領域再抽出回数が、平坦領域再抽出設定回数未満であれば、平坦領域再抽出部27は、平坦領域の抽出を再度試みるための制御を行う。すなわち、このとき、平坦領域再抽出部27は、領域分割部21へ座標データの再算出の指示を与え、以降の標準偏差算出部22、平均値算出部23、及び平坦領域抽出部24の再動作を開始させる。こうして、撮像部1が新たに撮像した画像を用いた平坦領域の抽出が再度行われる。 Here, if the counted number of times of flat area re-extraction is less than the number of times of setting flat area re-extraction, the flat area re-extraction unit 27 performs control for trying to extract the flat area again. That is, at this time, the flat region re-extraction unit 27 gives an instruction to re-calculate the coordinate data to the region dividing unit 21, and the re-calculation of the standard deviation calculation unit 22, the average value calculation unit 23, and the flat region extraction unit 24 thereafter. Start operation. In this way, the extraction of the flat region using the image newly picked up by the image pickup unit 1 is performed again.
一方、カウントアップした平坦領域再抽出回数が、平坦領域再抽出設定回数以上であれば、この画像に対するオートホワイトバランス処理動作は不可能との判定を下し、警告部28に対しユーザへの警告を報知させる指示を与える。その上で、平坦領域再抽出部27は、領域分割部21へ座標データの再算出の指示を与え、以降の標準偏差算出部22、平均値算出部23、及び平坦領域抽出部24の再動作を開始させ、撮像部1が新たに撮像した画像に対する平坦領域の抽出が再度行われる。 On the other hand, if the counted number of times of flat area re-extraction is equal to or greater than the set number of times of flat area re-extraction, it is determined that the auto white balance processing operation cannot be performed on the image, and the warning unit 28 is warned to the user. An instruction to notify is given. After that, the flat area re-extraction unit 27 gives an instruction to re-calculate the coordinate data to the area dividing unit 21, and the standard deviation calculation unit 22, the average value calculation unit 23, and the flat region extraction unit 24 are restarted thereafter. The flat area is extracted again from the image newly captured by the imaging unit 1.
警告部28は、平坦領域再抽出部27からの指示に応じて、オートホワイトバランス失敗を表す警告を表示部8に表示出力させてユーザへ報知する。 In response to an instruction from the flat area re-extraction unit 27, the warning unit 28 displays and outputs a warning indicating failure of auto white balance on the display unit 8 to notify the user.
次に、図7の撮像装置で行われる制御処理について説明する。図12は、図7の制御部2により行われる、本実施形態に係るオートホワイトバランス処理の処理内容を表したフローチャートである。 Next, a control process performed by the imaging apparatus in FIG. 7 will be described. FIG. 12 is a flowchart showing the processing content of the auto white balance processing according to this embodiment performed by the control unit 2 of FIG.
図12において、図6に示した第一の実施形態に係るものと同一の処理ステップには同一の参照符号を付している。これらの処理ステップについては既述したので、ここでの詳しい説明を省略する。 In FIG. 12, the same reference numerals are assigned to the same processing steps as those according to the first embodiment shown in FIG. Since these processing steps have already been described, detailed description thereof is omitted here.
図12のフローチャートは、S7からS11及びS18の処理ステップが追加され、代わりにS4の処理ステップが削除されている点において、図6のフローチャートと相違している。 The flowchart of FIG. 12 is different from the flowchart of FIG. 6 in that the processing steps from S7 to S11 and S18 are added, and the processing step of S4 is deleted instead.
図12において、S3の平均値算出処理に続くS7において、平坦領域抽出処理が行われる。この判定処理では、平坦領域抽出部24を機能させ、まず、メモリ3に予め記憶させておいたノイズモデルと、標準偏差算出部22により算出された標準偏差とを小領域毎に比較する。そして、平均値算出部23により算出された各小領域の色成分毎の画像信号の平均値に対し、当該標準偏差が、ノイズモデルを基準とした所望の範囲内にある小領域の抽出を試みて、小領域の抽出ができたか否かを判定する。ここで、小領域の抽出ができたと判定したとき(判定結果がYesのとき)には、平坦領域抽出部24に、抽出された小領域を特定する座標データを、平坦領域の抽出結果として出力させ、処理をS18に進める。この平坦領域の抽出結果は、WBゲイン算出最適領域抽出部26に入力される。一方、小領域の抽出ができなかったと判定したとき(判定結果がNoのとき)には、平坦領域抽出部24に、平坦領域再抽出信号を出力させ、処理をS9に進める。この平坦領域再抽出信号は、平坦領域再抽出部27に入力される。 In FIG. 12, a flat area extraction process is performed in S7 following the average value calculation process in S3. In this determination process, the flat area extraction unit 24 is made to function, and first, the noise model stored in advance in the memory 3 and the standard deviation calculated by the standard deviation calculation unit 22 are compared for each small area. Then, with respect to the average value of the image signal for each color component of each small region calculated by the average value calculation unit 23, an attempt is made to extract a small region whose standard deviation is within a desired range based on the noise model. Then, it is determined whether or not the small area has been extracted. Here, when it is determined that the small region has been extracted (when the determination result is Yes), the coordinate data specifying the extracted small region is output to the flat region extraction unit 24 as the flat region extraction result. And the process proceeds to S18. This flat region extraction result is input to the WB gain calculation optimum region extraction unit 26. On the other hand, when it is determined that the small area cannot be extracted (when the determination result is No), the flat area re-extraction signal is output to the flat area extracting unit 24, and the process proceeds to S9. The flat area re-extraction signal is input to the flat area re-extraction unit 27.
S18では、平坦領域再抽出回数リセット処理が行われる。この処理は、平坦領域である小領域の抽出ができたので、メモリ3に記憶されている、平坦領域再抽出回数をリセットして初期値「0」とする処理である。そして、続くS8において、WBゲイン算出最適領域抽出処理が行われる。 In S18, flat area re-extraction count reset processing is performed. This process is a process of resetting the flat area re-extraction count stored in the memory 3 to the initial value “0” because the small area that is a flat area has been extracted. In subsequent S8, WB gain calculation optimum region extraction processing is performed.
このWBゲイン算出最適領域抽出処理は、WBゲイン算出最適領域抽出部26を機能させる処理である。前述したように、WBゲイン算出最適領域抽出部26は、平坦領域抽出部24が平坦領域として抽出した各小領域から、前述した第一及び第二の条件の少なくともどちらか一方に合致する小領域を、WBゲイン算出最適領域として抽出する。WBゲイン算出最適領域抽出部26は、こうして抽出された小領域を特定する座標データを、WBゲイン算出最適領域の抽出結果として出力する。 This WB gain calculation optimum region extraction process is a process for causing the WB gain calculation optimum region extraction unit 26 to function. As described above, the WB gain calculation optimum region extraction unit 26 selects from the small regions extracted by the flat region extraction unit 24 as flat regions, the small regions that meet at least one of the first and second conditions described above. Are extracted as the WB gain calculation optimum region. The WB gain calculation optimum region extraction unit 26 outputs the coordinate data specifying the small region thus extracted as the extraction result of the WB gain calculation optimum region.
このS8の処理に続いて行われるS5のWBゲイン算出処理では、メモリ3より読み出した撮像画像に対し、このWBゲイン算出最適領域抽出部26から出力された座標データに基づいて、WBゲインを算出する対象とする小領域を特定する。そして、その特定した小領域の画素の画像信号を用いてWBゲインを算出し、算出したWBゲインをメモリ3に一旦格納する。そして、続くS6のWB調整処理において、CPU4が、WBゲイン算出部25により格納されたWBゲインをメモリ3から読み出してWB調整部5に設定し、WB調整をWB調整部5に行わせる。 In the WB gain calculation process of S5 performed following the process of S8, the WB gain is calculated for the captured image read from the memory 3 based on the coordinate data output from the WB gain calculation optimum region extraction unit 26. Specify the target small area. Then, the WB gain is calculated using the image signal of the pixel in the specified small area, and the calculated WB gain is temporarily stored in the memory 3. Then, in the subsequent WB adjustment process of S6, the CPU 4 reads the WB gain stored by the WB gain calculation unit 25 from the memory 3 and sets it in the WB adjustment unit 5, and causes the WB adjustment unit 5 to perform WB adjustment.
一方、S9では、平坦領域再抽出回数カウント処理が行われる。前述したように、この処理は、平坦領域部24による小領域の抽出ができず、平坦領域の抽出に失敗したとS7の処理で判定された場合に行う処理である。この処理では、平坦領域再抽出部27を機能させて、メモリ3に記憶してある平坦領域再抽出回数を読み出して、「1」だけカウントアップさせ、カウントアップ後の平坦領域再抽出回数をメモリ3に記憶させてその値を更新させる。 On the other hand, in S9, flat area re-extraction count counting processing is performed. As described above, this processing is performed when the flat region portion 24 cannot extract a small region and it is determined in S7 that the flat region extraction has failed. In this process, the flat area re-extraction unit 27 is caused to function so that the number of times of flat area re-extraction stored in the memory 3 is read and incremented by “1”. 3 and the value is updated.
次に、S10では、平坦領域再抽出回数判定処理が行われる。この処理は、平坦領域再抽出部27を機能させて、予めメモリ3に記憶させていた平坦領域再抽出設定回数を読み出させ、この設定回数とS9の処理によるカウントアップ後の平坦領域再抽出回数との大小比較を行わせる。ここで、カウントアップ後の平坦領域再抽出回数が、平坦領域再抽出設定回数未満であると判定したとき(判定結果がNoのとき)には、S1へ処理を戻し、平坦領域抽出のためのS1からS3及びS7の処理を再度開始させる。一方、カウントアップ後の平坦領域再抽出回数が、平坦領域再抽出設定回数以上であると判定したとき(判定結果がYesのとき)には、S11に処理を進める。 Next, in S10, flat area re-extraction number determination processing is performed. In this process, the flat area re-extraction unit 27 is caused to function so as to read the flat area re-extraction setting number stored in the memory 3 in advance, and the flat area re-extraction after counting up by the setting number and the process of S9. Make a comparison with the number of times. Here, when it is determined that the number of times of flat area re-extraction after the count-up is less than the number of flat area re-extraction settings (when the determination result is No), the process returns to S1 to extract the flat area. The processes from S1 to S3 and S7 are started again. On the other hand, when it is determined that the number of flat region re-extraction after the count-up is equal to or greater than the flat region re-extraction setting number (when the determination result is Yes), the process proceeds to S11.
S11では、オートホワイトバランス失敗警告処理が行われる。この処理は警告部28を機能させる処理であり、オートホワイトバランス失敗を表す警告を表示部8に表示出力させて、その警告をユーザへ報知する処理である。その後、このS11の処理を終えたときには、S1へ処理を戻し、平坦領域抽出のためのS1からS3及びS7の処理を再度開始させる。 In S11, an auto white balance failure warning process is performed. This process is a process for causing the warning unit 28 to function, and is a process for causing the display unit 8 to display and output a warning indicating failure of auto white balance and notifying the user of the warning. Thereafter, when the process of S11 is completed, the process is returned to S1, and the processes of S1 to S3 and S7 for extracting the flat area are started again.
以上までの処理が図12のオートホワイトバランス処理である。この処理を図7の制御部2に行わせることで、図7の撮像装置でのオートホワイトバランス機能の提供が可能になる。 The above processing is the auto white balance processing of FIG. By causing the control unit 2 in FIG. 7 to perform this process, it is possible to provide an auto white balance function in the imaging apparatus in FIG.
なお、上述した本実施形態の説明では、画像内に無彩色領域である背景部分が必ず存在することを想定しているが、このような背景部分が存在しない場合も考えられる。そこで、図7の撮像装置を以下のように動作させるようにしてもよい。 In the above description of the present embodiment, it is assumed that a background portion that is an achromatic region always exists in an image, but there may be a case where such a background portion does not exist. Therefore, the imaging apparatus of FIG. 7 may be operated as follows.
すなわち、まず、撮像開始時にオートホワイトバランス処理を初めて行ったときにWBゲイン算出最適領域として抽出された各小領域の色成分毎の画像信号の平均値の最大値をメモリ3に記憶させておく。その後、オートホワイトバランス処理を実行する度に、その実行により得られた各小領域の色成分毎の画像信号の平均値の最大値と、記憶させておいた最大値を比較して、この値の大きい方を最大値としてメモリ3の記憶内容を更新する。そして、その後のWBゲイン算出最適領域の抽出時において、色成分毎の画像信号の平均値の最大値を基準にして設定する閾値以上の平均値を持つ小領域を抽出するときに、代わりに、メモリ3に記憶されている当該最大値を、当該閾値の設定の基準として用いる。 That is, first, the maximum value of the average value of the image signals for each color component of each small area extracted as the WB gain calculation optimum area when auto white balance processing is performed for the first time at the start of imaging is stored in the memory 3. . After that, every time auto white balance processing is executed, the maximum value of the average value of the image signal for each color component of each small area obtained by the execution is compared with the stored maximum value, and this value is compared. The stored contents of the memory 3 are updated with the larger of the two as the maximum value. When extracting a small region having an average value equal to or greater than a threshold value set based on the maximum value of the average value of the image signal for each color component at the time of subsequent extraction of the WB gain calculation optimum region, The maximum value stored in the memory 3 is used as a reference for setting the threshold.
図7の撮像装置を以上のように動作させるようにしても、無彩色領域である背景部分の抽出を、高精度に行うことができる。 Even when the image pickup apparatus of FIG. 7 is operated as described above, the background portion that is the achromatic region can be extracted with high accuracy.
また、図12に示したオートホワイトバランス処理におけるS11の処理において、オートホワイトバランス処理に失敗したと判定された場合(判定結果がYesの場合)に、最後にWB調整処理が実施されたときのWBゲインを用いてWB調整を行うようにしてもよい。また、このとき、撮像を開始して最初のオートホワイトバランス処理において処理に失敗したと判定された場合には、メモリ3に予め記憶させておいたWBゲインの初期設定値を使用してWB調整を行うようにしてもよい。 Further, in the process of S11 in the auto white balance process shown in FIG. 12, when it is determined that the auto white balance process has failed (when the determination result is Yes), the WB adjustment process is finally performed. You may make it perform WB adjustment using WB gain. At this time, if it is determined that the process has failed in the first auto white balance process after imaging is started, the WB adjustment is performed using the initial setting value of the WB gain stored in the memory 3 in advance. May be performed.
以上のように、本実施形態では、WBゲイン算出最適領域の抽出を、各小領域の色成分毎の画像信号の標準偏差とノイズモデルとの比較結果に基づいて行うだけでなく、当該標準偏差を用いて抽出した各小領域の色成分毎の画像信号の平均値にも基づいて行う。本実施形態では、このようにすることで、より高精度に無彩色領域である背景部分の抽出がより高精度に抽出することができるので、WBゲインの算出が更に高精度に行える結果、オートホワイトバランス調整の精度が更に向上する。 As described above, in the present embodiment, the extraction of the WB gain calculation optimum region is not only performed based on the comparison result between the standard deviation of the image signal for each color component of each small region and the noise model, but also the standard deviation. Is also performed based on the average value of the image signals for each color component of each small region extracted using. In this embodiment, since the background portion that is the achromatic region can be extracted with higher accuracy by doing so, the WB gain can be calculated with higher accuracy. The accuracy of white balance adjustment is further improved.
また、本実施形態では、平坦領域の抽出に失敗した場合に、平坦領域の再抽出を試みることで、ユーザの作業負担を軽減することができる。ここで、平坦領域の再抽出を、予め設定しておいた回数失敗した場合は、オートホワイトバランス処理に失敗したことがユーザに警告されるので、WB調整が実施されていないことをユーザに認識させることができる。この結果、WB調整のミスによる撮像の失敗を減らすことができる。 Further, in the present embodiment, when the flat area extraction fails, the user's work load can be reduced by trying to re-extract the flat area. Here, when the re-extraction of the flat area has failed for the preset number of times, the user is warned that the auto white balance processing has failed, so the user recognizes that the WB adjustment is not performed. Can be made. As a result, it is possible to reduce imaging failures due to mistakes in WB adjustment.
[第三の実施形態] [Third embodiment]
図13は、本実施形態に係る撮像装置の構成図である。なお、図13において、図1に示した第一の実施形態に係るもの、若しくは図7に示した第二の実施形態に係るものと同一の機能を有する構成要素には同一の参照符号を付している。これらの構成要素については既述したので、ここでの詳しい説明を省略する。 FIG. 13 is a configuration diagram of the imaging apparatus according to the present embodiment. In FIG. 13, components having the same functions as those according to the first embodiment shown in FIG. 1 or those according to the second embodiment shown in FIG. doing. Since these components have already been described, a detailed description thereof will be omitted here.
図13の構成は、制御部2がWBゲイン算出最適領域再抽出部29を備えている点において、図7の構成と相違している。 The configuration of FIG. 13 is different from the configuration of FIG. 7 in that the control unit 2 includes a WB gain calculation optimum region re-extraction unit 29.
WBゲイン算出最適領域再抽出部29は、WBゲイン算出最適領域の抽出に失敗したと判定された場合に、所定の条件の下で、撮像部1が新たに撮像した画像を用いてWBゲイン算出最適領域抽出部26にWBゲイン算出最適領域の抽出を再度行わせるものである。 When it is determined that the extraction of the WB gain calculation optimal region has failed, the WB gain calculation optimal region re-extraction unit 29 calculates the WB gain using the image newly captured by the imaging unit 1 under a predetermined condition. The optimum area extraction unit 26 is made to extract the WB gain calculation optimum area again.
WBゲイン算出最適領域再抽出部29は、まず、メモリ3に記憶してあるWBゲイン算出最適領域再抽出回数を読み出し、カウントアップする。そして、このカウントアップしたWBゲイン算出最適領域再抽出回数と予めメモリ3に記憶されていたWBゲイン算出最適領域再抽出設定回数とを比較する。 The WB gain calculation optimum region re-extraction unit 29 first reads out the WB gain calculation optimum region re-extraction number stored in the memory 3 and counts up. Then, the counted WB gain calculation optimum region re-extraction number is compared with the WB gain calculation optimum region re-extraction setting number stored in the memory 3 in advance.
ここで、カウントアップしたWBゲイン算出最適領域再抽出回数が、WBゲイン算出最適領域再抽出設定回数未満であれば、WBゲイン算出最適領域再抽出部29は、WBゲイン算出最適領域の抽出を再度試みるための制御を行う。すなわち、このとき、WBゲイン算出最適領域再抽出部29は、領域分割部21へ座標データの再算出の指示を与える。これにより、以降の標準偏差算出部22、平均値算出部23、平坦領域抽出部24、及びWBゲイン算出最適領域抽出部26の再動作を開始させる。こうして、撮像部1が新たに撮像した画像を用いたWBゲイン算出最適領域の抽出が再度行われる。 Here, if the counted WB gain calculation optimum region re-extraction number is less than the WB gain calculation optimum region re-extraction setting number, the WB gain calculation optimum region re-extraction unit 29 again extracts the WB gain calculation optimum region. Take control to try. That is, at this time, the WB gain calculation optimum region re-extraction unit 29 gives an instruction to re-calculate coordinate data to the region division unit 21. As a result, the subsequent re-operations of the standard deviation calculation unit 22, the average value calculation unit 23, the flat region extraction unit 24, and the WB gain calculation optimum region extraction unit 26 are started. In this way, the extraction of the WB gain calculation optimum region using the image newly picked up by the image pickup unit 1 is performed again.
一方、カウントアップしたWBゲイン算出最適領域再抽出回数が、WBゲイン算出最適領域再抽出設定回数以上であれば、この画像に対するオートバランス処理動作は不可能との判定を下し、警告部28に対しユーザへの警告を報知させる指示を与える。その上で、WBゲイン算出最適領域再抽出部29は、領域分割部21へ座標データの再算出の指示を与える。これにより、以降の標準偏差算出部22、平均値算出部23、平坦領域抽出部24、及びWBゲイン算出最適領域抽出部26の再動作を開始させ、撮像部1が新たに撮像した画像を用いたWBゲイン算出最適領域の抽出が再度行われる。 On the other hand, if the counted WB gain calculation optimum region re-extraction number is equal to or more than the WB gain calculation optimum region re-extraction setting number, it is determined that the autobalance processing operation for this image is impossible, and the warning unit 28 is notified. An instruction to notify the user of a warning is given. In addition, the WB gain calculation optimum region re-extraction unit 29 gives an instruction to re-calculate coordinate data to the region division unit 21. As a result, the standard deviation calculation unit 22, the average value calculation unit 23, the flat region extraction unit 24, and the WB gain calculation optimum region extraction unit 26 are restarted, and the image newly captured by the imaging unit 1 is used. The extracted WB gain calculation optimum region is again performed.
次に、図13の撮像装置で行われる本実施形態に係る制御処理について説明する。図14は、図13の制御部2により行われる、本実施形態に係るオートホワイトバランス処理の処理内容を表したフローチャートである。 Next, control processing according to the present embodiment performed by the imaging apparatus in FIG. 13 will be described. FIG. 14 is a flowchart showing the processing content of the auto white balance processing according to this embodiment performed by the control unit 2 of FIG.
図14において、図6に示した第一の実施形態に係るもの若しくは図12に示した第二の実施形態に係るものと同一の処理ステップには同一の参照符号を付している。これらの処理ステップについては既述したので、ここでの詳しい説明を省略する。 14, the same reference numerals are assigned to the same processing steps as those according to the first embodiment shown in FIG. 6 or according to the second embodiment shown in FIG. Since these processing steps have already been described, detailed description thereof is omitted here.
図14のフローチャートは、S12からS14及びS19の処理ステップが追加され、代わりにS8の処理ステップが削除されている点において、図12のフローチャートと相違している。 The flowchart of FIG. 14 is different from the flowchart of FIG. 12 in that the processing steps from S12 to S14 and S19 are added and the processing step of S8 is deleted instead.
図14において、S18の平坦領域再抽出回数リセット処理に続くS12の処理として、WBゲイン算出最適領域抽出処理が行われる。この処理は、WBゲイン算出最適領域抽出部26を機能させる処理である。 In FIG. 14, a WB gain calculation optimum region extraction process is performed as a process of S12 following the flat region re-extraction count reset process of S18. This process is a process for causing the WB gain calculation optimum region extraction unit 26 to function.
WBゲイン算出最適領域抽出部26は、まず、図12のS8と同様にして、平坦領域抽出部24が平坦領域として抽出した各小領域から、前述した第一及び第二の条件の少なくともどちらか一方に合致する小領域の抽出を試みる。そして、この小領域の抽出ができたか否かを判定する。ここで、小領域の抽出ができたと判定したとき(判定結果がYesのとき)には、抽出された小領域を特定する座標データを、WBゲイン算出最適領域の抽出結果として出力させ、処理をS19に進める。このWBゲイン算出最適領域の抽出結果は、WBゲイン算出最適領域抽出部26に入力される。一方、小領域の抽出ができなかったと判定したとき(判定結果がNoのとき)には、WBゲイン算出最適領域抽出部26にWBゲイン算出最適領域再抽出信号を出力させ、処理をS9に進める。このWBゲイン算出最適領域再抽出信号は、WBゲイン算出最適領域再抽出部29に入力される。 The WB gain calculation optimum region extraction unit 26 firstly performs at least one of the first and second conditions described above from each small region extracted as a flat region by the flat region extraction unit 24 in the same manner as S8 in FIG. Attempt to extract a small region that matches one. Then, it is determined whether or not this small area has been extracted. Here, when it is determined that the small area has been extracted (when the determination result is Yes), the coordinate data specifying the extracted small area is output as the extraction result of the WB gain calculation optimum area, and the process is performed. Proceed to S19. The extraction result of the WB gain calculation optimum region is input to the WB gain calculation optimum region extraction unit 26. On the other hand, when it is determined that the small area cannot be extracted (when the determination result is No), the WB gain calculation optimum area extraction unit 26 outputs the WB gain calculation optimum area re-extraction signal, and the process proceeds to S9. . The WB gain calculation optimum region re-extraction signal is input to the WB gain calculation optimum region re-extraction unit 29.
S19では、WBゲイン算出最適領域再抽出回数リセット処理が行われる。この処理は、WBゲイン算出最適領域である小領域の抽出ができたので、メモリ3に記憶されている、WBゲイン算出最適領域再抽出回数をリセットして初期値「0」とする処理である。 In S19, a WB gain calculation optimum region re-extraction number reset process is performed. This process is a process for resetting the WB gain calculation optimum region re-extraction count stored in the memory 3 to the initial value “0” because the small region that is the WB gain calculation optimum region has been extracted. .
このS19の処理に続いて行われるS5のWBゲイン算出処理では、メモリ3より読み出した撮像画像に対し、このWBゲイン算出最適領域抽出部26から出力された座標データに基づいて、WBゲインを算出する対象とする小領域を特定する。そして、その特定した小領域の画素の画像信号を用いてWBゲインを算出し、算出したWBゲインをメモリ3に一旦格納する。そして、続くS6のWB調整処理において、CPU4が、WBゲイン算出部25により格納されたWBゲインをメモリ3から読み出してWB調整部5に設定し、WB調整をWB調整部5に行わせる。 In the WB gain calculation process of S5 performed following the process of S19, the WB gain is calculated for the captured image read from the memory 3 based on the coordinate data output from the WB gain calculation optimum region extraction unit 26. Specify the target small area. Then, the WB gain is calculated using the image signal of the pixel in the specified small area, and the calculated WB gain is temporarily stored in the memory 3. Then, in the subsequent WB adjustment process of S6, the CPU 4 reads the WB gain stored by the WB gain calculation unit 25 from the memory 3 and sets it in the WB adjustment unit 5, and causes the WB adjustment unit 5 to perform WB adjustment.
一方、S13では、WBゲイン算出最適領域再抽出回数カウント処理が行われる。前述したように、この処理は、WBゲイン算出最適領域抽出部26による小領域の抽出ができず、WBゲイン算出最適領域の抽出に失敗したとS7の処理で判定された場合に行う処理である。この処理では、WBゲイン算出最適領域再抽出部29を機能させて、まず、メモリ3に記憶してあるWBゲイン算出最適領域再抽出回数を読み出して、「1」だけカウントアップさせる。そして、カウントアップ後のWBゲイン算出最適領域再抽出回数をメモリ3に記憶させてその値を更新させる。 On the other hand, in S13, the WB gain calculation optimum area re-extraction count processing is performed. As described above, this processing is performed when the WB gain calculation optimum region extraction unit 26 cannot extract a small region and it is determined in step S7 that the extraction of the WB gain calculation optimum region has failed. . In this process, the WB gain calculation optimum region re-extraction unit 29 is caused to function, and first, the number of WB gain calculation optimum region re-extraction stored in the memory 3 is read and incremented by “1”. Then, the WB gain calculation optimum region re-extraction count after the count-up is stored in the memory 3 and the value is updated.
次に、S14では、WBゲイン算出最適領域再抽出回数判定処理が行われる。この処理は、WBゲイン算出最適領域再抽出部29を機能させて、まず、予めメモリ3に記憶させていたWBゲイン算出最適領域再抽出設定回数を読み出させる。そして、この設定回数とS13の処理によるカウントアップ後のWBゲイン算出最適領域再抽出回数との大小比較を行わせる。ここで、カウントアップ後のWBゲイン算出最適領域再抽出回数が、WBゲイン算出最適領域再抽出設定回数未満であると判定したとき(判定結果がNoのとき)には、S1へ処理を戻す。そして、WBゲイン算出最適領域抽出のためのS1からS3、S7、S18、及びS12の処理を再度開始させる。一方、カウントアップ後のWBゲイン算出最適領域再抽出回数が、WBゲイン算出最適領域再抽出設定回数以上であると判定したとき(判定結果がYesのとき)には、S11に処理を進める。 Next, in S14, a WB gain calculation optimum region re-extraction number determination process is performed. In this processing, the WB gain calculation optimum region re-extraction unit 29 is caused to function, and first, the number of WB gain calculation optimum region re-extraction settings stored in advance in the memory 3 is read. Then, the set number of times is compared with the number of times of WB gain calculation optimum region re-extraction after the count-up by the process of S13. Here, when it is determined that the WB gain calculation optimum region re-extraction number after the count-up is less than the WB gain calculation optimum region re-extraction setting number (when the determination result is No), the process returns to S1. Then, the processing from S1 to S3, S7, S18, and S12 for extracting the WB gain calculation optimum region is started again. On the other hand, when it is determined that the WB gain calculation optimum region re-extraction count after the count-up is equal to or greater than the WB gain calculation optimum region re-extraction setting count (when the determination result is Yes), the process proceeds to S11.
S11のオートホワイトバランス失敗警告処理は、図12に示したものと同様であり、警告部28を機能させてオートホワイトバランス失敗を表す警告を表示部8に表示させて、その警告をユーザへ報知する処理である。その後、このS11の処理を終えたときには、S1へ処理を戻し、WBゲイン算出最適領域抽出のためのS1からS3、S7、S18、及びS12の処理を再度開始させる。 The auto white balance failure warning process in S11 is the same as that shown in FIG. 12, and the warning unit 28 is caused to function to display a warning indicating the auto white balance failure on the display unit 8 to notify the user of the warning. It is processing to do. Thereafter, when the process of S11 is completed, the process is returned to S1, and the processes of S1 to S3, S7, S18, and S12 for extracting the WB gain calculation optimum region are started again.
以上までの処理が図14のオートホワイトバランス処理である。この処理を図13の制御部2に行わせることで、図13の撮像装置でのオートホワイトバランス機能の提供が可能になる。 The above processing is the auto white balance processing of FIG. By causing the control unit 2 in FIG. 13 to perform this process, it is possible to provide an auto white balance function in the imaging apparatus in FIG.
以上のように、本実施形態では、WBゲイン算出最適領域の抽出ができなかった場合に、WBゲイン算出最適領域の再抽出を試みることで、無彩色領域以外の部分を精度良く抽出できるようになり、WBゲイン算出最適領域の抽出が更に高精度に行えるようになる。また、本実施形態では、平坦領域として抽出した小領域に無彩色領域(すなわちWBゲイン算出最適領域)がない場合に、オートホワイトバランス処理に失敗したことをユーザに警告するので、WB調整が正しく行われていないことをユーザが正確に認識できる。この結果、WB調整のミスによる撮像の失敗を更に軽減させることができる。 As described above, in the present embodiment, when the WB gain calculation optimum region cannot be extracted, by trying to re-extract the WB gain calculation optimum region, a portion other than the achromatic region can be accurately extracted. Thus, the extraction of the WB gain calculation optimum region can be performed with higher accuracy. Further, in this embodiment, when there is no achromatic region (that is, the WB gain calculation optimum region) in the small region extracted as the flat region, the user is warned that the auto white balance process has failed, so the WB adjustment is correctly performed. The user can accurately recognize that this is not done. As a result, it is possible to further reduce imaging failure due to a mistake in WB adjustment.
[第四の実施形態] [Fourth embodiment]
今までに説明した各実施形態では、領域分割部21が画像の領域を分割するときの小領域の大きさを固定値としていた。しかし、撮像する被写体の形状や背景部分の大きさは様々である。そこで、本実施形態では、領域分割部21が画像の領域を分割するときの小領域の大きさを可変とし、その大きさをユーザが設定できるようにする。 In the embodiments described so far, the size of the small area when the area dividing unit 21 divides the area of the image is set as a fixed value. However, the shape of the subject to be imaged and the size of the background portion are various. Therefore, in the present embodiment, the size of the small area when the area dividing unit 21 divides the image area is variable, and the size can be set by the user.
本実施形態に係る撮像装置の構成は、図13に示した第三の実施形態に係るものと同一である。従って、本実施形態に係る撮像装置における各構成要素については既述したので、ここでの詳しい説明を省略する。 The configuration of the imaging apparatus according to the present embodiment is the same as that according to the third embodiment shown in FIG. Therefore, since each component in the imaging apparatus according to the present embodiment has been described, detailed description thereof is omitted here.
図13の撮像装置で行われる本実施形態に係る制御処理について説明する。図15は、図13の制御部2により行われる、本実施形態に係るオートホワイトバランス処理の処理内容を表したフローチャートである。 A control process according to this embodiment performed by the imaging apparatus of FIG. 13 will be described. FIG. 15 is a flowchart showing the processing content of the auto white balance processing according to the present embodiment performed by the control unit 2 of FIG.
図15において、図6、図12、若しくは図14に示したフローチャートに含まれているものと同一の処理ステップには同一の参照符号を付している。これらの処理ステップについては既述したので、ここでの詳しい説明を省略する。 In FIG. 15, the same processing steps as those included in the flowchart shown in FIG. 6, FIG. 12, or FIG. Since these processing steps have already been described, detailed description thereof is omitted here.
図15のフローチャートは、処理の最初にS15及びS16の処理ステップが追加されている点において、図14のフローチャートと相違している。 The flowchart of FIG. 15 is different from the flowchart of FIG. 14 in that processing steps S15 and S16 are added at the beginning of the process.
図15の処理が開始される前に、メモリ3には、領域分割部21が画像の領域を分割するときの小領域の大きさの初期値を予め記憶させておく。 Before the processing of FIG. 15 is started, an initial value of the size of the small area when the area dividing unit 21 divides the image area is stored in the memory 3 in advance.
図15の処理が開始されると、まず、S15において、分割領域の大きさを設定する処理が行われる。 When the process of FIG. 15 is started, first, in S15, a process of setting the size of the divided area is performed.
この処理では、まず、ユーザが操作部7を操作して行った、小領域の水平方向及び垂直方向の大きさの指示の入力をCPU4が取得する。すると、CPU4は、この指示に係る大きさのデータをメモリ3に転送して記憶させ、そこに記憶されていた小領域の大きさに係るデータを更新する。 In this process, first, the CPU 4 acquires an input of an instruction for the size in the horizontal direction and the vertical direction of the small area, which is performed by the user operating the operation unit 7. Then, the CPU 4 transfers the data of the size according to this instruction to the memory 3 and stores it, and updates the data related to the size of the small area stored therein.
このS15の処理の後に最初に実行されるS1の領域分割処理では、領域分割部21を機能させて、この更新後のデータをメモリ3から読み出させ、このデータに基づき、撮像画像を小領域に分割したときの各小領域の座標データを算出する処理が行われる。この撮像画像の小領域への分割を、図16を参照しながら説明する。 In the area dividing process of S1 that is first executed after the process of S15, the area dividing unit 21 is caused to function so that the updated data is read from the memory 3, and based on this data, the captured image is converted into a small area. A process of calculating the coordinate data of each small area when divided into two is performed. The division of the captured image into small regions will be described with reference to FIG.
図16は、図3に例示した撮像画像を小領域へ分割した様子の第二の例である。この図16では、小領域の水平方向の大きさX及び垂直方向の大きさYを、ユーザが、それぞれX=w1及びY=h1に設定した場合を表しており、撮像画像が水平方向及び垂直方向に、それぞれX=w1、Y=h1の小領域に分割されていること示している。 FIG. 16 is a second example in which the captured image illustrated in FIG. 3 is divided into small regions. FIG. 16 shows the case where the user sets the horizontal size X and the vertical size Y of the small area to X = w1 and Y = h1, respectively, and the captured image is in the horizontal direction and the vertical direction. The direction is divided into small regions of X = w1 and Y = h1, respectively.
S15の処理に続き、S16では、S2の標準偏差算出処理及びS3の平均値算出処理による算出の対象とする小領域を得る撮像画像上の範囲を選択する処理が行われる。 Subsequent to the process of S15, in S16, a process of selecting a range on the captured image for obtaining a small area to be calculated by the standard deviation calculation process of S2 and the average value calculation process of S3 is performed.
この処理では、まず、ユーザが操作部7を操作して行った、撮像画像上の範囲の指示をCPU4が取得する。すると、CPU4は、この指示に係る範囲のデータをメモリ3に転送して記憶させる。 In this process, first, the CPU 4 acquires an instruction for a range on the captured image, which is performed by the user operating the operation unit 7. Then, the CPU 4 transfers the data in the range according to this instruction to the memory 3 for storage.
このS16の処理の後に最初に実行されるS1の領域分割処理では、領域分割部21を機能させて、まず、このデータをメモリ3から読み出させる。そして、このデータに基づき、撮像画像からこの指示に係る範囲の画像を選択し、選択された範囲内の画像を小領域に分割したときの各小領域の座標データを算出する処理が行われる。この標準偏差及び平均値の算出対象範囲の選択について、図17を参照しながら説明する。 In the area dividing process of S1 that is executed first after the process of S16, the area dividing unit 21 is caused to function, and first, this data is read from the memory 3. Then, based on this data, an image in the range according to this instruction is selected from the captured image, and a process of calculating coordinate data of each small region when the image in the selected range is divided into small regions is performed. The selection of the standard deviation and average value calculation target range will be described with reference to FIG.
図17は、図3に例示した撮像画像から標準偏差及び平均値の算出対象範囲が選択された様子を示している。この図17では、標準偏差及び平均値の算出対象範囲である小領域範囲301をユーザが指示した場合を表している。この場合、領域分割部21は、この小領域範囲301内に存在する各小領域の座標データを出力する。 FIG. 17 illustrates a state where the calculation range of the standard deviation and the average value is selected from the captured image illustrated in FIG. FIG. 17 shows a case where the user designates a small area range 301 which is a calculation target range of standard deviation and average value. In this case, the area dividing unit 21 outputs the coordinate data of each small area existing in the small area range 301.
以上のS15及びS16の処理の完了後は、前述した図14の処理と同様の処理が行われる。この図15のオートホワイトバランス処理を図14の制御部2に行わせることで、図14の撮像装置でのオートホワイトバランス機能の提供が可能になる。 After completion of the processes of S15 and S16, the same process as the process of FIG. 14 described above is performed. By causing the control unit 2 in FIG. 14 to perform the auto white balance process in FIG. 15, it is possible to provide an auto white balance function in the imaging apparatus in FIG.
以上のように、本実施形態では、例えば、被写体の占める割合が多く無彩色領域である背景部分が少ない撮像画像の場合に、小領域の大きさを変更することで、少ない背景部分を効率的に抽出することができる。 As described above, in the present embodiment, for example, in the case of a captured image in which the proportion of the subject is large and the background portion that is an achromatic region is small, it is possible to efficiently reduce the small background portion by changing the size of the small region. Can be extracted.
また、小領域の大きさが小さいために小領域の数が増大した場合には、各小領域の標準偏差や平均値の算出、平坦領域抽出やWBゲイン算出最適領域抽出に長い時間を要することとなる。このような場合に、本実施形態によれば、標準偏差及び平均値の算出の対象とする小領域を予め選択しておくことで、これらの処理時間を短縮できる。 Also, when the number of small areas increases because the size of the small areas is small, it takes a long time to calculate the standard deviation and average value of each small area, to extract the flat area and to calculate the optimal area of the WB gain. It becomes. In such a case, according to the present embodiment, these processing times can be shortened by selecting in advance a small region that is a target for calculating the standard deviation and the average value.
なお、本実施形態においては、分割する小領域の形状を、図17のように矩形としているが、この形状は、円や楕円など、どのような形状でもよい。また、撮像画像の分割方法も、格子状とする代わりに所望の領域となるように分割してもよい。また、領域分割された画像を、表示部8で表示し、ユーザが、この表示部8での表示を参照しながら操作部7を操作して、例えば無彩色領域に合わせた領域に小領域の大きさを指定すると、その指定された大きさで画像を分割するようにしてもよい。また、ユーザが表示部8に表示された、領域分割された画像を見ながら、操作部7を操作して、標準偏差及び平均値算出の対象となる領域の選択を行えるようにしてもよい。 In the present embodiment, the shape of the small area to be divided is a rectangle as shown in FIG. 17, but this shape may be any shape such as a circle or an ellipse. Also, the captured image may be divided so that a desired region is obtained instead of the lattice shape. Further, the divided image is displayed on the display unit 8, and the user operates the operation unit 7 while referring to the display on the display unit 8. When the size is designated, the image may be divided by the designated size. Alternatively, the user may select a region for calculating the standard deviation and the average value by operating the operation unit 7 while viewing the region-divided image displayed on the display unit 8.
[第五の実施形態] [Fifth embodiment]
顕微鏡を用いて観察した観察標本の顕微鏡画像を撮像する場合を想定する。図18は、図3に例示した画像に表されている標本を、高倍率の対物レンズを用いて撮像して得た画像の例である。 Assume that a microscopic image of an observation specimen observed using a microscope is captured. FIG. 18 is an example of an image obtained by imaging the specimen shown in the image illustrated in FIG. 3 using a high-magnification objective lens.
この図18の撮像画像を図3の画像と対比しても分かるように、被写体を、高倍率の対物レンズを用いて撮像すると、その撮像画像における被写体の占める割合は、対物レンズの倍率に応じて変化する。 As can be seen by comparing the captured image of FIG. 18 with the image of FIG. 3, when a subject is imaged using a high-magnification objective lens, the proportion of the subject in the captured image depends on the magnification of the objective lens. Change.
そこで、本実施形態では、被写体の観察に使用する対物レンズの倍率に応じて、分割する小領域の水平方向と垂直方向の大きさを変化させるようにする。 Therefore, in the present embodiment, the horizontal and vertical sizes of the small areas to be divided are changed according to the magnification of the objective lens used for observing the subject.
図19は、本実施形態に係る撮像装置を含む顕微鏡システムの構成図である。なお、図19において、図1、図7、若しくは図13に示した撮像装置におけるものと同一の機能を有する構成要素には同一の参照符号を付している。これらの構成要素については既述したので、ここでの詳しい説明を省略する。 FIG. 19 is a configuration diagram of a microscope system including the imaging apparatus according to the present embodiment. In FIG. 19, components having the same functions as those in the imaging apparatus shown in FIG. 1, FIG. 7, or FIG. Since these components have already been described, a detailed description thereof will be omitted here.
図19の構成は、対物レンズ32が装備されている顕微鏡33に撮像部1が設置されている点と、観察条件取得部34が追加されている点とにおいて、図13の構成と相違している。なお、顕微鏡33には観察標本31が載置されており、観察標本31の顕微鏡画像を得る。また、撮像部1の構成要素である撮像素子11、撮像素子駆動部12、前置処理部13、増幅部14、及びA/D変換部15は、図19においては記載を省略している。 The configuration of FIG. 19 is different from the configuration of FIG. 13 in that the imaging unit 1 is installed in a microscope 33 equipped with the objective lens 32 and an observation condition acquisition unit 34 is added. Yes. An observation specimen 31 is placed on the microscope 33, and a microscope image of the observation specimen 31 is obtained. Further, the imaging element 11, the imaging element driving unit 12, the pre-processing unit 13, the amplification unit 14, and the A / D conversion unit 15 which are components of the imaging unit 1 are not illustrated in FIG.
図19において、観察標本31の観察像は、対物レンズ32を通して撮像部1により撮像される。対物レンズ32は、観察標本31を観察する際にユーザにより切り替えて使用される。 In FIG. 19, an observation image of the observation specimen 31 is picked up by the image pickup unit 1 through the objective lens 32. The objective lens 32 is used by being switched by the user when observing the observation specimen 31.
観察条件取得部34は、観察標本31の観察時における顕微鏡33の設定を、顕微鏡33と観察条件取得部34とを接続する信号線を介して観察条件として取得する。観察条件取得部34は、制御部2内のCPU4の指示に従い、取得した観察条件をデータバス9へ送出する。送出された観察条件は制御部2に転送される。 The observation condition acquisition unit 34 acquires the setting of the microscope 33 during observation of the observation specimen 31 as an observation condition via a signal line connecting the microscope 33 and the observation condition acquisition unit 34. The observation condition acquisition unit 34 sends the acquired observation conditions to the data bus 9 in accordance with an instruction from the CPU 4 in the control unit 2. The sent observation conditions are transferred to the control unit 2.
なお、本実施形態では、観察条件取得部34は、観察標本31の観察に使用している対物レンズ32を特定する情報と、その倍率(すなわち観察倍率)の情報とを含む対物レンズ倍率情報を、観察条件として取得するものとする。この対物レンズ倍率情報は、領域分割部21が撮像画像を小領域に分割する際の小領域の大きさの設定に使用される。 In the present embodiment, the observation condition acquisition unit 34 obtains objective lens magnification information including information for specifying the objective lens 32 used for observation of the observation specimen 31 and information on the magnification (that is, observation magnification). It shall be acquired as an observation condition. This objective lens magnification information is used for setting the size of the small area when the area dividing unit 21 divides the captured image into small areas.
次に、図19の撮像装置で行われる本実施形態に係る制御処理について説明する。図20は、図19の制御部2により行われる、本実施形態に係るオートホワイトバランス処理の処理内容を表したフローチャートである。 Next, control processing according to the present embodiment performed by the imaging apparatus in FIG. 19 will be described. FIG. 20 is a flowchart showing the processing content of the auto white balance processing according to this embodiment performed by the control unit 2 of FIG.
図20において、図6、図12、図14、若しくは図15に示したフローチャートに含まれているものと同一の処理ステップには同一の参照符号を付している。これらの処理ステップについては既述したので、ここでの詳しい説明を省略する。 20, the same processing steps as those included in the flowchart shown in FIG. 6, FIG. 12, FIG. 14 or FIG. Since these processing steps have already been described, detailed description thereof is omitted here.
図20のフローチャートは、処理の最初にS17の処理ステップが追加されている点において、図15のフローチャートと相違している。 The flowchart of FIG. 20 is different from the flowchart of FIG. 15 in that the processing step of S17 is added at the beginning of the process.
図17の処理が開始されると、まず、S17において、顕微鏡情報取得処理が行われる。この処理では、まず、観察条件取得部34を機能させて、前述した対物レンズ倍率情報を観察条件として取得し、制御部2に転送させる処理が行われる。制御部2では、この対物レンズ倍率情報を取得し、撮像画像を分割する際の小領域の水平方向及び垂直方向の大きさを、この対物レンズ倍率情報に基づき算出してメモリ3に記憶する処理がCPU4により行われる。この小領域の水平方向及び垂直方向の大きさの算出は、例えば以下のようにしてCPU4により行われる。 When the processing of FIG. 17 is started, first, microscope information acquisition processing is performed in S17. In this process, first, the observation condition acquisition unit 34 is caused to function so that the above-described objective lens magnification information is acquired as an observation condition and transferred to the control unit 2. The control unit 2 acquires the objective lens magnification information, calculates the horizontal and vertical sizes of the small area when dividing the captured image based on the objective lens magnification information, and stores them in the memory 3. Is performed by the CPU 4. The calculation of the size of the small area in the horizontal direction and the vertical direction is performed by the CPU 4 as follows, for example.
まず、顕微鏡33に装備される対物レンズ32のうち最低倍率のものを使用したときに最適な小領域の水平方向及び垂直方向の大きさを、予めメモリ3に記憶させておく。ここで、対物レンズ倍率情報がこの最低倍率のもの以外の対物レンズ32を使用していることを示していた場合には、この倍率についての最低倍率に対する比を求める。そして、メモリ3に記憶させておいた小領域の水平方向及び垂直方向の大きさを、この比に従って変更する。 First, the size in the horizontal direction and the vertical direction of the optimal small region when using the objective lens 32 equipped in the microscope 33 with the lowest magnification is stored in the memory 3 in advance. If the objective lens magnification information indicates that an objective lens 32 other than the minimum magnification is used, the ratio of the magnification to the minimum magnification is obtained. Then, the horizontal and vertical sizes of the small areas stored in the memory 3 are changed according to this ratio.
例えば、予めメモリ3に記憶させておいた、最低倍率であるM倍の対物レンズ32を使用したときに最適な小領域の水平方向及び垂直方向の大きさを、それぞれx及びyとする。このときに、観察条件取得部34が取得した対物レンズ倍率情報が、N倍の倍率である対物レンズ32の使用を示していた場合には、小領域の水平方向及び垂直方向の大きさを、それぞれ、k×(M/N)×x及びk×(M/N)×yに変更する。ここで、kは所定の定数とする。 For example, when the objective lens 32 having the minimum magnification of M, which is stored in the memory 3 in advance, is used, the optimum size of the small region in the horizontal direction and the vertical direction is x and y, respectively. At this time, when the objective lens magnification information acquired by the observation condition acquisition unit 34 indicates the use of the objective lens 32 having a magnification of N times, the sizes of the small area in the horizontal direction and the vertical direction are expressed as follows: Change to k × (M / N) × x and k × (M / N) × y, respectively. Here, k is a predetermined constant.
以上のS17の処理の完了後は、前述した図15の処理と同様の処理が行われる。この図20のオートバランス処理を図19の制御部2に行わせることで、図19の撮像装置でのオートバランス機能の提供が可能になる。 After completion of the process of S17, the same process as the process of FIG. 15 described above is performed. By causing the control unit 2 in FIG. 19 to perform the autobalance process in FIG. 20, it is possible to provide an autobalance function in the imaging apparatus in FIG.
図21は、本実施形態に係る顕微鏡システムにより、図18の撮像画像が小領域に分割された様子を表している。図21の画像を図4の画像と対比すると、図21の画像は、図4の画像を撮像したときに使用したものよりも高倍率の対物レンズ32を使用したことにより、小領域の水平方向及び垂直方向の大きさが図4の画像よりも小さくなっていることが分かる。 FIG. 21 shows a state in which the captured image of FIG. 18 is divided into small regions by the microscope system according to the present embodiment. When the image of FIG. 21 is compared with the image of FIG. 4, the image of FIG. 21 uses the objective lens 32 having a higher magnification than that used when the image of FIG. It can also be seen that the size in the vertical direction is smaller than the image in FIG.
対物レンズ32の倍率を高めたときの撮像画像は、その画像の大部分を観察標本31が占め、無彩色領域である背景部分が少なくなるため、WBゲイン算出最適領域の抽出に失敗しやすくなってしまう。そこで、本実施形態では、このような場合に、小領域の水平方向及び垂直方向の大きさを小さくすることで、WBゲイン算出最適領域が抽出できる可能性を高めているのである。図21の画像例では、小領域401〜407が、WBゲイン算出最適領域として抽出できることが分かる。 In the captured image when the magnification of the objective lens 32 is increased, the observation sample 31 occupies most of the image, and the background portion that is an achromatic region is reduced. Therefore, extraction of the WB gain calculation optimum region is likely to fail. End up. Therefore, in the present embodiment, in such a case, the possibility of extracting the optimum WB gain calculation region is increased by reducing the size of the small region in the horizontal direction and the vertical direction. In the image example of FIG. 21, it can be seen that the small regions 401 to 407 can be extracted as the WB gain calculation optimum region.
以上のように、本実施形態では、使用する対物レンズ32を変更した際に、小領域の水平方向及び垂直方向の大きさを対物レンズ32の倍率に応じて変更する。本実施形態によれば、このようにすることで、撮像画像に占める割合が少なくなってしまう無彩色領域である背景部分を効率よく抽出することができる。 As described above, in the present embodiment, when the objective lens 32 to be used is changed, the size of the small region in the horizontal direction and the vertical direction is changed according to the magnification of the objective lens 32. According to this embodiment, by doing in this way, the background part which is an achromatic area | region where the ratio occupied to a captured image decreases can be extracted efficiently.
なお、本実施形態においては、分割する小領域の形状を、図21のように矩形としているが、この形状は、円や楕円など、どのような形状でもよい。 In the present embodiment, the shape of the small area to be divided is a rectangle as shown in FIG. 21, but this shape may be any shape such as a circle or an ellipse.
また、本実施形態においては、画像の撮像に使用する対物レンズ32の倍率の比に基づき小領域の大きさを算出している。この代わりに、その倍率に応じた最適な小領域の大きさが予め設定されているテーブルを用意し、取得した観察条件に基づく小領域の大きさの決定を、このテーブルを参照して行うようにしてもよい。 In the present embodiment, the size of the small area is calculated based on the ratio of magnifications of the objective lens 32 used for capturing an image. Instead of this, a table in which the optimum size of the small area corresponding to the magnification is set in advance is prepared, and the size of the small area is determined based on the obtained observation conditions with reference to this table. It may be.
なお、標準偏差及び平均値の算出対象範囲である小領域の範囲を、図17に示したようにユーザの指示に基づき選択する代わりに、この小領域の範囲を、観察条件(対物レンズ倍率情報)に基づき、撮像装置が自動的に選択するように構成することも可能である。 In addition, instead of selecting the range of the small area, which is the calculation target range of the standard deviation and the average value, based on the user's instruction as shown in FIG. It is also possible to configure the imaging device to automatically select based on (1).
1 撮像部
2 制御部
3 メモリ
4 CPU
5 WB調整部
6 画像処理部
7 操作部
8 表示部
9 データバス
11 撮像素子
12 撮像素子駆動部
13 前置処理部
14 増幅部
15 A/D変換部
21 領域分割部
22 標準偏差算出部
23 平均値算出部
24 平坦領域抽出部
25 WBゲイン算出部
26 WBゲイン算出最適領域抽出部
27 平坦領域再抽出部
28 警告部
29 WBゲイン算出最適領域再抽出部
31 観察標本
32 対物レンズ
33 顕微鏡
34 観察条件取得部
DESCRIPTION OF SYMBOLS 1 Imaging part 2 Control part 3 Memory 4 CPU
5 WB adjustment unit 6 Image processing unit 7 Operation unit 8 Display unit 9 Data bus 11 Image sensor 12 Image sensor drive unit 13 Pre-processing unit 14 Amplification unit 15 A / D conversion unit 21 Area division unit 22 Standard deviation calculation unit 23 Average Value calculation unit 24 Flat region extraction unit 25 WB gain calculation unit 26 WB gain calculation optimum region extraction unit 27 Flat region re-extraction unit 28 Warning unit 29 WB gain calculation optimum region re-extraction unit 31 Observation specimen 32 Objective lens 33 Microscope 34 Observation condition Acquisition department
Claims (7)
該撮像画像を複数の小領域に分割する領域分割手段と、
該撮像画像における該複数の小領域の各々に含まれる画素についての、色成分毎の画素の画像信号の標準偏差を該小領域毎に算出する標準偏差算出手段と、
該撮像画像における該複数の小領域の各々に含まれる画素についての、色成分毎の画素の画像信号の平均値を該小領域毎に算出する平均値算出手段と、
予め記憶部に記憶されており、該画像信号の大きさと該画像信号に対し重畳される該撮像素子が発生させるノイズの量との対応関係を示すノイズモデルに基づき、該撮像画像における該複数の小領域のうち、該平均値に対する該標準偏差が、該ノイズモデルにおいて該平均値を該画像信号の大きさとみたときのノイズ量を基準として所定の範囲内である小領域を、平坦領域として抽出する平坦領域抽出手段と、
該撮像画像における該平坦領域のホワイトバランスゲインを算出するホワイトバランスゲイン算出手段と、
該ホワイトバランスゲイン算出手段が算出した該平坦領域のホワイトバランスゲインに基づき、該撮像手段により生成される撮像画像のホワイトバランスを調整するホワイトバランス調整手段と、
該平坦領域抽出手段が平坦領域として抽出した各小領域のうち、色成分毎の画像信号の平均値の全てが最大値となる小領域、若しくは、当該平均値が、当該色成分毎の平均値の最大値を基準にして設定した閾値以上である小領域を、ホワイトバランスゲイン算出最適領域として抽出するホワイトバランスゲイン算出最適領域抽出手段と、
を有し、
該ホワイトバランスゲイン算出手段は、該撮像画像における該ホワイトバランスゲイン算出最適領域のホワイトバランスゲインを算出し、
該ホワイトバランス調整手段は、該ホワイトバランスゲイン算出手段が算出した該ホワイトバランスゲイン算出最適領域のホワイトバランスゲインに基づき、該撮像手段により生成される撮像画像のホワイトバランスを調整する、
ことを特徴とする撮像装置。 An image pickup unit that includes an image pickup device that picks up an image of a subject, and that generates a picked-up image of the subject in which colors are expressed for each pixel by image signals of a plurality of color components;
Area dividing means for dividing the captured image into a plurality of small areas;
A standard deviation calculating means for calculating a standard deviation of an image signal of a pixel for each color component for each pixel included in each of the plurality of small regions in the captured image;
An average value calculating means for calculating an average value of image signals of pixels for each color component for each pixel included in each of the plurality of small regions in the captured image;
Based on a noise model that is stored in advance in a storage unit and indicates a correspondence relationship between the magnitude of the image signal and the amount of noise generated by the imaging element superimposed on the image signal, the plurality of images in the captured image Among the small areas, the small area whose standard deviation with respect to the average value is within a predetermined range based on the amount of noise when the average value is regarded as the size of the image signal in the noise model is extracted as a flat area. Flat area extracting means for
White balance gain calculating means for calculating a white balance gain of the flat area in the captured image;
White balance adjustment means for adjusting white balance of a captured image generated by the imaging means based on the white balance gain of the flat region calculated by the white balance gain calculation means;
Among the small areas extracted as flat areas by the flat area extracting means, all the average values of the image signals for each color component are the maximum values, or the average value is the average value for each color component. White balance gain calculation optimum region extraction means for extracting a small region that is equal to or larger than a threshold set with reference to the maximum value of the white balance gain calculation optimum region;
I have a,
The white balance gain calculation means calculates a white balance gain of the white balance gain calculation optimum region in the captured image,
The white balance adjustment unit adjusts the white balance of the captured image generated by the imaging unit based on the white balance gain of the white balance gain calculation optimum region calculated by the white balance gain calculation unit.
An imaging apparatus characterized by that.
該撮像画像を複数の小領域に分割する領域分割手段と、
該撮像画像における該複数の小領域の各々に含まれる画素についての、色成分毎の画素の画像信号の標準偏差を該小領域毎に算出する標準偏差算出手段と、
該撮像画像における該複数の小領域の各々に含まれる画素についての、色成分毎の画素の画像信号の平均値を該小領域毎に算出する平均値算出手段と、
予め記憶部に記憶されており、該画像信号の大きさと該画像信号に対し重畳される該撮像素子が発生させるノイズの量との対応関係を示すノイズモデルに基づき、該撮像画像における該複数の小領域のうち、該平均値に対する該標準偏差が、該ノイズモデルにおいて該平均値を該画像信号の大きさとみたときのノイズ量を基準として所定の範囲内である小領域を、平坦領域として抽出する平坦領域抽出手段と、
該撮像画像における該平坦領域のホワイトバランスゲインを算出するホワイトバランスゲイン算出手段と、
該ホワイトバランスゲイン算出手段が算出した該平坦領域のホワイトバランスゲインに基づき、該撮像手段により生成される撮像画像のホワイトバランスを調整するホワイトバランス調整手段と、
該平坦領域抽出手段が該平坦領域である小領域の抽出を行えたか否かを判定する平坦領域抽出判定手段と、
該平坦領域である小領域の抽出を該平坦領域抽出手段が行えなかったと該平坦領域抽出判定手段が判定したときに、該平坦領域抽出手段による該平坦領域である小領域の再抽出を、該撮像手段が生成する該被写体についての別の撮像画像に対して行わせる平坦領域再抽出手段と、
を有することを特徴とする撮像装置。 An image pickup unit that includes an image pickup device that picks up an image of a subject, and that generates a picked-up image of the subject in which colors are expressed for each pixel by image signals of a plurality of color components;
Area dividing means for dividing the captured image into a plurality of small areas;
A standard deviation calculating means for calculating a standard deviation of an image signal of a pixel for each color component for each pixel included in each of the plurality of small regions in the captured image;
An average value calculating means for calculating an average value of image signals of pixels for each color component for each pixel included in each of the plurality of small regions in the captured image;
Based on a noise model that is stored in advance in a storage unit and indicates a correspondence relationship between the magnitude of the image signal and the amount of noise generated by the imaging element superimposed on the image signal, the plurality of images in the captured image Among the small areas, the small area whose standard deviation with respect to the average value is within a predetermined range based on the amount of noise when the average value is regarded as the size of the image signal in the noise model is extracted as a flat area. Flat area extracting means for
White balance gain calculating means for calculating a white balance gain of the flat area in the captured image;
White balance adjustment means for adjusting white balance of a captured image generated by the imaging means based on the white balance gain of the flat region calculated by the white balance gain calculation means;
Flat area extraction determining means for determining whether or not the flat area extracting means has extracted a small area that is the flat area;
When the flat region extraction determining unit determines that the flat region extracting unit cannot extract the small region that is the flat region, the flat region extracting unit re-extracts the small region that is the flat region by the flat region extracting unit. Flat area re-extraction means for performing another captured image of the subject generated by the imaging means;
An imaging device comprising:
該平坦領域である小領域の再抽出の回数が所定回数以上になったと該平坦領域再抽出回数判定手段が判定したときに、オートホワイトバランス失敗の警告を出力する警告手段と、
を更に有することを特徴とする請求項2に記載の撮像装置。 A flat region re-extraction number determination unit that determines whether or not the number of times of re-extraction of the small region that is the flat region that the flat region re-extraction unit has performed is the predetermined number or more;
Warning means for outputting a warning of auto white balance failure when the flat area re-extraction number determination means determines that the number of times of re-extraction of the small area that is the flat area is equal to or greater than a predetermined number;
The imaging apparatus according to claim 2 , further comprising:
該ホワイトバランスゲイン算出最適領域である小領域の抽出を該ホワイトバランスゲイン算出最適領域抽出手段が行えなかったと該ホワイトバランスゲイン算出最適領域抽出判定手段が判定したときに、該ホワイトバランスゲイン算出最適領域抽出手段による該ホワイトバランスゲイン算出最適領域である小領域の再抽出を、該撮像手段が生成する該被写体についての別の撮像画像に対して行わせるホワイトバランスゲイン算出最適領域再抽出手段と、
を更に有することを特徴とする請求項1に記載の撮像装置。 A white balance gain calculation optimum region extraction determination unit that determines whether or not the white balance gain calculation optimum region extraction unit has extracted a small region that is the white balance gain calculation optimum region;
When the white balance gain calculation optimum region extraction means determines that the white balance gain calculation optimum region extraction means cannot extract the small region that is the white balance gain calculation optimum region, the white balance gain calculation optimum region A white balance gain calculation optimum region re-extraction unit that causes re-extraction of the small region, which is the white balance gain calculation optimum region by the extraction unit, to another captured image of the subject generated by the imaging unit;
The imaging apparatus according to claim 1 , further comprising:
該ホワイトバランスゲイン算出最適領域である小領域の再抽出の回数が所定回数以上になったと該ホワイトバランスゲイン算出最適領域再抽出回数判定手段が判定したときに、オートホワイトバランス失敗を表す警告を出力する警告手段と、
を更に有することを特徴とする請求項4に記載の撮像装置。 Whether or not the number of times of re-extraction of the small region, which is the white balance gain calculation optimum region, which the white balance gain calculation optimum region re-extraction unit has performed by the white balance gain calculation optimum region re-extraction unit has reached a predetermined number or more. White balance gain calculation optimal region re-extraction number determination means for determining;
When the white balance gain calculation optimum region re-extraction number determination means determines that the number of times of re-extraction of the small region, which is the white balance gain calculation optimum region, exceeds a predetermined number, a warning indicating auto white balance failure is output Warning means to
The imaging apparatus according to claim 4 , further comprising:
該撮像画像を複数の小領域に分割する領域分割手段と、
該撮像画像における該複数の小領域の各々に含まれる画素についての、色成分毎の画素の画像信号の標準偏差を該小領域毎に算出する標準偏差算出手段と、
該撮像画像における該複数の小領域の各々に含まれる画素についての、色成分毎の画素の画像信号の平均値を該小領域毎に算出する平均値算出手段と、
予め記憶部に記憶されており、該画像信号の大きさと該画像信号に対し重畳される該撮像素子が発生させるノイズの量との対応関係を示すノイズモデルに基づき、該撮像画像における該複数の小領域のうち、該平均値に対する該標準偏差が、該ノイズモデルにおいて該平均値を該画像信号の大きさとみたときのノイズ量を基準として所定の範囲内である小領域を、平坦領域として抽出する平坦領域抽出手段と、
該撮像画像における該平坦領域のホワイトバランスゲインを算出するホワイトバランスゲイン算出手段と、
該ホワイトバランスゲイン算出手段が算出した該平坦領域のホワイトバランスゲインに基づき、該撮像手段により生成される撮像画像のホワイトバランスを調整するホワイトバランス調整手段と、
を有し、
該撮像手段は、顕微鏡により得られた観察標本の顕微鏡画像を該撮像素子で撮像して、該観察標本の撮像画像を生成し、
該観察標本の顕微鏡画像を撮像するときの該顕微鏡の観察条件の情報を取得する観察条件取得手段を更に有し、
該観察条件の情報には、該顕微鏡の観察倍率の情報が含まれており、
該領域分割手段は、観察条件取得手段が取得した観察条件に含まれている該観察倍率の情報に応じて変更した小領域の大きさで、該撮像画像を分割する、
ことを特徴とする撮像装置。 An image pickup unit that includes an image pickup device that picks up an image of a subject, and that generates a picked-up image of the subject in which colors are expressed for each pixel by image signals of a plurality of color components;
Area dividing means for dividing the captured image into a plurality of small areas;
A standard deviation calculating means for calculating a standard deviation of an image signal of a pixel for each color component for each pixel included in each of the plurality of small regions in the captured image;
An average value calculating means for calculating an average value of image signals of pixels for each color component for each pixel included in each of the plurality of small regions in the captured image;
Based on a noise model that is stored in advance in a storage unit and indicates a correspondence relationship between the magnitude of the image signal and the amount of noise generated by the imaging element superimposed on the image signal, the plurality of images in the captured image Among the small areas, the small area whose standard deviation with respect to the average value is within a predetermined range based on the amount of noise when the average value is regarded as the size of the image signal in the noise model is extracted as a flat area. Flat area extracting means for
White balance gain calculating means for calculating a white balance gain of the flat area in the captured image;
White balance adjustment means for adjusting white balance of a captured image generated by the imaging means based on the white balance gain of the flat region calculated by the white balance gain calculation means;
I have a,
The imaging means captures a microscope image of an observation specimen obtained by a microscope with the imaging element, and generates a captured image of the observation specimen,
It further has observation condition acquisition means for acquiring information on observation conditions of the microscope when imaging a microscope image of the observation specimen,
The information on the observation condition includes information on the observation magnification of the microscope,
The area dividing means divides the captured image by the size of the small area changed according to the information of the observation magnification included in the observation condition acquired by the observation condition acquiring means.
An imaging apparatus characterized by that.
該顕微鏡により得られる該顕微鏡画像を撮像する撮像素子を備えており、複数の色成分の画像信号により色彩が画素毎に表現されている該観察標本の撮像画像を生成する撮像手段と、
該撮像画像を複数の小領域に分割する領域分割手段と、
該撮像画像における該複数の小領域の各々に含まれる画素についての、色成分毎の画素の画像信号の標準偏差を該小領域毎に算出する標準偏差算出手段と、
該撮像画像における該複数の小領域の各々に含まれる画素についての、色成分毎の画素の画像信号の平均値を該小領域毎に算出する平均値算出手段と、
予め記憶部に記憶されており、該画像信号の大きさと該画像信号に対し重畳される該撮像素子が発生させるノイズの量との対応関係を示すノイズモデルに基づき、該撮像画像における該複数の小領域のうち、該平均値に対する該標準偏差が、該ノイズモデルにおいて該平均値を該画像信号の大きさとみたときのノイズ量を基準として所定の範囲内である小領域を、平坦領域として抽出する平坦領域抽出手段と、
該撮像画像における該平坦領域のホワイトバランスゲインを算出するホワイトバランスゲイン算出手段と、
該ホワイトバランスゲイン算出手段が算出した該平坦領域のホワイトバランスゲインに基づき、該撮像手段により生成される撮像画像のホワイトバランスを調整するホワイトバランス調整手段と、
該観察標本の顕微鏡画像を撮像するときの該顕微鏡の観察条件の情報を取得する観察条件取得手段と、
を有し、
該観察条件の情報には、該顕微鏡の観察倍率の情報が含まれており、
該領域分割手段は、観察条件取得手段が取得した観察条件に含まれている該観察倍率の情報に応じて変更した小領域の大きさで、該撮像画像を分割する、
ことを特徴とする顕微鏡システム。 A microscope for obtaining a microscopic image of the observation specimen;
An image pickup unit that includes an image pickup device that picks up the microscope image obtained by the microscope, and that generates a picked-up image of the observation specimen in which colors are expressed for each pixel by image signals of a plurality of color components;
Area dividing means for dividing the captured image into a plurality of small areas;
A standard deviation calculating means for calculating a standard deviation of an image signal of a pixel for each color component for each pixel included in each of the plurality of small regions in the captured image;
An average value calculating means for calculating an average value of image signals of pixels for each color component for each pixel included in each of the plurality of small regions in the captured image;
Based on a noise model that is stored in advance in a storage unit and indicates a correspondence relationship between the magnitude of the image signal and the amount of noise generated by the imaging element superimposed on the image signal, the plurality of images in the captured image Among the small areas, the small area whose standard deviation with respect to the average value is within a predetermined range based on the amount of noise when the average value is regarded as the size of the image signal in the noise model is extracted as a flat area. Flat area extracting means for
White balance gain calculating means for calculating a white balance gain of the flat area in the captured image;
White balance adjustment means for adjusting white balance of a captured image generated by the imaging means based on the white balance gain of the flat region calculated by the white balance gain calculation means;
Observation condition acquisition means for acquiring information on observation conditions of the microscope when imaging a microscope image of the observation specimen;
Have
The information on the observation condition includes information on the observation magnification of the microscope,
The area dividing means divides the captured image by the size of the small area changed according to the information of the observation magnification included in the observation condition acquired by the observation condition acquiring means.
A microscope system characterized by that.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010009461A JP5547975B2 (en) | 2009-04-23 | 2010-01-19 | Imaging apparatus, microscope system, and white balance adjustment method |
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009105252 | 2009-04-23 | ||
JP2009105252 | 2009-04-23 | ||
JP2010009461A JP5547975B2 (en) | 2009-04-23 | 2010-01-19 | Imaging apparatus, microscope system, and white balance adjustment method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2010273319A JP2010273319A (en) | 2010-12-02 |
JP5547975B2 true JP5547975B2 (en) | 2014-07-16 |
Family
ID=43420943
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2010009461A Expired - Fee Related JP5547975B2 (en) | 2009-04-23 | 2010-01-19 | Imaging apparatus, microscope system, and white balance adjustment method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5547975B2 (en) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013162248A (en) | 2012-02-02 | 2013-08-19 | Canon Inc | Imaging device and method for controlling the same |
JP6274931B2 (en) * | 2014-03-19 | 2018-02-07 | オリンパス株式会社 | Multi-area white balance control device, multi-area white balance control method, multi-area white balance control program, computer recording multi-area white balance control program, multi-area white balance image processing device, multi-area white balance image processing method, multi-area White balance image processing program, computer recording multi-area white balance image processing program, and imaging apparatus provided with multi-area white balance image processing device |
JP5972947B2 (en) * | 2014-10-02 | 2016-08-17 | レノボ・シンガポール・プライベート・リミテッド | Method for supporting user photographing, portable electronic device, and computer program |
KR102255074B1 (en) * | 2020-03-13 | 2021-05-24 | 한국광기술원 | Shading correction method and apparatus for brightfield whole slide imaging |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006268153A (en) * | 2005-03-22 | 2006-10-05 | Fuji Xerox Co Ltd | Image processing device, image processing method, and program |
JP5121206B2 (en) * | 2006-10-23 | 2013-01-16 | オリンパス株式会社 | Image processing apparatus, image processing program, and image processing method |
-
2010
- 2010-01-19 JP JP2010009461A patent/JP5547975B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2010273319A (en) | 2010-12-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11422356B2 (en) | Information processing apparatus, imaging control method, program, digital microscope system, display control apparatus, display control method, and program including detection of a failure requiring reimaging | |
KR101441786B1 (en) | Subject determination apparatus, subject determination method and recording medium storing program thereof | |
TWI395958B (en) | Defective pixel detection and correction devices, systems, and methods for detecting and correcting defective pixel | |
JP2011124948A (en) | Information processor, method of processing information, program and image pickup device with optical microscope mounted thereon | |
US20160219227A1 (en) | Image processing apparatus which performs image processing on photographic subject | |
JP5047764B2 (en) | Microscope imaging device | |
JP5547975B2 (en) | Imaging apparatus, microscope system, and white balance adjustment method | |
KR101375988B1 (en) | Object detection device, object detection method, and recording medium | |
CN115835025A (en) | Apparatus, control method thereof, and storage medium | |
US20220021800A1 (en) | Image capturing apparatus, method of controlling image capturing apparatus, and storage medium | |
US10386624B2 (en) | Microscope-image processing apparatus, microscope-image processing method, and microscope-image processing program | |
JP5387341B2 (en) | Imaging device | |
JP2013152643A (en) | Image processing apparatus, image processing method, and program | |
JP5609459B2 (en) | Binarization processing method and image processing apparatus | |
JP2008250892A (en) | Image processor and processing program | |
JP7442989B2 (en) | Imaging device, control method for the imaging device, and program | |
JP2017207651A (en) | Image acquisition device | |
JP4823979B2 (en) | Image processing apparatus and method, and program | |
JP5412791B2 (en) | Digital camera and image processing program | |
JP2019134332A (en) | Image processor and control method therefor | |
JP6557520B2 (en) | Microscope system | |
JP6314281B1 (en) | Image processing method and foreground region acquisition method | |
JP6111736B2 (en) | Image processing apparatus, imaging apparatus, image processing method, and image processing program | |
JP2023080960A (en) | Imaging apparatus, control method, program and storage medium | |
JP6415106B2 (en) | Imaging apparatus, control method therefor, and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20121113 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20140218 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20140407 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20140430 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20140516 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 5547975 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |
|
S531 | Written request for registration of change of domicile |
Free format text: JAPANESE INTERMEDIATE CODE: R313531 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees | ||
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313111 |
|
R371 | Transfer withdrawn |
Free format text: JAPANESE INTERMEDIATE CODE: R371 |