JPWO2017154293A1 - 画像処理装置、撮像装置、および画像処理方法、並びにプログラム - Google Patents
画像処理装置、撮像装置、および画像処理方法、並びにプログラム Download PDFInfo
- Publication number
- JPWO2017154293A1 JPWO2017154293A1 JP2018504003A JP2018504003A JPWO2017154293A1 JP WO2017154293 A1 JPWO2017154293 A1 JP WO2017154293A1 JP 2018504003 A JP2018504003 A JP 2018504003A JP 2018504003 A JP2018504003 A JP 2018504003A JP WO2017154293 A1 JPWO2017154293 A1 JP WO2017154293A1
- Authority
- JP
- Japan
- Prior art keywords
- image
- white
- unit
- frequency
- image processing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000012545 processing Methods 0.000 title claims abstract description 300
- 238000003384 imaging method Methods 0.000 title claims abstract description 181
- 238000003672 processing method Methods 0.000 title claims description 17
- 238000000034 method Methods 0.000 claims abstract description 177
- 230000008569 process Effects 0.000 claims abstract description 169
- 239000000203 mixture Substances 0.000 claims abstract description 139
- 238000012937 correction Methods 0.000 claims abstract description 75
- 239000003086 colorant Substances 0.000 claims abstract description 57
- 238000003491 array Methods 0.000 claims abstract description 22
- 238000002156 mixing Methods 0.000 claims abstract description 10
- 238000003702 image correction Methods 0.000 claims description 77
- 238000001514 detection method Methods 0.000 claims description 19
- 238000006073 displacement reaction Methods 0.000 claims description 15
- 238000006243 chemical reaction Methods 0.000 description 33
- 238000011161 development Methods 0.000 description 17
- 230000000694 effects Effects 0.000 description 15
- 238000009499 grossing Methods 0.000 description 15
- 230000008859 change Effects 0.000 description 12
- 238000001914 filtration Methods 0.000 description 10
- 238000010586 diagram Methods 0.000 description 6
- 230000010365 information processing Effects 0.000 description 6
- 238000007906 compression Methods 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 238000011946 reduction process Methods 0.000 description 2
- 230000002730 additional effect Effects 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 230000006835 compression Effects 0.000 description 1
- 239000000470 constituent Substances 0.000 description 1
- 230000006837 decompression Effects 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 230000003595 spectral effect Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/222—Studio circuitry; Studio devices; Studio equipment
- H04N5/262—Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
- H04N5/272—Means for inserting a foreground image in a background image, i.e. inlay, outlay
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/20—Image enhancement or restoration using local operators
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/50—Image enhancement or restoration using two or more images, e.g. averaging or subtraction
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/10—Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths
- H04N23/13—Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths with multiple sensors
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/68—Control of cameras or camera modules for stable pick-up of the scene, e.g. compensating for camera body vibrations
- H04N23/681—Motion detection
- H04N23/6812—Motion detection based on additional sensors, e.g. acceleration sensors
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/80—Camera processing pipelines; Components thereof
- H04N23/84—Camera processing pipelines; Components thereof for processing colour signals
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/80—Camera processing pipelines; Components thereof
- H04N23/84—Camera processing pipelines; Components thereof for processing colour signals
- H04N23/88—Camera processing pipelines; Components thereof for processing colour signals for colour balance, e.g. white-balance circuits or colour temperature control
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N25/00—Circuitry of solid-state image sensors [SSIS]; Control thereof
- H04N25/10—Circuitry of solid-state image sensors [SSIS]; Control thereof for transforming different wavelengths into image signals
- H04N25/11—Arrangement of colour filter arrays [CFA]; Filter mosaics
- H04N25/13—Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements
- H04N25/133—Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements including elements passing panchromatic light, e.g. filters passing white light
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N25/00—Circuitry of solid-state image sensors [SSIS]; Control thereof
- H04N25/10—Circuitry of solid-state image sensors [SSIS]; Control thereof for transforming different wavelengths into image signals
- H04N25/11—Arrangement of colour filter arrays [CFA]; Filter mosaics
- H04N25/13—Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements
- H04N25/134—Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements based on three different wavelength filter elements
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N9/00—Details of colour television systems
- H04N9/64—Circuits for processing colour signals
- H04N9/646—Circuits for processing colour signals for image enhancement, e.g. vertical detail restoration, cross-colour elimination, contour correction, chrominance trapping filters
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10024—Color image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20212—Image combination
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/68—Control of cameras or camera modules for stable pick-up of the scene, e.g. compensating for camera body vibrations
- H04N23/681—Motion detection
- H04N23/6811—Motion detection based on the image signal
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Spectroscopy & Molecular Physics (AREA)
- Color Television Image Signal Generators (AREA)
- Studio Devices (AREA)
- Image Processing (AREA)
Abstract
カラー画像における画像領域単位の画像特性に応じた偽色補正を行う装置、方法を提供する。カラー画像と、全画素をホワイト(W)画素配列としたW配列撮像素子によって撮影されたホワイト(W)画像を入力して、カラー画像に含まれる偽色を低減させる画像処理を実行する画像処理部を有する。画像処理部は、ホワイト(W)画像を入力し、画像領域単位の周波数対応パラメータを算出する周波数対応パラメータ算出部と、ホワイト(W)画像と、カラー画像を入力し、入力した2つの画像の画像領域単位の位置ずれ対応パラメータを算出する位置ずれ対応パラメータ算出部と、周波数対応パラメータと、位置ずれ対応パラメータとの値に応じて、ホワイト(W)画像と、カラー画像のブレンド比率を制御したブレンド処理を実行して、補正画素値を算出する。
Description
本開示は、画像処理装置、撮像装置、および画像処理方法、並びにプログラムに関する。特に、画像に発生する偽色の補正処理を実行する画像処理装置、撮像装置、および画像処理方法、並びにプログラムに関する。
カメラ(撮像装置)によりカラー画像を撮影すると、撮影画像中に撮影被写体の実際の色と異なる色、いわゆる偽色が発生することがある。
撮像素子には、例えばRGB配列からなるカラーフィルタが設けられ、カラーフィルタを介した入射光が撮像素子上に到達して各入射光量に応じた電気信号を出力する。
このようなカラーフィルタを用いた撮像構成では、例えば単位面積たりの輝度や色信号の変化量の大きい、いわゆる高周波信号領域に偽色が発生しやすい。特に高密度化された撮像素子では、偽色がより発生しやすい傾向がある。
撮像素子には、例えばRGB配列からなるカラーフィルタが設けられ、カラーフィルタを介した入射光が撮像素子上に到達して各入射光量に応じた電気信号を出力する。
このようなカラーフィルタを用いた撮像構成では、例えば単位面積たりの輝度や色信号の変化量の大きい、いわゆる高周波信号領域に偽色が発生しやすい。特に高密度化された撮像素子では、偽色がより発生しやすい傾向がある。
このような偽色の補正手法を開示した従来技術として、例えば特許文献1(特開2013−26672号公報)がある。
特許文献1には、一般的なカラー画像撮影のためのRGB画素配列、例えばベイヤ配列を持つ撮像素子(イメージセンサ)と、ホワイト(W)画素のみからなるW画素配列からなる撮像素子の2つの撮像素子を用いた2枚の撮影画像を用いて、色補正を実行する構成を開示している。
特許文献1には、一般的なカラー画像撮影のためのRGB画素配列、例えばベイヤ配列を持つ撮像素子(イメージセンサ)と、ホワイト(W)画素のみからなるW画素配列からなる撮像素子の2つの撮像素子を用いた2枚の撮影画像を用いて、色補正を実行する構成を開示している。
しかし、RGB画素配列を持つ撮像素子(イメージセンサ)による撮影画像には、偽色が発生しやすい領域とほとんど発生しないが領域があり、これらの領域を判別して、領域単位で最適な処理を行なわなければ、正しい被写体の色を再現することができない。
また、RGB画像とW画像の2つの画像を用いるためには、2つの撮像素子を並べて撮影することが必要であり、2つの画像に視差に基づく位置ずれが発生する。
上記の領域単位の補正を正しく行うためには、2画像の位置ずれを解消するための位置合わせを実行した上で領域単位の画像特性を検出して、領域単位で最適な補正を行う必要がある。
また、RGB画像とW画像の2つの画像を用いるためには、2つの撮像素子を並べて撮影することが必要であり、2つの画像に視差に基づく位置ずれが発生する。
上記の領域単位の補正を正しく行うためには、2画像の位置ずれを解消するための位置合わせを実行した上で領域単位の画像特性を検出して、領域単位で最適な補正を行う必要がある。
上記の特許文献1は、RGB配列の撮像素子(イメージセンサ)と、ホワイト(W)画素配列の撮像素子(イメージセンサ)の2つの撮像素子の撮影画像を用いた偽色補正について説明しているが、各画像領域の特徴に基づいて補正態様を最適化することについての詳細な説明はなく、画像領域によって誤った補正が行われてしまうという可能性がある。
本開示は、上記の問題点に鑑みてなされたものであり、RGB配列撮像素子等、通常のカラー画像撮影用の撮像素子と、ホワイト(W)画素配列の撮像素子を用いて撮影された2枚の画像を用い、画像領域単位の特徴に応じて補正態様を最適化し、各画像領域の画像特性に応じた最適な画像補正により、偽色を減少させた高品質な画像を生成する画像処理装置、撮像装置、および画像処理方法、並びにプログラムを提供することを目的とする。
本開示の第1の側面は、
カラー画像と、全画素をホワイト(W)画素配列としたW配列撮像素子によって撮影されたホワイト(W)画像を入力して、カラー画像に含まれる偽色を低減させる画像処理を実行する画像処理部を有し、
前記画像処理部は、
前記ホワイト(W)画像を入力し、ホワイト(W)画像の画像領域単位の周波数対応パラメータを算出する周波数対応パラメータ算出部と、
前記ホワイト(W)画像と、前記カラー画像を入力し、入力した2つの画像の画像領域単位の位置ずれ対応パラメータを算出する位置ずれ対応パラメータ算出部と、
前記周波数対応パラメータと、位置ずれ対応パラメータとの値に応じて、前記ホワイト(W)画像と、前記カラー画像のブレンド比率を制御したブレンド処理を実行して、補正画素値を算出する画像補正部を有する画像処理装置にある。
カラー画像と、全画素をホワイト(W)画素配列としたW配列撮像素子によって撮影されたホワイト(W)画像を入力して、カラー画像に含まれる偽色を低減させる画像処理を実行する画像処理部を有し、
前記画像処理部は、
前記ホワイト(W)画像を入力し、ホワイト(W)画像の画像領域単位の周波数対応パラメータを算出する周波数対応パラメータ算出部と、
前記ホワイト(W)画像と、前記カラー画像を入力し、入力した2つの画像の画像領域単位の位置ずれ対応パラメータを算出する位置ずれ対応パラメータ算出部と、
前記周波数対応パラメータと、位置ずれ対応パラメータとの値に応じて、前記ホワイト(W)画像と、前記カラー画像のブレンド比率を制御したブレンド処理を実行して、補正画素値を算出する画像補正部を有する画像処理装置にある。
さらに、本開示の第2の側面は、
全画素をホワイト(W)画素配列としたW配列撮像素子を有し、ホワイト(W)画像を撮影する第1撮像部と、
RGB画素配列を有するRGB配列撮像素子を有し、カラー画像を撮影する第2撮像部と、
前記ホワイト(W)画像と、前記カラー画像を入力し、カラー画像に含まれる偽色を低減させる画像処理を実行する画像処理部を有し、
前記画像処理部は、
前記ホワイト(W)画像を入力し、ホワイト(W)画像の画像領域単位の周波数対応パラメータを算出する周波数対応パラメータ算出部と、
前記ホワイト(W)画像と、前記カラー画像を入力し、入力した2つの画像の画像領域単位の位置ずれ対応パラメータを算出する位置ずれ対応パラメータ算出部と、
前記周波数対応パラメータと、位置ずれ対応パラメータとの値に応じて、前記ホワイト(W)画像と、前記カラー画像のブレンド比率を制御したブレンド処理を実行して、補正画素値を算出する画像補正部を有する撮像装置にある。
全画素をホワイト(W)画素配列としたW配列撮像素子を有し、ホワイト(W)画像を撮影する第1撮像部と、
RGB画素配列を有するRGB配列撮像素子を有し、カラー画像を撮影する第2撮像部と、
前記ホワイト(W)画像と、前記カラー画像を入力し、カラー画像に含まれる偽色を低減させる画像処理を実行する画像処理部を有し、
前記画像処理部は、
前記ホワイト(W)画像を入力し、ホワイト(W)画像の画像領域単位の周波数対応パラメータを算出する周波数対応パラメータ算出部と、
前記ホワイト(W)画像と、前記カラー画像を入力し、入力した2つの画像の画像領域単位の位置ずれ対応パラメータを算出する位置ずれ対応パラメータ算出部と、
前記周波数対応パラメータと、位置ずれ対応パラメータとの値に応じて、前記ホワイト(W)画像と、前記カラー画像のブレンド比率を制御したブレンド処理を実行して、補正画素値を算出する画像補正部を有する撮像装置にある。
さらに、本開示の第3の側面は、
画像処理装置において実行する画像処理方法であり、
前記画像処理装置は、
カラー画像と、全画素をホワイト(W)画素配列としたW配列撮像素子によって撮影されたホワイト(W)画像を入力して、カラー画像に含まれる偽色を低減させる画像処理を実行する画像処理部を有し、
前記画像処理部が、
前記ホワイト(W)画像を入力し、ホワイト(W)画像の画像領域単位の周波数対応パラメータを算出する周波数対応パラメータ算出処理と、
前記ホワイト(W)画像と、前記カラー画像を入力し、入力した2つの画像の画像領域単位の位置ずれ対応パラメータを算出する位置ずれ対応パラメータ算出処理と、
前記周波数対応パラメータと、位置ずれ対応パラメータとの値に応じて、前記ホワイト(W)画像と、前記カラー画像のブレンド比率を制御したブレンド処理を実行して、補正画素値を算出する画像処理方法にある。
画像処理装置において実行する画像処理方法であり、
前記画像処理装置は、
カラー画像と、全画素をホワイト(W)画素配列としたW配列撮像素子によって撮影されたホワイト(W)画像を入力して、カラー画像に含まれる偽色を低減させる画像処理を実行する画像処理部を有し、
前記画像処理部が、
前記ホワイト(W)画像を入力し、ホワイト(W)画像の画像領域単位の周波数対応パラメータを算出する周波数対応パラメータ算出処理と、
前記ホワイト(W)画像と、前記カラー画像を入力し、入力した2つの画像の画像領域単位の位置ずれ対応パラメータを算出する位置ずれ対応パラメータ算出処理と、
前記周波数対応パラメータと、位置ずれ対応パラメータとの値に応じて、前記ホワイト(W)画像と、前記カラー画像のブレンド比率を制御したブレンド処理を実行して、補正画素値を算出する画像処理方法にある。
さらに、本開示の第4の側面は、
撮像装置において実行する画像処理方法であり、
前記撮像装置は、
全画素をホワイト(W)画素配列としたW配列撮像素子を有し、ホワイト(W)画像を撮影する第1撮像部と、
RGB画素配列を有するRGB配列撮像素子を有し、カラー画像を撮影する第2撮像部と、
前記ホワイト(W)画像と、前記カラー画像を入力し、カラー画像に含まれる偽色を低減させる画像処理を実行する画像処理部を有し、
前記第1撮像部と、前記第2撮像部において、ホワイト(W)画像とカラー画像を撮影し、
前記画像処理部において、
前記ホワイト(W)画像を入力し、ホワイト(W)画像の画像領域単位の周波数対応パラメータを算出する周波数対応パラメータ算出処理と、
前記ホワイト(W)画像と、前記カラー画像を入力し、入力した2つの画像の画像領域単位の位置ずれ対応パラメータを算出する位置ずれ対応パラメータ算出処理と、
前記周波数対応パラメータと、位置ずれ対応パラメータとの値に応じて、前記ホワイト(W)画像と、前記カラー画像のブレンド比率を制御したブレンド処理を実行して、補正画素値を算出する画像処理方法にある。
撮像装置において実行する画像処理方法であり、
前記撮像装置は、
全画素をホワイト(W)画素配列としたW配列撮像素子を有し、ホワイト(W)画像を撮影する第1撮像部と、
RGB画素配列を有するRGB配列撮像素子を有し、カラー画像を撮影する第2撮像部と、
前記ホワイト(W)画像と、前記カラー画像を入力し、カラー画像に含まれる偽色を低減させる画像処理を実行する画像処理部を有し、
前記第1撮像部と、前記第2撮像部において、ホワイト(W)画像とカラー画像を撮影し、
前記画像処理部において、
前記ホワイト(W)画像を入力し、ホワイト(W)画像の画像領域単位の周波数対応パラメータを算出する周波数対応パラメータ算出処理と、
前記ホワイト(W)画像と、前記カラー画像を入力し、入力した2つの画像の画像領域単位の位置ずれ対応パラメータを算出する位置ずれ対応パラメータ算出処理と、
前記周波数対応パラメータと、位置ずれ対応パラメータとの値に応じて、前記ホワイト(W)画像と、前記カラー画像のブレンド比率を制御したブレンド処理を実行して、補正画素値を算出する画像処理方法にある。
さらに、本開示の第5の側面は、
画像処理装置において画像処理を実行させるプログラムであり、
前記画像処理装置は、
カラー画像と、全画素をホワイト(W)画素配列としたW配列撮像素子によって撮影されたホワイト(W)画像を入力して、カラー画像に含まれる偽色を低減させる画像処理を実行する画像処理部を有し、
前記プログラムは、前記画像処理部に、
前記ホワイト(W)画像を入力し、ホワイト(W)画像の画像領域単位の周波数対応パラメータを算出する周波数対応パラメータ算出処理と、
前記ホワイト(W)画像と、前記カラー画像を入力し、入力した2つの画像の画像領域単位の位置ずれ対応パラメータを算出する位置ずれ対応パラメータ算出処理と、
前記周波数対応パラメータと、位置ずれ対応パラメータとの値に応じて、前記ホワイト(W)画像と、前記カラー画像のブレンド比率を制御したブレンド処理を実行して、補正画素値を算出する処理を実行させるプログラムにある。
画像処理装置において画像処理を実行させるプログラムであり、
前記画像処理装置は、
カラー画像と、全画素をホワイト(W)画素配列としたW配列撮像素子によって撮影されたホワイト(W)画像を入力して、カラー画像に含まれる偽色を低減させる画像処理を実行する画像処理部を有し、
前記プログラムは、前記画像処理部に、
前記ホワイト(W)画像を入力し、ホワイト(W)画像の画像領域単位の周波数対応パラメータを算出する周波数対応パラメータ算出処理と、
前記ホワイト(W)画像と、前記カラー画像を入力し、入力した2つの画像の画像領域単位の位置ずれ対応パラメータを算出する位置ずれ対応パラメータ算出処理と、
前記周波数対応パラメータと、位置ずれ対応パラメータとの値に応じて、前記ホワイト(W)画像と、前記カラー画像のブレンド比率を制御したブレンド処理を実行して、補正画素値を算出する処理を実行させるプログラムにある。
さらに、本開示の第6の側面は、
撮像装置において画像処理を実行させるプログラムであり、
前記撮像装置は、
全画素をホワイト(W)画素配列としたW配列撮像素子を有し、ホワイト(W)画像を撮影する第1撮像部と、
RGB画素配列を有するRGB配列撮像素子を有し、カラー画像を撮影する第2撮像部と、
前記ホワイト(W)画像と、前記カラー画像を入力し、カラー画像に含まれる偽色を低減させる画像処理を実行する画像処理部を有し、
前記プログラムは、
前記第1撮像部と、前記第2撮像部において、ホワイト(W)画像とカラー画像を撮影させ、
前記画像処理部に、
前記ホワイト(W)画像を入力し、ホワイト(W)画像の画像領域単位の周波数対応パラメータを算出する周波数対応パラメータ算出処理と、
前記ホワイト(W)画像と、前記カラー画像を入力し、入力した2つの画像の画像領域単位の位置ずれ対応パラメータを算出する位置ずれ対応パラメータ算出処理と、
前記周波数対応パラメータと、位置ずれ対応パラメータとの値に応じて、前記ホワイト(W)画像と、前記カラー画像のブレンド比率を制御したブレンド処理を実行して、補正画素値を算出する処理を実行させるプログラムにある。
撮像装置において画像処理を実行させるプログラムであり、
前記撮像装置は、
全画素をホワイト(W)画素配列としたW配列撮像素子を有し、ホワイト(W)画像を撮影する第1撮像部と、
RGB画素配列を有するRGB配列撮像素子を有し、カラー画像を撮影する第2撮像部と、
前記ホワイト(W)画像と、前記カラー画像を入力し、カラー画像に含まれる偽色を低減させる画像処理を実行する画像処理部を有し、
前記プログラムは、
前記第1撮像部と、前記第2撮像部において、ホワイト(W)画像とカラー画像を撮影させ、
前記画像処理部に、
前記ホワイト(W)画像を入力し、ホワイト(W)画像の画像領域単位の周波数対応パラメータを算出する周波数対応パラメータ算出処理と、
前記ホワイト(W)画像と、前記カラー画像を入力し、入力した2つの画像の画像領域単位の位置ずれ対応パラメータを算出する位置ずれ対応パラメータ算出処理と、
前記周波数対応パラメータと、位置ずれ対応パラメータとの値に応じて、前記ホワイト(W)画像と、前記カラー画像のブレンド比率を制御したブレンド処理を実行して、補正画素値を算出する処理を実行させるプログラムにある。
なお、本開示のプログラムは、例えば、様々なプログラム・コードを実行可能な情報処理装置やコンピュータ・システムに対して、コンピュータ可読な形式で提供する記憶媒体、通信媒体によって提供可能なプログラムである。このようなプログラムをコンピュータ可読な形式で提供することにより、情報処理装置やコンピュータ・システム上でプログラムに応じた処理が実現される。
本開示のさらに他の目的、特徴や利点は、後述する本開示の実施例や添付する図面に基づくより詳細な説明によって明らかになるであろう。なお、本明細書においてシステムとは、複数の装置の論理的集合構成であり、各構成の装置が同一筐体内にあるものには限らない。
本開示の一実施例の構成によれば、カラー画像における画像領域単位の画像特性に応じた偽色補正を行う装置、方法が実現される。
具体的には、カラー画像と、全画素をホワイト(W)画素配列としたW配列撮像素子によって撮影されたホワイト(W)画像を入力して、カラー画像に含まれる偽色を低減させる画像処理を実行する画像処理部を有する。画像処理部は、ホワイト(W)画像を入力し、画像領域単位の周波数対応パラメータを算出する周波数対応パラメータ算出部と、ホワイト(W)画像と、カラー画像を入力し、入力した2つの画像の画像領域単位の位置ずれ対応パラメータを算出する位置ずれ対応パラメータ算出部と、周波数対応パラメータと、位置ずれ対応パラメータとの値に応じて、ホワイト(W)画像と、カラー画像のブレンド比率を制御したブレンド処理を実行して、補正画素値を算出する。
これらの処理により、カラー画像における画像領域単位の画像特性に応じた偽色補正を行う装置、方法が実現され、偽色を除去または低減した高品質な画像を生成して出力することが可能となる。
なお、本明細書に記載された効果はあくまで例示であって限定されるものではなく、また付加的な効果があってもよい。
具体的には、カラー画像と、全画素をホワイト(W)画素配列としたW配列撮像素子によって撮影されたホワイト(W)画像を入力して、カラー画像に含まれる偽色を低減させる画像処理を実行する画像処理部を有する。画像処理部は、ホワイト(W)画像を入力し、画像領域単位の周波数対応パラメータを算出する周波数対応パラメータ算出部と、ホワイト(W)画像と、カラー画像を入力し、入力した2つの画像の画像領域単位の位置ずれ対応パラメータを算出する位置ずれ対応パラメータ算出部と、周波数対応パラメータと、位置ずれ対応パラメータとの値に応じて、ホワイト(W)画像と、カラー画像のブレンド比率を制御したブレンド処理を実行して、補正画素値を算出する。
これらの処理により、カラー画像における画像領域単位の画像特性に応じた偽色補正を行う装置、方法が実現され、偽色を除去または低減した高品質な画像を生成して出力することが可能となる。
なお、本明細書に記載された効果はあくまで例示であって限定されるものではなく、また付加的な効果があってもよい。
以下、図面を参照しながら本開示の画像処理装置、撮像装置、および画像処理方法、並びにプログラムの詳細について説明する。なお、説明は以下の項目に従って行う。
1.本開示の画像処理装置の構成と処理について
2.画像処理部の構成と、偽色低減処理について
3.画像補正部の実行する画像特性に応じた画像処理について
4.画像特性に応じて複数の異なるローパスフィルタを組み合わせて利用した画像処理について
5.画像処理装置の実行する画像処理の処理シーケンスについて
6.画像処理装置のその他の構成例について
7.本開示の構成のまとめ
1.本開示の画像処理装置の構成と処理について
2.画像処理部の構成と、偽色低減処理について
3.画像補正部の実行する画像特性に応じた画像処理について
4.画像特性に応じて複数の異なるローパスフィルタを組み合わせて利用した画像処理について
5.画像処理装置の実行する画像処理の処理シーケンスについて
6.画像処理装置のその他の構成例について
7.本開示の構成のまとめ
[1.本開示の画像処理装置の構成と処理について]
図1以下を参照して本開示の画像処理装置の構成と処理について説明する。
図1は、本開示の画像処理装置100の一例である撮像装置の構成を示すブロック図である。
なお、本開示の画像処理装置は、撮像装置に限らず、例えば撮像装置の撮影画像を入力して画像処理を実行するPC等の情報処理装置も含まれる。
以下では、本開示の画像処理装置100の一例として、撮像装置の構成と処理について説明する。
以下の実施例において説明する撮影処理以外の画像処理は、撮像装置に限らず、PC等の情報処理装置において実行することも可能である。
図1以下を参照して本開示の画像処理装置の構成と処理について説明する。
図1は、本開示の画像処理装置100の一例である撮像装置の構成を示すブロック図である。
なお、本開示の画像処理装置は、撮像装置に限らず、例えば撮像装置の撮影画像を入力して画像処理を実行するPC等の情報処理装置も含まれる。
以下では、本開示の画像処理装置100の一例として、撮像装置の構成と処理について説明する。
以下の実施例において説明する撮影処理以外の画像処理は、撮像装置に限らず、PC等の情報処理装置において実行することも可能である。
図1に示す撮像装置としての画像処理装置100は、制御部101、記憶部102、コーデック103、入力部104、出力部105、撮像部106、画像処理部120を有する。
撮像部106は、可視光の全波長領域の入射光量に基づく電気信号出力を行うW(ホワイト)画素配列撮像素子を有する第1撮像部107と、RGBのカラーフィルタ、例えばベイヤ配列からなるカラーフィルタを有し、各画素単位でRGB各色の入力光対応の信号を出力するRGB画素配列撮像素子を有する第2撮像部108によって構成される。
撮像部106は、可視光の全波長領域の入射光量に基づく電気信号出力を行うW(ホワイト)画素配列撮像素子を有する第1撮像部107と、RGBのカラーフィルタ、例えばベイヤ配列からなるカラーフィルタを有し、各画素単位でRGB各色の入力光対応の信号を出力するRGB画素配列撮像素子を有する第2撮像部108によって構成される。
第1撮像部107と、第2撮像部108は、所定間隔、離れた位置に設定される2つの撮像部であり、それぞれの撮影画像は異なる視点からの画像となる。これらの2つの画像は、静止画である場合は、同一タイミングの静止画として撮影される。動画である場合は、各撮像部の撮影フレームは、同期した撮影フレーム、すなわち同一タイミングで順次撮影される連続した画像フレームとなる。
なお、これらの撮影タイミングの制御は制御部101によって行われる。
なお、これらの撮影タイミングの制御は制御部101によって行われる。
しかし、これらの2つの撮像部107,108は、上述のように、所定間隔離れた位置に設定される2つの撮像部であり、それぞれの撮影画像は異なる視点からの画像となる。すなわち視差を持つ画像となる。
従って、2つの画像の対応画素、すなわち同一位置の画素には同一の被写体画像が撮影されず、視差に応じた被写体ずれが発生する。
本開示の画像処理装置100は、画像処理部120においてこのずれを考慮して画像補正、具体的には偽色を低減させる画像処理を行なう、この処理の詳細については後述する。
従って、2つの画像の対応画素、すなわち同一位置の画素には同一の被写体画像が撮影されず、視差に応じた被写体ずれが発生する。
本開示の画像処理装置100は、画像処理部120においてこのずれを考慮して画像補正、具体的には偽色を低減させる画像処理を行なう、この処理の詳細については後述する。
制御部101は、画像の撮影、撮影画像に対する信号処理、画像の記録処理、表示処理等、撮像装置100において実行する各種の処理を制御する。制御部101は、例えば記憶部102に格納された様々な処理プログラムに従った処理を実行するCPU等を備え、プログラムを実行するデータ処理部として機能する。
記憶部102は、撮影画像の格納部、さらに、制御部101において実行する処理プログラムや、各種パラメータの記憶部、さらにデータ処理時のワークエリアとして機能するRAM,ROM等によって構成される。
コーデック103は、撮影画像の圧縮、伸長処理等の符号化、復号処理を実行する。
入力部104は、例えばユーザ操作部であり、撮影開始、終了、様々なモード設定等の制御情報を入力する。
出力部105は表示部、スピーカ等によって構成され、撮影画像、スルー画等の表示、音声出力等に利用される。
コーデック103は、撮影画像の圧縮、伸長処理等の符号化、復号処理を実行する。
入力部104は、例えばユーザ操作部であり、撮影開始、終了、様々なモード設定等の制御情報を入力する。
出力部105は表示部、スピーカ等によって構成され、撮影画像、スルー画等の表示、音声出力等に利用される。
画像処理部120は、撮像部106から入力する2枚の画像ホワイト−RAW(W−RAW)画像111、RGB−RAW画像112、さらに処理パラメータとしてのセンサノイズ特性(σ)113を入力し、偽色を減少させる画像処理を実行して、RGB画像150を生成して出力する。
前述したように、撮像部106は、可視光の全波長領域の入射光量に基づく電気信号出力を行うW(ホワイト)画素配列撮像素子を有する第1撮像部107と、RGBのカラーフィルタ、例えばベイヤ配列からなるカラーフィルタを有し、各画素単位でRGB各色の入力光対応の信号を出力するRGB画素配列撮像素子を有する第2撮像部108によって構成される。
この2つの撮像部107,108の画素配列(フィルタ配列)について図2を参照して説明する。
図2(a)は、一般的なカラー画像の撮影に用いられるベイヤ配列を示している。
ベイヤ配列は、RGB各色の波長光を選択的に透過するRGBフィルタによって構成される。
2×2の4画素中の対角上に2つのG画素が設定され、残りにR、B画素が1zずつ配置される。
ベイヤ配列は、RGB各色の波長光を選択的に透過するRGBフィルタによって構成される。
2×2の4画素中の対角上に2つのG画素が設定され、残りにR、B画素が1zずつ配置される。
このベイヤ配列型のRGB画素配列は、図1に示す第2撮像部108に用いられる画素配列である。画像撮影処理によって、各画素単位でRGBのいずれかの画素値が設定される。この信号処理前の画像が、図1に示すRGB−RAW画像112である。
RGB−RAW画像は、各画素にR,G,Bのいずれか1つの画素値が設定されている。その後の信号処理として実行されるデモザイク処理によって、全ての画素にRGBの3信号を設定する処理が行われる。
通常の単眼カメラでは、このような処理によってカラー画像の生成が行われるが、この処理において、このような処理を行なうと、前述したように、本来の被写体にはない色が出力画像中に出現する偽色が発生することがある。
本開示の画像処理装置では、図1に示す画像処理部120内における画像処理によって、この偽色を減少させる処理を行なう。
この具体的処理については後段で説明する。
通常の単眼カメラでは、このような処理によってカラー画像の生成が行われるが、この処理において、このような処理を行なうと、前述したように、本来の被写体にはない色が出力画像中に出現する偽色が発生することがある。
本開示の画像処理装置では、図1に示す画像処理部120内における画像処理によって、この偽色を減少させる処理を行なう。
この具体的処理については後段で説明する。
図2(b)は、図1の第1撮像部107の画素配列(フィルタ配列)を示す図である。全画素が、可視光の全波長領域の入射光量に基づく電気信号出力を行うW(ホワイト)画素によって構成される。
図1の第1撮像部107は、全画素についてRGBの全ての波長光を入射するW画素を全画素位置に配列したW画素配列撮像素子による撮像画像としてのW−RAW画像111を生成して画像処理部120に入力する。
図1の第1撮像部107は、全画素についてRGBの全ての波長光を入射するW画素を全画素位置に配列したW画素配列撮像素子による撮像画像としてのW−RAW画像111を生成して画像処理部120に入力する。
画像処理部120は、第1撮像部107からW−RAW画像111、第2撮像部108からRGB−RAW画像112を入力し、さらに、偽色を減少させる補正処理に適用するパラメータであるセンサノイズ特性(σ)113を入力して、偽色を減少させるための画像補正処理を行なう。
なお、センサノイズ特性(σ)113は、撮像部106の第1撮像部107、第2撮像部108において用いられる撮像素子のノイズ特性であり、例えば、制御部101によって予め取得され、記憶部102に格納される。
なお、ここでは、第1撮像部107、第2撮像部108において用いられる撮像素子のノイズ特性を共通の値(σ)として示しているが、各撮像部の撮像素子各々の特性、σ1,σ2を用いる構成としてもよい。
なお、センサノイズ特性(σ)113は、撮像部106の第1撮像部107、第2撮像部108において用いられる撮像素子のノイズ特性であり、例えば、制御部101によって予め取得され、記憶部102に格納される。
なお、ここでは、第1撮像部107、第2撮像部108において用いられる撮像素子のノイズ特性を共通の値(σ)として示しているが、各撮像部の撮像素子各々の特性、σ1,σ2を用いる構成としてもよい。
[2.画像処理部の構成と、偽色低減処理について]
次に、図3以下を参照して、図1に示す画像処理装置100の画像処理部120の構成と処理について説明する。
次に、図3以下を参照して、図1に示す画像処理装置100の画像処理部120の構成と処理について説明する。
図3は、画像処理装置100の画像処理部120の構成を示すブロック図である。
図3に示ように、画像処理部120は、現像処理部121、動きベクトル検出部122、位置合わせ部123、周波数対応パラメータ算出部124、位置ずれ対応パラメータ125、画像補正部126、信号変換部127を有する。
画像処理部120は、図1に示す第2撮像部108の撮影画像であるRGB画像に発生する偽色を低減させる処理を実行して、偽色の低減されたRGB画像150を出力する。
図3に示ように、画像処理部120は、現像処理部121、動きベクトル検出部122、位置合わせ部123、周波数対応パラメータ算出部124、位置ずれ対応パラメータ125、画像補正部126、信号変換部127を有する。
画像処理部120は、図1に示す第2撮像部108の撮影画像であるRGB画像に発生する偽色を低減させる処理を実行して、偽色の低減されたRGB画像150を出力する。
画像処理部120に対する入力信号は、以下の各信号である。
(1)第1撮像部107から入力するW画像111、
(2)第2撮像部108から入力するRGB−RAW画像112、
(3)センサノイズ特性(σ)113、
(1)第1撮像部107から入力するW画像111、
(2)第2撮像部108から入力するRGB−RAW画像112、
(3)センサノイズ特性(σ)113、
まず、現像処理部121は、第2撮像部108から入力するRGB−RAW画像112に対する現像処理を実行する。具体的には、例えば以下の処理を実行する。
(a)撮像素子を構成する回路に基づいて発生するDCオフセットやノイズ信号に基づくオフセット成分を除去するクランプ処理、
(b)RGB−RAW画像の各画素に設定されたRGBの単一信号値に基づいて、各画素にRGBの3信号を設定するデモザイク処理、
(c)白の被写体に対するRGB値を揃えるホワイトバランス処理、
(d)RGB値のYUV値への変換処理、
これらの処理を実行する。
なお、これらの処理は、いずれも既存技術を適用して実行可能である。
(a)撮像素子を構成する回路に基づいて発生するDCオフセットやノイズ信号に基づくオフセット成分を除去するクランプ処理、
(b)RGB−RAW画像の各画素に設定されたRGBの単一信号値に基づいて、各画素にRGBの3信号を設定するデモザイク処理、
(c)白の被写体に対するRGB値を揃えるホワイトバランス処理、
(d)RGB値のYUV値への変換処理、
これらの処理を実行する。
なお、これらの処理は、いずれも既存技術を適用して実行可能である。
現像処理部121における現像処理によって、RGB−RAW画像112は、YUV画像130に変換される。
YUV画像130は、全画素にY(輝度),U(色差),V(色差)の3つの画素値が設定された画像である。
YUV画像130は、全画素にY(輝度),U(色差),V(色差)の3つの画素値が設定された画像である。
次に、動きベクトル(MV:Motion Vector)検出部122の処理について説明する。
動きベクトル検出部122は、第1撮像部107からW画像111を入力するとともに、現像処理部121が、第2撮像部108の撮影画像であるRGB−RAW画像112に基づいて生成した、YUV画像130中のY信号(輝度信号)を入力する。
動きベクトル検出部122は、これらの2つの信号(W信号,Y信号)に基づいて、2つの画像の位置ずれに相当する動きベクトル(MV:Motion Vector)を検出する。
動きベクトル検出部122は、第1撮像部107からW画像111を入力するとともに、現像処理部121が、第2撮像部108の撮影画像であるRGB−RAW画像112に基づいて生成した、YUV画像130中のY信号(輝度信号)を入力する。
動きベクトル検出部122は、これらの2つの信号(W信号,Y信号)に基づいて、2つの画像の位置ずれに相当する動きベクトル(MV:Motion Vector)を検出する。
前述したように、図1に示す画像処理装置100の撮像部106に構成される第1撮像部107と、第2撮像部108は、所定間隔離れた位置に設定される2つの撮像部であり、それぞれの撮影画像は異なる視点からの画像となる。すなわち、視差を持つ画像となる。
従って、2つの画像の対応画素、すなわち同一位置の画素には同一の被写体画像が撮影されず、視差に応じた被写体ずれが発生する。
従って、2つの画像の対応画素、すなわち同一位置の画素には同一の被写体画像が撮影されず、視差に応じた被写体ずれが発生する。
動きベクトル検出部122は、これらの2つの信号(W信号,Y信号)に基づいて、2つの画像の位置ずれに相当する動きベクトル(MV:Motion Vector)を検出する。
具体的には、2つの画像(W画像、Y画像)の対応点をもとめ、その対応点を結ぶベクトルを動きベクトル(MV)として算出する。
動きベクトル検出部122の生成した動きベクトル(MV)は、位置合わせ部123に入力される。
具体的には、2つの画像(W画像、Y画像)の対応点をもとめ、その対応点を結ぶベクトルを動きベクトル(MV)として算出する。
動きベクトル検出部122の生成した動きベクトル(MV)は、位置合わせ部123に入力される。
位置合わせ部123は、動きベクトル検出部122の生成した動きベクトル(MV)を入力するとともに、現像処理部121が、RGB−RAW画像112に基づいて生成したYUV画像130を入力する。
位置合わせ部123は、YUV画像130を、動きベクトル(MV)の大きさと方向に従って各画素位置を移動させて、W画像、すなわち、第1撮像部107の撮影画像であるW−RAW画像111と同一視点位置から撮影されたと同様のYUV画像を生成する。
位置合わせ部123は、YUV画像130を、動きベクトル(MV)の大きさと方向に従って各画素位置を移動させて、W画像、すなわち、第1撮像部107の撮影画像であるW−RAW画像111と同一視点位置から撮影されたと同様のYUV画像を生成する。
この処理によって、YUV画像130は、第1撮像部107と同一視点から撮影されたとみなされるYUV画像に変換される。
位置合わせ部123の生成した位置合わせ処理後のYUV画像は、位置ずれ対応パラメータ算出部125に入力される。
さらに、色差信号UVは、画像補正部126に入力される。
位置合わせ部123の生成した位置合わせ処理後のYUV画像は、位置ずれ対応パラメータ算出部125に入力される。
さらに、色差信号UVは、画像補正部126に入力される。
次に、周波数対応パラメータ算出部124の処理について説明する。
周波数対応パラメータ算出部124は、第1撮像部107の撮影画像であるW−RAW画像111と、センサノイズ特性(σ)113を入力し、これらの入力データに基づいて、偽色補正に利用するための補正パラメータである周波数対応ブレンド率設定パラメータを算出して画像補正部126に出力する。
周波数対応パラメータ算出部124は、第1撮像部107の撮影画像であるW−RAW画像111と、センサノイズ特性(σ)113を入力し、これらの入力データに基づいて、偽色補正に利用するための補正パラメータである周波数対応ブレンド率設定パラメータを算出して画像補正部126に出力する。
なお、センサノイズ特性(σ)113は、撮像部106の第1撮像部107において用いられる撮像素子のノイズ特性情報、具体的には、第1撮像部107において用いられる撮像素子の出力信号中に含まれるノイズ強度を示すデータである。
このセンサノイズ特性(σ)113は、例えば、制御部101によって予め取得され、記憶部102に格納され、制御部101の制御によって記憶部102から取得され、周波数対応パラメータ算出部124に入力される。
このセンサノイズ特性(σ)113は、例えば、制御部101によって予め取得され、記憶部102に格納され、制御部101の制御によって記憶部102から取得され、周波数対応パラメータ算出部124に入力される。
周波数対応パラメータ算出部124の具体的構成と処理について、図4、図5を参照して説明する。
図4は、周波数対応パラメータ算出部124の具体的構成を示す図である。
図4に示すように、周波数対応パラメータ算出部124は、第1撮像部107の撮影画像であるW−RAW画像111と、センサノイズ特性(σ)113を入力し、これらの入力データに基づいて、偽色補正に利用するための補正パラメータである周波数対応ブレンド率設定パラメータを算出して画像補正部126に出力する。
図4は、周波数対応パラメータ算出部124の具体的構成を示す図である。
図4に示すように、周波数対応パラメータ算出部124は、第1撮像部107の撮影画像であるW−RAW画像111と、センサノイズ特性(σ)113を入力し、これらの入力データに基づいて、偽色補正に利用するための補正パラメータである周波数対応ブレンド率設定パラメータを算出して画像補正部126に出力する。
図4に示すように、周波数対応パラメータ算出部124は、隣接画素画素画素値差分絶対値算出部151、ダイナミックレンジ(DR)算出部152、周波数パラメータ算出部153、加算部154、ブレンド率算出部155を有する。
これらの各処理部の具体的処理について、図5を参照して説明する。
図5(a)は、周波数対応パラメータ算出部124において算出する周波数対応ブレンド率設定パラメータの算出領域の設定例について説明する図である。
周波数対応パラメータ算出部124において算出する周波数対応ブレンド率設定パラメータは、各画素対応のパラメータである。
図5(a)は、周波数対応パラメータ算出部124において算出する周波数対応ブレンド率設定パラメータの算出領域の設定例について説明する図である。
周波数対応パラメータ算出部124において算出する周波数対応ブレンド率設定パラメータは、各画素対応のパラメータである。
パラメータ算出処理は、第1撮像部107の撮影画像であるW−RAW画像111を用いて実行する。パラメータ算出対象画素を(x,y)の位置の画素とすると、そのパラメータ算出対象画素(x,y)の周囲画素領域の画素値を用いてパラメータの算出処理を実行する。
図5(a)に示す例は、パラメータ算出対象画素(x,y)の周囲画素領域として、パラメータ算出対象画素(x,y)を中心画素とした9×9画素の画素領域をパラメータ算出に適用する画素領域とした例である。
なお、この画素領域の大きさは、様々な設定が可能である。
なお、この画素領域の大きさは、様々な設定が可能である。
図5(b)に、周波数対応パラメータ算出部124によるパラメータ算出処理の具体的手順を示す。
周波数対応パラメータ算出部124における周波数対応ブレンド率設定パラメータの算出処理は、以下の手順(ステップS01〜S03)に従って行われる。
周波数対応パラメータ算出部124における周波数対応ブレンド率設定パラメータの算出処理は、以下の手順(ステップS01〜S03)に従って行われる。
(ステップS01)
ステップS01,S02の処理は、図4に示す隣接画素画素画素値差分絶対値算出部151と、ダイナミックレンジ(DR)算出部152と、周波数パラメータ算出部153において実行する処理である。
ステップS01,S02の処理は、図4に示す隣接画素画素画素値差分絶対値算出部151と、ダイナミックレンジ(DR)算出部152と、周波数パラメータ算出部153において実行する処理である。
まず、ステップS01において、水平方向の周波数パラメータ(activity)[actHOR]を算出する。
この処理は、パラメータ算出対象画素(x,y)を中心としたパラメータ算出領域に含まれる水平方向の画素の画素値を利用した処理である。
図5(a)に示すパラメータ算出領域設定例では、パラメータ算出対象画素(x,y)と、パラメータ算出対象画素(x,y)の左側の4画素と、右側の4画素の計9画素の画素値を利用して、水平方向の周波数パラメータ(activity)[actHOR]を算出する。
この処理は、パラメータ算出対象画素(x,y)を中心としたパラメータ算出領域に含まれる水平方向の画素の画素値を利用した処理である。
図5(a)に示すパラメータ算出領域設定例では、パラメータ算出対象画素(x,y)と、パラメータ算出対象画素(x,y)の左側の4画素と、右側の4画素の計9画素の画素値を利用して、水平方向の周波数パラメータ(activity)[actHOR]を算出する。
水平方向の周波数パラメータ(activity)[actHOR]の算出は、以下の(式1)に従って実行する。
なお、上記(式1)は、第1撮像部107の撮影画像であるW−RAW画像111の画素位置(x,y)の水平方向周波数パラメータ(activity)[actHOR]の算出式である。
上記(式1)において、Wx−i,yは、W−RAW画像111の画素位置(x−i,y)の画素値であり、Wx−i+1,yは、W−RAW画像111の画素位置(x−i+1,y)の画素値である。
iは、パラメータ算出領域の画素位置(x座標)を示す変数であり、図4(a)の設定の場合、i=4〜−4となる。
上記(式1)において、Wx−i,yは、W−RAW画像111の画素位置(x−i,y)の画素値であり、Wx−i+1,yは、W−RAW画像111の画素位置(x−i+1,y)の画素値である。
iは、パラメータ算出領域の画素位置(x座標)を示す変数であり、図4(a)の設定の場合、i=4〜−4となる。
なお、ダイナミックレンジ(DR)や、センサノイズ特性(σ)113、すなわち、第1撮像部107の撮像素子のノイズ強度等を考慮してパラメータを調整する設定としてもよい。
上記(式1)は、図4(a)に示す領域設定とした場合、パラメータ算出対象画素(x,y)の水平方向にある9画素の画素値Wx−4,y〜Wx+4,y、これら9画素の隣接画素値の差分絶対値を加算して、9画素のダイナミックレンジ(DR)で除算した値を算出する式であり、この値を画素位置(x,y)の水平方向の周波数パラメータ(activity)[actHOR]とするものである。
(ステップS02)
次に、垂直方向の周波数パラメータ(activity)[actVER]を算出する。
この処理は、パラメータ算出対象画素(x,y)を中心としたパラメータ算出領域に含まれる垂直方向の画素の画素値を利用した処理である。
図4(a)に示すパラメータ算出領域設定例では、パラメータ算出対象画素(x,y)と、パラメータ算出対象画素(x,y)の上側の4画素と、下側の4画素の計9画素の画素値を利用して、垂直方向の周波数パラメータ(activity)[actVER]を算出する。
次に、垂直方向の周波数パラメータ(activity)[actVER]を算出する。
この処理は、パラメータ算出対象画素(x,y)を中心としたパラメータ算出領域に含まれる垂直方向の画素の画素値を利用した処理である。
図4(a)に示すパラメータ算出領域設定例では、パラメータ算出対象画素(x,y)と、パラメータ算出対象画素(x,y)の上側の4画素と、下側の4画素の計9画素の画素値を利用して、垂直方向の周波数パラメータ(activity)[actVER]を算出する。
垂直方向の周波数パラメータ(activity)[actVER]の算出は、以下の(式2)に従って実行する。
なお、上記(式2)は、第1撮像部107の撮影画像であるW−RAW画像111の画素位置(x,y)の垂直方向周波数パラメータ(activity)[actVER]の算出式である。
上記(式2)において、Wx,y−iは、W−RAW画像111の画素位置(x,y−i)の画素値であり、Wx,y−i+1は、W−RAW画像111の画素位置(x,y−i+1)の画素値である。
iは、パラメータ算出領域の画素位置(y座標)を示す変数であり、図4(a)の設定の場合、i=4〜−4となる。
上記(式2)において、Wx,y−iは、W−RAW画像111の画素位置(x,y−i)の画素値であり、Wx,y−i+1は、W−RAW画像111の画素位置(x,y−i+1)の画素値である。
iは、パラメータ算出領域の画素位置(y座標)を示す変数であり、図4(a)の設定の場合、i=4〜−4となる。
なお、ダイナミックレンジ(DR)や、センサノイズ特性(σ)113、すなわち、第1撮像部107の撮像素子のノイズ強度等を考慮してパラメータを調整する設定としてもよい。
上記(式2)は、図4(a)に示す領域設定とした場合、パラメータ算出対象画素(x,y)の垂直方向にある9画素の画素値Wx,y−4〜Wx,y+4、これら9画素の隣接画素値の差分絶対値を加算して、9画素のダイナミックレンジ(DR)で除算した値を算出する式であり、この値を画素位置(x,y)の垂直方向の周波数パラメータ(activity)[actVER]とするものである。
(ステップS03)
ステップS03の処理は、図4に示す加算部154、ブレンド率算出部155の実行する処理である。
ステップS03では、以下の処理を実行する。
上記のステップS01で算出した水平方向の周波数パラメータ(activity)[actHOR]と、
ステップS02で算出した垂直方向の周波数パラメータ(activity)[actVER]、
これらの2方向のパラメータを用いて、以下の(式3)に従って、周波数対応ブレンド率設定パラメータ[ratioFreq]を算出する。
ステップS03の処理は、図4に示す加算部154、ブレンド率算出部155の実行する処理である。
ステップS03では、以下の処理を実行する。
上記のステップS01で算出した水平方向の周波数パラメータ(activity)[actHOR]と、
ステップS02で算出した垂直方向の周波数パラメータ(activity)[actVER]、
これらの2方向のパラメータを用いて、以下の(式3)に従って、周波数対応ブレンド率設定パラメータ[ratioFreq]を算出する。
なお、上記(式3)において、
αは、予め規定したパラメータ算出係数であり、例えば、
act=actHOR+actVER
上記式によって算出されるactの値の最大値をαとする。
αは、予め規定したパラメータ算出係数であり、例えば、
act=actHOR+actVER
上記式によって算出されるactの値の最大値をαとする。
水平方向の周波数パラメータ(activity)[actHOR]と、垂直方向の周波数パラメータ(activity)[actVER]との加算値(act)と、パラメータ算出係数(α)のいずれか小さい値を選択し、この選択値を、パラメータ算出係数(α)で除算した値を、画素位置(x,y)の周波数対応ブレンド率設定パラメータ[ratioFreq]として算出する。
なお、パラメータ算出係数(α)の一例として、例えば、α=5を用いることができる。
上記(式3)に従って算出される周波数対応ブレンド率設定パラメータ[ratioFreq]は0〜1の範囲の値となる。
なお、パラメータ算出係数(α)の一例として、例えば、α=5を用いることができる。
上記(式3)に従って算出される周波数対応ブレンド率設定パラメータ[ratioFreq]は0〜1の範囲の値となる。
周波数対応ブレンド率設定パラメータ[ratioFreq]は、
画素値が細かく変化する高周波領域では大きな値、すなわち1に近い値となり、、
画素値の変化が少ない平坦な画像領域、すなわち低周波領域では小さな値、すなわち0に近い値となる。
画素値が細かく変化する高周波領域では大きな値、すなわち1に近い値となり、、
画素値の変化が少ない平坦な画像領域、すなわち低周波領域では小さな値、すなわち0に近い値となる。
周波数対応パラメータ算出部124は、上述した処理に従って、周波数対応ブレンド率設定パラメータ[ratioFreq]を算出する。
なお、周波数対応パラメータ算出部124は、周波数対応ブレンド率設定パラメータ[ratioFreq]を、第1撮像部107の撮影画像であるW−RAW画像111を構成する全画素について算出する。
算出パラメータは、画像補正部126に入力される。
なお、周波数対応パラメータ算出部124は、周波数対応ブレンド率設定パラメータ[ratioFreq]を、第1撮像部107の撮影画像であるW−RAW画像111を構成する全画素について算出する。
算出パラメータは、画像補正部126に入力される。
次に、図3に示す位置ずれ対応パラメータ算出部125の構成と処理について説明する。
図3に示す位置ずれ対応パラメータ算出部125は、第1撮像部107の撮影画像であるW−RAW画像111と、位置合わせ部123が生成した位置合わせ後のYUV画像、すなわち、第1撮像部107の撮影視点から撮影したと同等のYUV画像と、センサノイズ特性(σ)113を入力し、これらの入力データに基づいて、偽色補正に利用するための補正パラメータである位置ずれ対応ブレンド率設定パラメータを算出して画像補正部126に出力する。
図3に示す位置ずれ対応パラメータ算出部125は、第1撮像部107の撮影画像であるW−RAW画像111と、位置合わせ部123が生成した位置合わせ後のYUV画像、すなわち、第1撮像部107の撮影視点から撮影したと同等のYUV画像と、センサノイズ特性(σ)113を入力し、これらの入力データに基づいて、偽色補正に利用するための補正パラメータである位置ずれ対応ブレンド率設定パラメータを算出して画像補正部126に出力する。
なお、センサノイズ特性(σ)113は、撮像部106の第2撮像部108において用いられる撮像素子のノイズ特性情報、具体的には、第2撮像部108において用いられる撮像素子の出力信号中に含まれるノイズ強度を示すデータである。
このセンサノイズ特性(σ)113は、例えば、制御部101によって予め取得され、記憶部102に格納され、制御部101の制御によって記憶部102から取得され、位置ずれ対応パラメータ算出部125に入力される。
このセンサノイズ特性(σ)113は、例えば、制御部101によって予め取得され、記憶部102に格納され、制御部101の制御によって記憶部102から取得され、位置ずれ対応パラメータ算出部125に入力される。
位置ずれ対応パラメータ算出部125の具体的構成と処理について、図6を参照して説明する。
図6に示すように、位置ずれ対応パラメータ算出部125は、第1撮像部107の撮影画像であるW−RAW画像111と、位置合わせ部123が生成した位置合わせ後YUV画像161、すなわち、第1撮像部107の撮影視点から撮影したと同等の位置合わせ後YUV画像161と、センサノイズ特性(σ)113を入力し、これらの入力データに基づいて、偽色補正に利用するための補正パラメータである位置ずれ対応ブレンド率設定パラメータ202を算出して画像補正部126に出力する。
図6に示すように、位置ずれ対応パラメータ算出部125は、第1撮像部107の撮影画像であるW−RAW画像111と、位置合わせ部123が生成した位置合わせ後YUV画像161、すなわち、第1撮像部107の撮影視点から撮影したと同等の位置合わせ後YUV画像161と、センサノイズ特性(σ)113を入力し、これらの入力データに基づいて、偽色補正に利用するための補正パラメータである位置ずれ対応ブレンド率設定パラメータ202を算出して画像補正部126に出力する。
まず、位置ずれ対応パラメータ算出部125の信号変換部171が、位置合わせ後YUV画像161の各画素のYUV信号をW(ホワイト)信号に変換する信号変換処理を実行する。
具体的には、図7に示す式、すなわち、下記式(式4)に従って、YUV信号をW(ホワイト)信号に変換する。
具体的には、図7に示す式、すなわち、下記式(式4)に従って、YUV信号をW(ホワイト)信号に変換する。
なお、上記(式4)において、α0,α1,α2は、分光モデル係数であり、予め規定された変換パラメータである。
位置合わせ後YUV画像161に基づいて信号変換部171が生成したYUV画像ベースW画像162は、第2領域単位画素値加算部173と、乗算部175に出力される。
第2領域単位画素値加算部173は、YUV画像ベースW画像162について、予め規定した画素領域(n×n画素、nは例えば3,5,7,9等)単位で、画素値加算処理を実行し、算出した加算画素値(B)を領域単位画素値比(A/B)算出部174に出力する。
一方、第1領域単位画素値加算部172は、第1撮像部107の撮影画像であるW−RAW画像111について、第2領域単位画素値加算部173で適用した画素領域(n×n画素、nは例えば9)と同じ画素領域単位で、画素値加算処理を実行し、算出した加算画素値(A)を領域単位画素値比(A/B)算出部174に出力する。
領域単位画素値比(A/B)算出部174は、W−RAW画像111の領域単位加算画素値(A)と、YUV画像ベースW画像162の領域単位加算画素値(B)との領域単位加算画素値比(A/B)を算出して乗算部175に出力する。
乗算部175は、信号変換部171が位置合わせ後YUV画像161に基づいて生成したYUV画像ベースW画像162と、領域単位画素値比(A/B)算出部174が算出した領域単位加算画素値比(A/B)を入力する。
乗算部175は、YUV画像ベースW画像162の構成画素の画素値に、領域単位加算画素値比(A/B)を乗算する処理を実行して、画素値を変換する。
なお、各画素の位置が含まれる領域の領域単位加算画素値比(A/B)を組み合わせて乗算処理を実行する。
乗算部175は、YUV画像ベースW画像162の構成画素の画素値に、領域単位加算画素値比(A/B)を乗算する処理を実行して、画素値を変換する。
なお、各画素の位置が含まれる領域の領域単位加算画素値比(A/B)を組み合わせて乗算処理を実行する。
この乗算処理は、YUV画像ベースW画像162の画素値レベルを、第1撮像部107の撮影画像であるW−RAW画像111のW画素の画素値レベルに合わせる処理として実行される。
乗算部175は、このレベル調整により、画素値調整YUV画像ベースW画像163を生成して差分算出部176に出力する。
乗算部175は、このレベル調整により、画素値調整YUV画像ベースW画像163を生成して差分算出部176に出力する。
画素値調整YUV画像ベースW画像163のW画素値は、偽色が発生していない画素領域では、第1撮像部107の撮影画像であるW−RAW画像111のW画素の画素値とほぼ同一になる。
しかし、偽色発生領域においては、画素値調整YUV画像ベースW画像163のW画素値と、W−RAW画像111のW画素の画素値とに差分が発生する。
差分算出部176は、この差分(diff)を検出する。
しかし、偽色発生領域においては、画素値調整YUV画像ベースW画像163のW画素値と、W−RAW画像111のW画素の画素値とに差分が発生する。
差分算出部176は、この差分(diff)を検出する。
差分算出部176は、第1撮像部107の撮影画像であるW−RAW画像111と、乗算部175の出力である画素値調整YUV画像ベースW画像163を入力し、これら2つの画像の同一座標位置の対応画素の画素値の差分を算出する。
算出された各画素対応の差分値からなる差分画像164が、フィルタ処理部177に入力される。
算出された各画素対応の差分値からなる差分画像164が、フィルタ処理部177に入力される。
フィルタ処理部177は、各画素にW−RAW画像111と、画素値調整YUV画像ベースW画像163の画素値の差分値が設定された差分画像164を入力し、この差分画像に対して、所定領域単位(例えばn×n画素、n=3,5,7,9等)でフィルタリング処理を行なう。適用フィルタは、例えば、所定画素領域の画素値の中間値を取得して新たな画素値とするメディアンフィルタである。
差分画素値からなる差分画像164のフィルタリング結果画像は、位置ずれ対応ブレンド率算出部178に入力される。
ブレンド率算出部178は、差分画素値からなる差分画像164のフィルタリング結果画像の各画素値(フィルタリング後の差分画素値)に基づいて、位置ずれ対応ブレンド率設定パラメータ(ratioERR)202を算出して、画像補正部126に出力する。
ブレンド率算出部178は、差分画素値からなる差分画像164のフィルタリング結果画像の各画素値(フィルタリング後の差分画素値)に基づいて、位置ずれ対応ブレンド率設定パラメータ(ratioERR)202を算出して、画像補正部126に出力する。
ブレンド率算出部178が入力する「差分画素値からなる差分画像164のフィルタリング結果画像の各画素値(フィルタリング後の差分画素値)」と、ブレンド率算出部178が出力する「位置ずれ対応ブレンド率設定パラメータ(ratioERR)202」との対応関係を示すグラフの例を図8に示す。
図8に示すグラフは、
横軸が入力値である「差分画素値からなる差分画像164のフィルタリング結果画像の各画素値(フィルタリング後の差分画素値)」、
縦軸が、出力値となる「位置ずれ対応ブレンド率設定パラメータ(ratioERR)202」である。
横軸が入力値である「差分画素値からなる差分画像164のフィルタリング結果画像の各画素値(フィルタリング後の差分画素値)」、
縦軸が、出力値となる「位置ずれ対応ブレンド率設定パラメータ(ratioERR)202」である。
図8に示すグラフは、入出力値の対応関係を示す一例であり、予め設定したしきい値:1σ、3σを用いて、出力値を以下のように規定している。
(a)入力値<σの場合、ブレンド率を示す出力値=0
(b)σ≦入力値<3σの場合、ブレンド率を示す出力値=0〜1の範囲で入力値に比例して増加させる設定、
(c)3σ≦入力値の場合、ブレンド率を示す出力値=1
(a)入力値<σの場合、ブレンド率を示す出力値=0
(b)σ≦入力値<3σの場合、ブレンド率を示す出力値=0〜1の範囲で入力値に比例して増加させる設定、
(c)3σ≦入力値の場合、ブレンド率を示す出力値=1
ブレンド率算出部178は、例えば図8に示す入出力対応関係規定データに従って、入力値である「差分画素値からなる差分画像164のフィルタリング結果画像の各画素値(フィルタリング後の差分画素値)」の値に基づいて、出力値、すなわち、「位置ずれ対応ブレンド率設定パラメータ(ratioERR)202」を算出し、算出値を画像補正部126に出力する。
なお、ブレンド率算出部178の算出する位置ずれ対応ブレンド率設定パラメータ[ratioErr]は0〜1の範囲の値となる。
なお、ブレンド率算出部178の算出する位置ずれ対応ブレンド率設定パラメータ[ratioErr]は0〜1の範囲の値となる。
位置ずれ対応ブレンド率設定パラメータ[ratioErr]は、
位置ずれが大きい(=偽色が多い)画素領域では、大きな値、すなわち、1に近い値となり、
位置ずれが小さい(=偽色が少ない)画素領域では、小さな値、すなわち、0に近い値となる。
位置ずれが大きい(=偽色が多い)画素領域では、大きな値、すなわち、1に近い値となり、
位置ずれが小さい(=偽色が少ない)画素領域では、小さな値、すなわち、0に近い値となる。
なお、基本的にW−RAW画像111と、画素値調整YUV画像ベースW画像163は、位置合わせ後の画像であり、本来、位置ずれは解消されているはずである。しかし、画素位置によって、それぞれの画素値(W画素値)に差分が発生する。この差分は偽色であると考えられ、本来の画素位置の画素値と異なる画素位置に出力されるべき画素とであるとの解釈の下に、「位置ずれ対応パラメータ」として説明している。
従って、「位置ずれが大きい」とは「偽色が多い」ことに相当し、「位置ずれが小さい」とは「偽色が少ない」ことに相当する。
なお、図8に示す入出力値の対応関係例は一例であり、この他の様々な設定が可能である。
従って、「位置ずれが大きい」とは「偽色が多い」ことに相当し、「位置ずれが小さい」とは「偽色が少ない」ことに相当する。
なお、図8に示す入出力値の対応関係例は一例であり、この他の様々な設定が可能である。
[3.画像補正部の実行する画像特性に応じた画像処理について]
次に、図3に示す画像処理部120の画像補正部126の処理について、図9以下を参照して説明する。
図9に示すように、画像補正部126は、以下の各データを入力する。
(a)第1撮像部107の撮影画像であるW−RAW画像111、
(b)位置合わせ部123の生成した位置合わせ後YUV画像161、
(c)周波数対応パラメータ算出部124の生成した周波数対応ブレンド率設定パラメータ[ratioFreq]、
(d)位置ずれ対応パラメータ算出部125の生成した位置ずれ対応ブレンド率設定パラメータ[ratioErr]、
次に、図3に示す画像処理部120の画像補正部126の処理について、図9以下を参照して説明する。
図9に示すように、画像補正部126は、以下の各データを入力する。
(a)第1撮像部107の撮影画像であるW−RAW画像111、
(b)位置合わせ部123の生成した位置合わせ後YUV画像161、
(c)周波数対応パラメータ算出部124の生成した周波数対応ブレンド率設定パラメータ[ratioFreq]、
(d)位置ずれ対応パラメータ算出部125の生成した位置ずれ対応ブレンド率設定パラメータ[ratioErr]、
画像補正部126は、これらのデータを入力し、偽色を低減させた補正画像(YUV画像)の画素値を構成する色差信号UVの出力信号値である補正後UV信号(Uout,Vout)203を生成して、図3に示す画像処理部120内の信号変換部127に出力する。
画像補正部126は、例えば、図9(a)に示す出力信号算出式に従って、補正後UV信号(Uout,Vout)を生成する。
上記(式5)に示すLPFは、ローパスフィルタである。
LPF(U)は、位置合わせ部123の生成した位置合わせ後YUV画像161の画素値信号Uに対するローパスフィルタの適用処理である。
LPF(V)は、位置合わせ部123の生成した位置合わせ後YUV画像161の画素値信号Vに対するローパスフィルタの適用処理である。
LPF(W)は、第1撮像部107の撮影画像であるW−RAW画像111の画素値信号Wに対するローパスフィルタの適用処理である。
LPF(U)は、位置合わせ部123の生成した位置合わせ後YUV画像161の画素値信号Uに対するローパスフィルタの適用処理である。
LPF(V)は、位置合わせ部123の生成した位置合わせ後YUV画像161の画素値信号Vに対するローパスフィルタの適用処理である。
LPF(W)は、第1撮像部107の撮影画像であるW−RAW画像111の画素値信号Wに対するローパスフィルタの適用処理である。
上記(式5)は、具体的には、例えば、以下の画素値補正処理を実行する式である。
例えば(式5)中の補正後U信号(Uout)の算出式に示す「LPF(U)」は、YUV画像161の画素信号Uに対してローパスフィルタを適用して、偽色画素値を周囲画素の画素値によって平滑化して、偽色を低減させる。
しかし、この平滑化によって、画像の「ぼけ」が発生してしまう。このぼけを解消するために、第1撮像部107の撮影画像であるW−RAW画像111の画素値信号Wをブレンドする。すなわち、「W/LPF(W)」を乗算して、画像の「ぼけ」を解消させる。
例えば(式5)中の補正後U信号(Uout)の算出式に示す「LPF(U)」は、YUV画像161の画素信号Uに対してローパスフィルタを適用して、偽色画素値を周囲画素の画素値によって平滑化して、偽色を低減させる。
しかし、この平滑化によって、画像の「ぼけ」が発生してしまう。このぼけを解消するために、第1撮像部107の撮影画像であるW−RAW画像111の画素値信号Wをブレンドする。すなわち、「W/LPF(W)」を乗算して、画像の「ぼけ」を解消させる。
(式5)中の補正後V信号(Vout)の算出式についても同様であり、「LPF(V)」は、YUV画像161の画素信号Vに対してローパスフィルタを適用して、偽色画素値を周囲画素の画素値によって平滑化して、偽色を低減させる。
しかし、この平滑化によって、画像の「ぼけ」が発生してしまう。このぼけを解消するために、第1撮像部107の撮影画像であるW−RAW画像111の画素値信号Wをブレンドする。すなわち、「W/LPF(W)」を乗算して、画像の「ぼけ」を解消させる。
しかし、この平滑化によって、画像の「ぼけ」が発生してしまう。このぼけを解消するために、第1撮像部107の撮影画像であるW−RAW画像111の画素値信号Wをブレンドする。すなわち、「W/LPF(W)」を乗算して、画像の「ぼけ」を解消させる。
なお、図9(a)出力信号算出式や、上記(式5)に示す式は、画像補正部126における補正後UV信号(Uout,Vout)203の算出処理において、
(1)位置合わせ部123の生成した位置合わせ後YUV画像161と、
(2)第1撮像部107の撮影画像であるW−RAW画像111、
これらの2つの画像のブレンド処理が行われることを示している。
(1)位置合わせ部123の生成した位置合わせ後YUV画像161と、
(2)第1撮像部107の撮影画像であるW−RAW画像111、
これらの2つの画像のブレンド処理が行われることを示している。
実際的な処理としては、上記(式5)に示す式に含まれるローパスフィルタ(LPF)を画像特性に応じて切り替えて、補正後UV信号(Uout,Vout)203を算出する。
画像補正部126は、補正後UV信号(Uout,Vout)203を算出する際に、画像領域単位の特性、
(1)周波数特性
(2)位置ずれ特性
これらの特性に応じて、異なるブレンド率、すなわち、位置合わせ後YUV画像161とW−RAW画像111とのブレンド率を変更して、最終的な補正後UV信号(Uout,Vout)203を算出する。
画像補正部126は、補正後UV信号(Uout,Vout)203を算出する際に、画像領域単位の特性、
(1)周波数特性
(2)位置ずれ特性
これらの特性に応じて、異なるブレンド率、すなわち、位置合わせ後YUV画像161とW−RAW画像111とのブレンド率を変更して、最終的な補正後UV信号(Uout,Vout)203を算出する。
このブレンド率を決定するパラメータとなるのが、
(1)周波数対応パラメータ算出部124の生成した周波数対応ブレンド率設定パラメータ[ratioFreq]、
(2)位置ずれ対応パラメータ算出部125の生成した位置ずれ対応ブレンド率設定パラメータ[ratioErr]、
これらのパラメータである。
(1)周波数対応パラメータ算出部124の生成した周波数対応ブレンド率設定パラメータ[ratioFreq]、
(2)位置ずれ対応パラメータ算出部125の生成した位置ずれ対応ブレンド率設定パラメータ[ratioErr]、
これらのパラメータである。
これらのパラメータを用いた具体的な処理例の説明の前に、画像領域単位の画像特性に応じて、画像補正部126が、位置合わせ後YUV画像161とW−RAW画像111とのブレンド率をどのように設定すれるかについて、図10を参照して説明する。
図10には、以下の各データを対応付けて示している。
(a)画像領域の特性
(b)RGBセンサ出力画像とWセンサ出力画像とのブレンド率設定例
なお、(b)に示すRGBセンサ出力画像は、位置合わせ後YUV画像161に相当し、Wセンサ出力画像は、W−RAW画像111に相当する。
(a)画像領域の特性
(b)RGBセンサ出力画像とWセンサ出力画像とのブレンド率設定例
なお、(b)に示すRGBセンサ出力画像は、位置合わせ後YUV画像161に相当し、Wセンサ出力画像は、W−RAW画像111に相当する。
図10には、以下の3種類((1)〜(3))の代表的な画像領域特性を例示している。
(1)周波数=低域、位置ずれ=小
(2)周波数=高域、位置ずれ=小
(3)周波数=低域〜広域、位置ずれ=大
(1)周波数=低域、位置ずれ=小
(2)周波数=高域、位置ずれ=小
(3)周波数=低域〜広域、位置ずれ=大
(1)周波数=低域、位置ずれ=小
この画像特性を有する画像領域は、低周波数領域、すなわち、画素値変化の少ない平坦な画像領域であり、かつ、位置ずれ=小、すなわち、本来の画素位置対応の画素値以外の画素値が出力されている「位置ずれ」(=偽色発生と推定)が小さい画像領域である。
このような画像特性を有する画像領域については、図10の(1)(b)の欄に示すように、RGBセンサ出力画像(位置合わせ後YUV画像161)のブレンド率を高くし、Wセンサ出力画像(W−RAW画像111)のブレンド率を小さくした設定とする。
このような設定のブレンド率に従ったブレンド処理によって、補正後UV信号(Uout,Vout)203を算出する。
この画像特性を有する画像領域は、低周波数領域、すなわち、画素値変化の少ない平坦な画像領域であり、かつ、位置ずれ=小、すなわち、本来の画素位置対応の画素値以外の画素値が出力されている「位置ずれ」(=偽色発生と推定)が小さい画像領域である。
このような画像特性を有する画像領域については、図10の(1)(b)の欄に示すように、RGBセンサ出力画像(位置合わせ後YUV画像161)のブレンド率を高くし、Wセンサ出力画像(W−RAW画像111)のブレンド率を小さくした設定とする。
このような設定のブレンド率に従ったブレンド処理によって、補正後UV信号(Uout,Vout)203を算出する。
(2)周波数=高域、位置ずれ=小
この画像特性を有する画像領域は、高周波数領域、すなわち、画素値変化の激しい画像領域であり、かつ、位置ずれ=小、すなわち、本来の画素位置対応の画素値以外の画素値が出力されている「位置ずれ」(=偽色発生と推定)が小さい画像領域である。
このような画像特性を有する画像領域については、図10の(2)(b)の欄に示すように、RGBセンサ出力画像(位置合わせ後YUV画像161)と、Wセンサ出力画像(W−RAW画像111)のブレンド率を、ほぼ同等にする。
このような設定のブレンド率に従ったブレンド処理によって、補正後UV信号(Uout,Vout)203を算出する。
この画像特性を有する画像領域は、高周波数領域、すなわち、画素値変化の激しい画像領域であり、かつ、位置ずれ=小、すなわち、本来の画素位置対応の画素値以外の画素値が出力されている「位置ずれ」(=偽色発生と推定)が小さい画像領域である。
このような画像特性を有する画像領域については、図10の(2)(b)の欄に示すように、RGBセンサ出力画像(位置合わせ後YUV画像161)と、Wセンサ出力画像(W−RAW画像111)のブレンド率を、ほぼ同等にする。
このような設定のブレンド率に従ったブレンド処理によって、補正後UV信号(Uout,Vout)203を算出する。
(3)周波数=低域〜広域、位置ずれ=大
この画像特性を有する画像領域は、低周波数領域〜高周波領域、すなわち、画素値変化の少ない平坦な画像領域から、高周波数領域、すなわち、画素値変化の激しい画像領域の様々な周波数領域であり、かつ、位置ずれ=大、すなわち、本来の画素位置対応の画素値以外の画素値が出力されている「位置ずれ」(=偽色発生と推定)が大きい画像領域である。
このような画像特性を有する画像領域については、図10の(3)(b)の欄に示すように、RGBセンサ出力画像(位置合わせ後YUV画像161)のブレンド率を小さくし、Wセンサ出力画像(W−RAW画像111)のブレンド率を大きくした設定とする。
このような設定のブレンド率に従ったブレンド処理によって、補正後UV信号(Uout,Vout)203を算出する。
この画像特性を有する画像領域は、低周波数領域〜高周波領域、すなわち、画素値変化の少ない平坦な画像領域から、高周波数領域、すなわち、画素値変化の激しい画像領域の様々な周波数領域であり、かつ、位置ずれ=大、すなわち、本来の画素位置対応の画素値以外の画素値が出力されている「位置ずれ」(=偽色発生と推定)が大きい画像領域である。
このような画像特性を有する画像領域については、図10の(3)(b)の欄に示すように、RGBセンサ出力画像(位置合わせ後YUV画像161)のブレンド率を小さくし、Wセンサ出力画像(W−RAW画像111)のブレンド率を大きくした設定とする。
このような設定のブレンド率に従ったブレンド処理によって、補正後UV信号(Uout,Vout)203を算出する。
図10に示すような画像特性に応じたブレンド率で、位置合わせ後YUV画像161とW−RAW画像111とのブレンド処理を実現するための具体的処理の一例として、先に説明した図9(a)に示す式、すなわち、前述の(式5)として示す出力信号算出式に適用するローパスフィルタ(LPF)を、画像特性に応じて切り替える処理が有効となる。
図11を参照して、前述の(式5)として示す出力信号算出式に適用するローパスフィルタ(LPF)を、画像特性に応じて切り替える処理理の一例について説明する。
図11に示す処理例は、前述の(式5)として示す出力信号算出式に適用するローパスフィルタ(LPF)を、画像特性、すなわち、
(1)周波数対応パラメータ算出部124の生成した周波数対応ブレンド率設定パラメータ[ratioFreq]、
(2)位置ずれ対応パラメータ算出部125の生成した位置ずれ対応ブレンド率設定パラメータ[ratioErr]、
これらのパラメータの値に応じて切り替える処理例について説明する図である。
図11に示す処理例は、前述の(式5)として示す出力信号算出式に適用するローパスフィルタ(LPF)を、画像特性、すなわち、
(1)周波数対応パラメータ算出部124の生成した周波数対応ブレンド率設定パラメータ[ratioFreq]、
(2)位置ずれ対応パラメータ算出部125の生成した位置ずれ対応ブレンド率設定パラメータ[ratioErr]、
これらのパラメータの値に応じて切り替える処理例について説明する図である。
図11には、横軸に、位置ずれ対応パラメータ算出部125の生成した位置ずれ対応ブレンド率設定パラメータ[ratioErr]、縦軸に周波数対応パラメータ算出部124の生成した周波数対応ブレンド率設定パラメータ[ratioFreq]、これらの各軸を設定し、各パラメータの値に応じて利用する3種類の異なるローパスフィルタ(LPF)の適用例を示している。
3つのローパスフィルタ(LPF0〜LPF2)の違いは、カットオフ周波数の差であり、LPF0のカットオフ周波数が最も高く、LPF2のカットオフ周波数が最も低い。
例えば、各ローパスフィルタとして、以下の設定のローパスフィルタが適用可能である。
LPF0は3×3(画素)の移動平均フィルタ、
LPF1は13×13(画素)の移動平均フィルタ、
LPF2は25×25(画素)の移動平均フィルタ、
このような設定の移動平均フィルタを、上記3つのローパスフィルタ(LPF0〜LPF2)として適用することができる。
例えば、各ローパスフィルタとして、以下の設定のローパスフィルタが適用可能である。
LPF0は3×3(画素)の移動平均フィルタ、
LPF1は13×13(画素)の移動平均フィルタ、
LPF2は25×25(画素)の移動平均フィルタ、
このような設定の移動平均フィルタを、上記3つのローパスフィルタ(LPF0〜LPF2)として適用することができる。
なお、移動平均フィルタは、補正対象画素を中心とする画素領域(n×n,n=3,13,25等)の全画素の平均画素値を算出し、その算出画素値を補正画素値として設定する処理である。
例えば、3×3の移動平均フィルタの係数設定は、以下の(式6)に示す設定となる。
例えば、3×3の移動平均フィルタの係数設定は、以下の(式6)に示す設定となる。
上記行列は、補正対象画素を中心とする画素領域(n×n,n=3)にある9個の画素の画素値の平均値を算出して補正対象画素の補正画素値とする処理を行なうローパスフィルタの係数設定である。
LPF0は3×3(画素)の移動平均フィルタ、
LPF1は13×13(画素)の移動平均フィルタ、
LPF2は25×25(画素)の移動平均フィルタ、
このような設定とした場合、LPF0を適用すれば、より小さい画素領域(3×3)を処理単位とした平滑化処理が行われ、LPF1を適用すれば、より画素領域(13×13)を処理単位としたの平滑化処理が行われ、LPF2を適用すれば、より大きい画素領域(25×25)を処理単位とした平滑化処理が行われることになる。
LPF1は13×13(画素)の移動平均フィルタ、
LPF2は25×25(画素)の移動平均フィルタ、
このような設定とした場合、LPF0を適用すれば、より小さい画素領域(3×3)を処理単位とした平滑化処理が行われ、LPF1を適用すれば、より画素領域(13×13)を処理単位としたの平滑化処理が行われ、LPF2を適用すれば、より大きい画素領域(25×25)を処理単位とした平滑化処理が行われることになる。
図11に示す例は、先に図10を参照して説明したと同様、画像特性に応じて異なる処理を実行する例であり、前述の(式5)として示す出力信号算出式に適用するローパスフィルタ(LPF)を、画像特性に応じて切り替える処理例である。
画像特性に応じたローパスフィルタ(LPF)の適用態様は以下の設定となる。
(1)周波数=低域、位置ずれ=小、すなわち、図11に示す領域(1)である。
周波数対応ブレンド率設定パラメータ:ratioFreq<Thf1、
位置ずれ対応ブレンド率設定パラメータ:ratioErr<The1、
これらの条件を満たす領域である。なお、Thはしきい値を示す。
(1)周波数=低域、位置ずれ=小、すなわち、図11に示す領域(1)である。
周波数対応ブレンド率設定パラメータ:ratioFreq<Thf1、
位置ずれ対応ブレンド率設定パラメータ:ratioErr<The1、
これらの条件を満たす領域である。なお、Thはしきい値を示す。
この画像特性を有する画像領域は、低周波数領域、すなわち、画素値変化の少ない平坦な画像領域であり、かつ、位置ずれ=小、すなわち、本来の画素位置対応の画素値以外の画素値が出力されている「位置ずれ」(=偽色発生と推定)が小さい画像領域である。
このような画像特性を有する画像領域については、前述の(式5)の出力信号算出式のLPFとして、カットオフ周波数が最も高いローパスフィルタ(LPF0)を適用して補正後UV信号(Uout,Vout)203を算出する。
このような画像特性を有する画像領域については、前述の(式5)の出力信号算出式のLPFとして、カットオフ周波数が最も高いローパスフィルタ(LPF0)を適用して補正後UV信号(Uout,Vout)203を算出する。
このローパスフィルタ(LPF0)適用処理により、RGBセンサ出力画像(位置合わせ後YUV画像161)のブレンド率を高くし、Wセンサ出力画像(W−RAW画像111)のブレンド率を小さくした設定の補正後UV信号(Uout,Vout)203が算出される。
(2)周波数=高域、位置ずれ=大、すなわち、図11に示す領域(2)である。
周波数対応ブレンド率設定パラメータが、Thf2≦ratioFreq、
位置ずれ対応ブレンド率設定パラメータが、The1≦ratioErr、
これらの条件を満たす領域である。なお、Thはしきい値を示す。
周波数対応ブレンド率設定パラメータが、Thf2≦ratioFreq、
位置ずれ対応ブレンド率設定パラメータが、The1≦ratioErr、
これらの条件を満たす領域である。なお、Thはしきい値を示す。
この画像特性を有する画像領域は、高周波数領域、すなわち、画素値変化の大きい画像領域であり、かつ、位置ずれ=大、すなわち、本来の画素位置対応の画素値以外の画素値が出力されている「位置ずれ」(=偽色発生と推定)が大きい画像領域である。
このような画像特性を有する画像領域については、前述の(式5)の出力信号算出式のLPFとして、カットオフ周波数が最も低いローパスフィルタ(LPF2)を適用して補正後UV信号(Uout,Vout)203を算出する。
このような画像特性を有する画像領域については、前述の(式5)の出力信号算出式のLPFとして、カットオフ周波数が最も低いローパスフィルタ(LPF2)を適用して補正後UV信号(Uout,Vout)203を算出する。
このローパスフィルタ(LPF2)適用処理により、RGBセンサ出力画像(位置合わせ後YUV画像161)のブレンド率を低くし、Wセンサ出力画像(W−RAW画像111)のブレンド率を高くした設定の補正後UV信号(Uout,Vout)203が算出される。
(3)その他の領域、すなわち、図11に示す領域(3)であり(1),(2)以外の領域である。
この画像特性を有する画像領域については、前述の(式5)の出力信号算出式のLPFとして、カットオフ周波数が中程度のローパスフィルタ(LPF1)を適用して補正後UV信号(Uout,Vout)203を算出する。
この画像特性を有する画像領域については、前述の(式5)の出力信号算出式のLPFとして、カットオフ周波数が中程度のローパスフィルタ(LPF1)を適用して補正後UV信号(Uout,Vout)203を算出する。
このローパスフィルタ(LPF0)適用処理により、RGBセンサ出力画像(位置合わせ後YUV画像161)と、Wセンサ出力画像(W−RAW画像111)のブレンド率がほぼ同程度の補正後UV信号(Uout,Vout)203が算出される。
図12は、図11の処理についてまとめた図であり、以下の各データの対応データを示している。
(a)画像領域の特性
(b)パラメータの値
(c)適用フィルタ
(d)補正後UV値(Uout,Vout)
(e)RGBセンサ出力画像と、Wセンサ出力画像とのブレント率設定例
(a)画像領域の特性
(b)パラメータの値
(c)適用フィルタ
(d)補正後UV値(Uout,Vout)
(e)RGBセンサ出力画像と、Wセンサ出力画像とのブレント率設定例
図12のエントリ(1)は、図11に示す領域(1)に対応し、以下の画像特性、および、補正処理態様となる。
(a)画像領域の特性:周波数=低、位置ずれ=小
(b)パラメータの値:周波数対応ブレンド率設定パラメータ=ratioFreq<Thf1、位置ずれ対応ブレンド率設定パラメータ=ratioErr<The1、
(c)適用フィルタ:LPF0、
(d)補正後UV値(Uout,Vout):Uout=U0=LPF0(U)、Vout=V0=LPF0(V)、
(e)RGBセンサ出力画像と、Wセンサ出力画像とのブレント率設定例:RGBセンサ出力>Wセンサ出力、
(a)画像領域の特性:周波数=低、位置ずれ=小
(b)パラメータの値:周波数対応ブレンド率設定パラメータ=ratioFreq<Thf1、位置ずれ対応ブレンド率設定パラメータ=ratioErr<The1、
(c)適用フィルタ:LPF0、
(d)補正後UV値(Uout,Vout):Uout=U0=LPF0(U)、Vout=V0=LPF0(V)、
(e)RGBセンサ出力画像と、Wセンサ出力画像とのブレント率設定例:RGBセンサ出力>Wセンサ出力、
なお、(d)のLPF0(U)、LPF0(V)は、前述の(式5)におけるLPFに、LPF0を適用して、補正後UV信号(Uout,Vout)を算出する処理を示す。
図12のエントリ(3)は、図11に示す領域(3)に対応し、以下の画像特性、および、補正処理態様となる。
(a)画像領域の特性:周波数=高、位置ずれ=大
(b)パラメータの値:周波数対応ブレンド率設定パラメータが、Thf2≦ratioFreq、位置ずれ対応ブレンド率設定パラメータが、The1≦ratioErr、
(c)適用フィルタ:LPF2、
(d)補正後UV値(Uout,Vout):Uout=U2=LPF2(U)、Vout=V2=LPF2(V)、
(e)RGBセンサ出力画像と、Wセンサ出力画像とのブレント率設定例:RGBセンサ出力<Wセンサ出力、
(a)画像領域の特性:周波数=高、位置ずれ=大
(b)パラメータの値:周波数対応ブレンド率設定パラメータが、Thf2≦ratioFreq、位置ずれ対応ブレンド率設定パラメータが、The1≦ratioErr、
(c)適用フィルタ:LPF2、
(d)補正後UV値(Uout,Vout):Uout=U2=LPF2(U)、Vout=V2=LPF2(V)、
(e)RGBセンサ出力画像と、Wセンサ出力画像とのブレント率設定例:RGBセンサ出力<Wセンサ出力、
図12のエントリ(2)は、図11に示す領域(2)に対応し、以下の画像特性、および、補正処理態様となる。
(a)画像領域の特性:(1)、(3)以外、
(b)パラメータの値:(1),(3)以外、
(c)適用フィルタ:LPF1、
(d)補正後UV値(Uout,Vout):Uout=U1=LPF1(U)、Vout=V1=LPF1(V)、
(e)RGBセンサ出力画像と、Wセンサ出力画像とのブレント率設定例:RGBセンサ出力≒Wセンサ出力、
(a)画像領域の特性:(1)、(3)以外、
(b)パラメータの値:(1),(3)以外、
(c)適用フィルタ:LPF1、
(d)補正後UV値(Uout,Vout):Uout=U1=LPF1(U)、Vout=V1=LPF1(V)、
(e)RGBセンサ出力画像と、Wセンサ出力画像とのブレント率設定例:RGBセンサ出力≒Wセンサ出力、
このように画像特性に応じて適用フィルタを変更することで、画像特性に応じたブレンド率、すなわち、RGBセンサ出力画像(位置合わせ後YUV画像161)と、Wセンサ出力画像(W−RAW画像111)とのブレンド率を変更して最終的な補正後UV信号(Uout,Vout)203を算出する。
なお、図11、図12を参照して説明した画像特性に応じたローパスフィルタ(LPF)の適用処理例は一例であり、その他にも、様々な設定が可能である。
例えば図13には、画像特性と、各画像特性に応じて適用する4つの異なるローパスフィルタ(LPF0〜LPF3)の適用領域の例を示している。
4つのローパスフィルタ(LPF0〜LPF3)の違いは、カットオフ周波数の差であり、LPF0のカットオフ周波数が最も高く、LPF3のカットオフ周波数が最も低い。
例えば図13には、画像特性と、各画像特性に応じて適用する4つの異なるローパスフィルタ(LPF0〜LPF3)の適用領域の例を示している。
4つのローパスフィルタ(LPF0〜LPF3)の違いは、カットオフ周波数の差であり、LPF0のカットオフ周波数が最も高く、LPF3のカットオフ周波数が最も低い。
図13に示すように、周波数対応ブレンド率設定パラメータ[ratioFreq]、または、位置ずれ対応ブレンド率設定パラメータ[ratioErr]が、1に近いほど、カットオフ周波数の低いLPF、例えばLPF3等のLPFを適用する。
また、周波数対応ブレンド率設定パラメータ[ratioFreq]、または、位置ずれ対応ブレンド率設定パラメータ[ratioErr]が、0に近いほど、カットオフ周波数の高いLPF、例えばLPF0等のLPFを適用する。
また、周波数対応ブレンド率設定パラメータ[ratioFreq]、または、位置ずれ対応ブレンド率設定パラメータ[ratioErr]が、0に近いほど、カットオフ周波数の高いLPF、例えばLPF0等のLPFを適用する。
図14には、さらに異なる領域対応フィルタ適用例を示している。図14には、画像特性と、各画像特性に応じて適用する5つの異なるローパスフィルタ(LPF0〜LPF4)の適用領域の例を示している。
5つのローパスフィルタ(LPF0〜LPF4)の違いは、カットオフ周波数の差であり、LPF0のカットオフ周波数が最も高く、LPF4のカットオフ周波数が最も低い。
5つのローパスフィルタ(LPF0〜LPF4)の違いは、カットオフ周波数の差であり、LPF0のカットオフ周波数が最も高く、LPF4のカットオフ周波数が最も低い。
図14に示すように、周波数対応ブレンド率設定パラメータ[ratioFreq]、または、位置ずれ対応ブレンド率設定パラメータ[ratioErr]が、1に近いほど、カットオフ周波数の低いLPF、例えばLPF4等のLPFを適用する。
また、周波数対応ブレンド率設定パラメータ[ratioFreq]、または、位置ずれ対応ブレンド率設定パラメータ[ratioErr]が、0に近いほど、カットオフ周波数の高いLPF、例えばLPF0等のLPFを適用する。
また、周波数対応ブレンド率設定パラメータ[ratioFreq]、または、位置ずれ対応ブレンド率設定パラメータ[ratioErr]が、0に近いほど、カットオフ周波数の高いLPF、例えばLPF0等のLPFを適用する。
[4.画像特性に応じて複数の異なるローパスフィルタを組み合わせて利用した画像処理について]
次に、図15以下を参照して、画像補正部126において実行する補正後UV信号(Uout,Vout)203の生成処理のもう1つの実施例について説明する。
以下に説明する実施例は、画像特性に応じて、複数の異なるローパスフィルタを組み合わせて利用した画像処理を行なう例である。
次に、図15以下を参照して、画像補正部126において実行する補正後UV信号(Uout,Vout)203の生成処理のもう1つの実施例について説明する。
以下に説明する実施例は、画像特性に応じて、複数の異なるローパスフィルタを組み合わせて利用した画像処理を行なう例である。
以下に説明する処理例は、上述した画像領域単位の画像特性に応じた画像のブレンド処理を実現する具体的な処理例の1つである。すなわち、画像補正部126において実行する補正後UV信号(Uout,Vout)203の生成処理の1つの具体例であり、画像特性に応じて、複数の異なるローパスフィルタを組み合わせて利用した処理例である。
図15に示すように、画像補正部126は、以下の各データを入力する。
(a)第1撮像部107の撮影画像であるW−RAW画像111、
(b)位置合わせ部123の生成した位置合わせ後YUV画像161、
(c)周波数対応パラメータ算出部124の生成した周波数対応ブレンド率設定パラメータ[ratioFreq]、
(d)位置ずれ対応パラメータ算出部125の生成した位置ずれ対応ブレンド率設定パラメータ[ratioErr]、
(a)第1撮像部107の撮影画像であるW−RAW画像111、
(b)位置合わせ部123の生成した位置合わせ後YUV画像161、
(c)周波数対応パラメータ算出部124の生成した周波数対応ブレンド率設定パラメータ[ratioFreq]、
(d)位置ずれ対応パラメータ算出部125の生成した位置ずれ対応ブレンド率設定パラメータ[ratioErr]、
画像補正部126は、これらのデータを入力し、偽色を低減させた補正画像(YUV画像)の画素値を構成する色差信号UVの出力信号値である補正後UV信号(Uout,Vout)203を生成して、図3に示す画像処理部120内の信号変換部127に出力する。
画像補正部126は、例えば、図15(a)に示す出力信号算出式に従って、補正後UV信号(Uout,Vout)を生成する。
図15(a)に示す出力信号算出式は、先に説明した(式5)、すなわち、図9(a)に示す出力信号算出式をベースとして作成された式である。
図15(a)に示す出力信号算出式は、周波数対応ブレンド率設定パラメータ[ratioFreq]と、位置ずれ対応ブレンド率設定パラメータ[ratioErr]を適用して画像領域特性に応じて画像のブレンド率を変更して、補正後UV信号(Uout,Vout)を生成するための式となる。
図15(a)に示す出力信号算出式は、先に説明した(式5)、すなわち、図9(a)に示す出力信号算出式をベースとして作成された式である。
図15(a)に示す出力信号算出式は、周波数対応ブレンド率設定パラメータ[ratioFreq]と、位置ずれ対応ブレンド率設定パラメータ[ratioErr]を適用して画像領域特性に応じて画像のブレンド率を変更して、補正後UV信号(Uout,Vout)を生成するための式となる。
画像補正部126は、図15(a)に示す出力信号算出式、すなわち、以下に示す(式7)に従って、補正後UV信号(Uout,Vout)を生成する。
なお、上記(式7)において、
U0,U1,U2、およびV0,V1,V2は、複数の異なるローパスフィルタ(LPF)を適用した画素値変換結果として得られるUV値である。
U0,U1,U2、およびV0,V1,V2は、複数の異なるローパスフィルタ(LPF)を適用した画素値変換結果として得られるUV値である。
図16を参照して、上記(式7)の具体的な構成について説明する。
図16(a)は、図15(a)に示す式と同様の式、すなわち上記(式7)に示す補正後UV信号(Uout,Vout)算出式である。
図16(a)は、図15(a)に示す式と同様の式、すなわち上記(式7)に示す補正後UV信号(Uout,Vout)算出式である。
図16(b),(c)を参照して、図16(a)に示す式のU0,U1,U2、およびV0,V1,V2について説明する。
図16(b)に示すように、Un,Vn(n=0〜3)は、以下の(式8)によって算出される。
図16(b)に示すように、Un,Vn(n=0〜3)は、以下の(式8)によって算出される。
上記(式8)は、先に説明した(式5)、すなわち、図9(a)を参照して説明した出力信号算出式と同様の2つの画像、すなわち、
(a)第1撮像部107の撮影画像であるW−RAW画像111、
(b)位置合わせ部123の生成した位置合わせ後YUV画像161、
これらの画像のブレンド処理を実行する式である。
(a)第1撮像部107の撮影画像であるW−RAW画像111、
(b)位置合わせ部123の生成した位置合わせ後YUV画像161、
これらの画像のブレンド処理を実行する式である。
しかし、Un,Vn(n=0〜3)のnの値によって適用するローパスフィルタが異なる。
U0,V0は、ローパスフィルタLPF0を、入力データである位置合わせ部123の生成した位置合わせ後YUV画像161のUV画素値に適用して得られるUV値である。
U1,V1は、ローパスフィルタLPF1を、入力データである位置合わせ部123の生成した位置合わせ後YUV画像161のUV画素値に適用して得られるUV値である。
U2,V2は、ローパスフィルタLPF2を、入力データである位置合わせ部123の生成した位置合わせ後YUV画像161のUV画素値に適用して得られるUV値である。
U0,V0は、ローパスフィルタLPF0を、入力データである位置合わせ部123の生成した位置合わせ後YUV画像161のUV画素値に適用して得られるUV値である。
U1,V1は、ローパスフィルタLPF1を、入力データである位置合わせ部123の生成した位置合わせ後YUV画像161のUV画素値に適用して得られるUV値である。
U2,V2は、ローパスフィルタLPF2を、入力データである位置合わせ部123の生成した位置合わせ後YUV画像161のUV画素値に適用して得られるUV値である。
これらのローパスフィルタについて、図16(c)を参照して説明する。
図16(c)に示すように、入力データである位置合わせ部123の生成した位置合わせ後YUV画像161のUV画素値と、ローパスフィルタ(LPF0〜LPF2)の適用結果として得られるフィルタ処理後のUV値(U0,U1,U2、およびV0,V1,V2)との対応関係は、以下の通りである。
図16(c)に示すように、入力データである位置合わせ部123の生成した位置合わせ後YUV画像161のUV画素値と、ローパスフィルタ(LPF0〜LPF2)の適用結果として得られるフィルタ処理後のUV値(U0,U1,U2、およびV0,V1,V2)との対応関係は、以下の通りである。
U0=LPF0(U)
V0=LPF0(V)
U1=LPF1(U)
V1=LPF1(V)
U2=LPF2(U)
V2=LPF2(V)
V0=LPF0(V)
U1=LPF1(U)
V1=LPF1(V)
U2=LPF2(U)
V2=LPF2(V)
3つのローパスフィルタ(LPF0〜LPF2)の違いは、カットオフ周波数の差であり、LPF0のカットオフ周波数が最も高く、LPF2のカットオフ周波数が最も低い。
例えば、各ローパスフィルタとして、以下の設定のローパスフィルタが適用可能である。
LPF0は3×3(画素)の移動平均フィルタ、
LPF1は13×13(画素)の移動平均フィルタ、
LPF2は25×25(画素)の移動平均フィルタ、
このような設定の移動平均フィルタを、上記3つのローパスフィルタ(LPF0〜LPF2)として適用することができる。
例えば、各ローパスフィルタとして、以下の設定のローパスフィルタが適用可能である。
LPF0は3×3(画素)の移動平均フィルタ、
LPF1は13×13(画素)の移動平均フィルタ、
LPF2は25×25(画素)の移動平均フィルタ、
このような設定の移動平均フィルタを、上記3つのローパスフィルタ(LPF0〜LPF2)として適用することができる。
なお、前述したように、移動平均フィルタは、補正対象画素を中心とする画素領域(n×n,n=3,13,25等)の全画素の平均画素値を算出し、その算出画素値を補正画素値として設定する処理である。
例えば、3×3の移動平均フィルタの係数設定は、先に説明した(式6)に示す設定となる。
例えば、3×3の移動平均フィルタの係数設定は、先に説明した(式6)に示す設定となる。
以下の設定の3種類のローパスフィルタ(LPF)、すなわち、
LPF0は3×3(画素)の移動平均フィルタ、
LPF1は13×13(画素)の移動平均フィルタ、
LPF2は25×25(画素)の移動平均フィルタ、
このような設定のローパスフィルタを画像に適用することで、以下のような平滑化処理が実行される。
LPF0は3×3(画素)の移動平均フィルタ、
LPF1は13×13(画素)の移動平均フィルタ、
LPF2は25×25(画素)の移動平均フィルタ、
このような設定のローパスフィルタを画像に適用することで、以下のような平滑化処理が実行される。
LPF0を適用すれば、より小さい画素領域(3×3)を処理単位とした平滑化処理が行われ、LPF1を適用すれば、より画素領域(13×13)を処理単位としたの平滑化処理が行われ、LPF2を適用すれば、より大きい画素領域(25×25)を処理単位とした平滑化処理が行われることになる。
前述したように、
周波数対応ブレンド率設定パラメータ[ratioFreq]は、
画素値が細かく変化する高周波領域では大きな値、すなわち1に近い値となり、、
画素値の変化が少ない平坦な画像領域、すなわち低周波領域では小さな値、すなわち0に近い値となる。
また、位置ずれ対応ブレンド率設定パラメータ[ratioErr]は、
位置ずれが大きい(=偽色が多い)画素領域では、大きな値、すなわち、1に近い値となり、
位置ずれが小さい(=偽色が少ない)画素領域では、小さな値、すなわち、0に近い値となる。
周波数対応ブレンド率設定パラメータ[ratioFreq]は、
画素値が細かく変化する高周波領域では大きな値、すなわち1に近い値となり、、
画素値の変化が少ない平坦な画像領域、すなわち低周波領域では小さな値、すなわち0に近い値となる。
また、位置ずれ対応ブレンド率設定パラメータ[ratioErr]は、
位置ずれが大きい(=偽色が多い)画素領域では、大きな値、すなわち、1に近い値となり、
位置ずれが小さい(=偽色が少ない)画素領域では、小さな値、すなわち、0に近い値となる。
例えば、上記(式7)、すなわち、
Uout=(1−ratioErr)((1−ratioFreq)×U0+ratioFreq×U1)+ratioErr×U2
Vout=(1−ratioErr)((1−ratioFreq)×V0+ratioFreq×V1)+ratioErr×V2
・・・・・(式7)
Uout=(1−ratioErr)((1−ratioFreq)×U0+ratioFreq×U1)+ratioErr×U2
Vout=(1−ratioErr)((1−ratioFreq)×V0+ratioFreq×V1)+ratioErr×V2
・・・・・(式7)
上記(式7)に従って算出される補正後UV信号(Uout,Vout)が、画像特性に応じてどのように設定されるかについて、図17を参照して説明する。
図17には、横軸に位置ずれ(偽色量に相当)、縦軸に周波数の各軸を示し、かつ、代表的な複数の画像特性に応じた領域例1〜7を示している。
以下、領域例1〜7に対応する画像特性(位置ずれと周波数)に応じて、上記(式7)に従って算出される補正後UV信号(Uout,Vout)が、どのような設定となるかについて、説明する。
図17には、横軸に位置ずれ(偽色量に相当)、縦軸に周波数の各軸を示し、かつ、代表的な複数の画像特性に応じた領域例1〜7を示している。
以下、領域例1〜7に対応する画像特性(位置ずれと周波数)に応じて、上記(式7)に従って算出される補正後UV信号(Uout,Vout)が、どのような設定となるかについて、説明する。
(領域例1)位置ずれが少ない(偽色が少ない)画素領域:ratioErr=0、かつ、低周波領域:ratioFreq=0
このように、位置ずれが少なく、かつ画素値の変化が少ない低周波領域では、
Uout=U0
Vout=V0
上記設定となる。
すなわち、3つのローパスフィルタ(LPF0,LPF1,LPF2)の中で、最も高いカットオフ周波数を持つLPF0を、入力UV値(U,V)に適用した画素値が、補正後UV信号(Uout,Vout)として設定される。
このように、位置ずれが少なく、かつ画素値の変化が少ない低周波領域では、
Uout=U0
Vout=V0
上記設定となる。
すなわち、3つのローパスフィルタ(LPF0,LPF1,LPF2)の中で、最も高いカットオフ周波数を持つLPF0を、入力UV値(U,V)に適用した画素値が、補正後UV信号(Uout,Vout)として設定される。
(領域例2)位置ずれが中程度(偽色が中程度)の画素領域:ratioErr=0.5、かつ、低周波領域:ratioFreq=0
このように、位置ずれが中程度であり、かつ画素値の変化が少ない低周波領域では、
Uout=0.5×U0+0,5×U2
Vout=0.5×V0+0.5×V2
上記設定となる。
すなわち、3つのローパスフィルタ(LPF0,LPF1,LPF2)の中で、最も高いカットオフ周波数を持つLPF0を、入力UV値(U,V)に適用した画素値と、最も低いカットオフ周波数を持つLPF2を、入力UV値(U,V)に適用した画素値との平均値が、補正後UV信号(Uout,Vout)として設定される。
このように、位置ずれが中程度であり、かつ画素値の変化が少ない低周波領域では、
Uout=0.5×U0+0,5×U2
Vout=0.5×V0+0.5×V2
上記設定となる。
すなわち、3つのローパスフィルタ(LPF0,LPF1,LPF2)の中で、最も高いカットオフ周波数を持つLPF0を、入力UV値(U,V)に適用した画素値と、最も低いカットオフ周波数を持つLPF2を、入力UV値(U,V)に適用した画素値との平均値が、補正後UV信号(Uout,Vout)として設定される。
(領域例3)位置ずれが大きい(偽色が多い)画素領域:ratioErr=1、かつ、低周波領域〜高周波領域:ratioFreq=0〜1
このように、位置ずれが大きい画素領域では、低周波〜高周波の全領域で、
Uout=U2
Vout=V2
上記設定となる。
すなわち、3つのローパスフィルタ(LPF0,LPF1,LPF2)の中で、最も低いカットオフ周波数を持つLPF2を、入力UV値(U,V)に適用した画素値が、補正後UV信号(Uout,Vout)として設定される。
このように、位置ずれが大きい画素領域では、低周波〜高周波の全領域で、
Uout=U2
Vout=V2
上記設定となる。
すなわち、3つのローパスフィルタ(LPF0,LPF1,LPF2)の中で、最も低いカットオフ周波数を持つLPF2を、入力UV値(U,V)に適用した画素値が、補正後UV信号(Uout,Vout)として設定される。
(領域例4)位置ずれが少ない(偽色が少ない)画素領域:ratioErr=0、かつ、中程度の周波数領域:ratioFreq=0.5
このように、位置ずれが少なく、かつ画素値の変化が中程度の周波数領域では、
Uout=0.5×U0+0.5×U1
Vout=0.5×V0+0.5×V1
すなわち、3つのローパスフィルタ(LPF0,LPF1,LPF2)の中で、最も高いカットオフ周波数を持つLPF0を、入力UV値(U,V)に適用した画素値と、中程度のカットオフ周波数を持つLPF1を、入力UV値(U,V)に適用した画素値との平均値が、補正後UV信号(Uout,Vout)として設定される。
このように、位置ずれが少なく、かつ画素値の変化が中程度の周波数領域では、
Uout=0.5×U0+0.5×U1
Vout=0.5×V0+0.5×V1
すなわち、3つのローパスフィルタ(LPF0,LPF1,LPF2)の中で、最も高いカットオフ周波数を持つLPF0を、入力UV値(U,V)に適用した画素値と、中程度のカットオフ周波数を持つLPF1を、入力UV値(U,V)に適用した画素値との平均値が、補正後UV信号(Uout,Vout)として設定される。
(領域例5)位置ずれが中程度(偽色が中程度)の画素領域:ratioErr=0.5、かつ、中程度の周波数領域:ratioFreq=0.5
このように、位置ずれが中程度で、かつ画素値の変化が中程度の周波数領域では、
Uout=0.5×(0.5×U0+0.5×U1)+0.5×U2
Vout=0.5×(0.5×V0+0.5×V1)+0.5×V2
上記設定となる。
このように、位置ずれが中程度で、かつ画素値の変化が中程度の周波数領域では、
Uout=0.5×(0.5×U0+0.5×U1)+0.5×U2
Vout=0.5×(0.5×V0+0.5×V1)+0.5×V2
上記設定となる。
すなわち、3つのローパスフィルタ(LPF0,LPF1,LPF2)の中で、最も高いカットオフ周波数を持つLPF0を、入力UV値(U,V)に適用した画素値と、中程度のカットオフ周波数を持つLPF1を、入力UV値(U,V)に適用した画素値との平均値と、最も低いカットオフ周波数を持つLPF2を、入力UV値(U,V)に適用した画素値との平均値が、補正後UV信号(Uout,Vout)として設定される。
(領域例6)位置ずれが少ない(偽色が少ない)画素領域:ratioErr=0、かつ、高周波領域:ratioFreq=1
このように、位置ずれが少なく、かつ画素値が細かく変化する高周波領域では、
Uout=U1
Vout=V1
上記設定となる。
すなわち、3つのローパスフィルタ(LPF0,LPF1,LPF2)の中で、中程度のカットオフ周波数を持つLPF1を、入力UV値(U,V)に適用した画素値が、補正後UV信号(Uout,Vout)として設定される。
このように、位置ずれが少なく、かつ画素値が細かく変化する高周波領域では、
Uout=U1
Vout=V1
上記設定となる。
すなわち、3つのローパスフィルタ(LPF0,LPF1,LPF2)の中で、中程度のカットオフ周波数を持つLPF1を、入力UV値(U,V)に適用した画素値が、補正後UV信号(Uout,Vout)として設定される。
(領域例7)位置ずれが中程度(偽色が中程度)の画素領域:ratioErr=0.5、かつ、高周波領域:ratioFreq=1
このように、位置ずれが中程度で、かつ画素値が細かく変化する高周波領域では、
Uout=0.5×U1+0.5×U2
Vout=0.5×V1+0.5×V2
すなわち、3つのローパスフィルタ(LPF0,LPF1,LPF2)の中で、中程度のカットオフ周波数を持つLPF1を、入力UV値(U,V)に適用した画素値と、最も低いカットオフ周波数を持つLPF2を、入力UV値(U,V)に適用した画素値との平均値が、補正後UV信号(Uout,Vout)として設定される。
このように、位置ずれが中程度で、かつ画素値が細かく変化する高周波領域では、
Uout=0.5×U1+0.5×U2
Vout=0.5×V1+0.5×V2
すなわち、3つのローパスフィルタ(LPF0,LPF1,LPF2)の中で、中程度のカットオフ周波数を持つLPF1を、入力UV値(U,V)に適用した画素値と、最も低いカットオフ周波数を持つLPF2を、入力UV値(U,V)に適用した画素値との平均値が、補正後UV信号(Uout,Vout)として設定される。
本実施例において、画像補正部126は、このように、図15(a)に示す出力信号算出式(式7)に従って、補正後UV信号(Uout,Vout)203を生成する。
補正後UV信号(Uout,Vout)203の生成処理に際して、画像補正部126が領域の特徴に応じて実行する処理との対応をまとめると以下のようになる。
補正後UV信号(Uout,Vout)203の生成処理に際して、画像補正部126が領域の特徴に応じて実行する処理との対応をまとめると以下のようになる。
位置ずれが多い(偽色が多いと推定される)領域では、カットオフ周波数の低いローパスフィルタLPF2を用いて、より広範囲の周囲画素(例えば25×25画素)の画素値に基づいて平滑化する処理を実行する。
位置ずれが少ない(偽色が少ないと推定される)領域では、
高周波成分の多い領域では、カットオフ周波数が中程度のローパスフィルタLPF1を用いて、中程度の範囲の周囲画素(例えば13×13画素)の画素値に基づいて平滑化する処理を実行する。
また、高周波成分の少ない低周波領域では、カットオフ周波数が高いローパスフィルタLPF0を用いて、小さい範囲の周囲画素(例えば3×3画素)の画素値に基づいて平滑化する処理を実行する。
高周波成分の多い領域では、カットオフ周波数が中程度のローパスフィルタLPF1を用いて、中程度の範囲の周囲画素(例えば13×13画素)の画素値に基づいて平滑化する処理を実行する。
また、高周波成分の少ない低周波領域では、カットオフ周波数が高いローパスフィルタLPF0を用いて、小さい範囲の周囲画素(例えば3×3画素)の画素値に基づいて平滑化する処理を実行する。
位置ずれが中程度(偽色がややあると推定される)領域では、上記の位置ずれが多い(偽色が多いと推定される)領域に対する処理と、位置ずれが少ない(偽色が少ないと推定される)領域に対する処理との中間的な処理を実行する。
画像補正部126は、このように画像領域の特性に応じて補正後UV信号(Uout,Vout)203を生成し、生成信号を、図3に示す画像処理部120内の信号変換部127に出力する。
信号変換部127は、画像補正部126の生成した補正後UV信号(Uout,Vout)203と、第1撮像部107の撮影画像であるW−RAW画像111を入力する。
信号変換部127は、これらの入力信号に基づいてく信号変換を実行して、RGB画像150を生成して出力する。
信号変換部127は、これらの入力信号に基づいてく信号変換を実行して、RGB画像150を生成して出力する。
信号変換部127は、W−RAW画像111のW信号Y(輝度)信号とし、補正後UV信号(Uout,Vout)203のUV信号との組み合わせからなるYUV信号をRGB信号に変換する処理を実行する。
この信号変換処理は、既存の変換式に従って行われる。
この信号変換処理は、既存の変換式に従って行われる。
信号変換部127の生成したRGB画像150は、例えば表示部に表示される。あるいは、記憶部に格納される。あるいは、外部の他の情報処理装置に出力される。
なお、記憶部格納処理や、外部出力処理の前処理として圧縮処理等の符号化処理を実行する場合もある。
なお、YUV信号からRGB信号への必須ではなく、YUV信号のまま、表示装置への出力、記憶部に対する格納、あるいは外部出力を行う構成としてもよい。
なお、記憶部格納処理や、外部出力処理の前処理として圧縮処理等の符号化処理を実行する場合もある。
なお、YUV信号からRGB信号への必須ではなく、YUV信号のまま、表示装置への出力、記憶部に対する格納、あるいは外部出力を行う構成としてもよい。
[5.画像処理装置の実行する画像処理の処理シーケンスについて]
次に、図18に示すフローチャートを参照して画像処理装置の実行する画像処理の処理シーケンスについて説明する。
次に、図18に示すフローチャートを参照して画像処理装置の実行する画像処理の処理シーケンスについて説明する。
図18に示すフローチャートは、例えば記憶部に格納された処理プログラムに従った処理を実行するCPU等を備えた制御部(データ処理部)の制御の下で実行される。
以下、図18に示す各ステップの処理について、順次、説明する。
以下、図18に示す各ステップの処理について、順次、説明する。
(ステップS101a,101b)
ステップS101a,101bは、画像撮影処理である。
図1に示す撮像部106の第1撮像部107と、第2撮像部108において2枚の画像が撮影される。
ステップS101aは、先に図2(a)を参照して説明したベイヤ配列等のRGB画素配列を持つ撮像素子を有する第2撮像部108において実行されるRGB画像の撮影処理である。
ステップS101a,101bは、画像撮影処理である。
図1に示す撮像部106の第1撮像部107と、第2撮像部108において2枚の画像が撮影される。
ステップS101aは、先に図2(a)を参照して説明したベイヤ配列等のRGB画素配列を持つ撮像素子を有する第2撮像部108において実行されるRGB画像の撮影処理である。
ステップS101bは、先に図2(b)を参照して説明したホワイト(W)画素配列を持つ撮像素子を有する第1撮像部107において実行れるホワイト(W)画像の撮影処理である。
(ステップS102)
次に、ステップS102において、ステップS101aで第2撮像部108が撮影したRGB画像の現像処理を実行する。
次に、ステップS102において、ステップS101aで第2撮像部108が撮影したRGB画像の現像処理を実行する。
この処理は、図3に示す画像処理部120の現像処理部121において実行される。
先に説明したように、現像処理部121は、第2撮像部108から入力するRGB−RAW画像112に対する現像処理を実行する。具体的には、例えば以下の処理を実行する。
(a)撮像素子を構成する回路に基づいて発生するDCオフセットやノイズ信号に基づくオフセット成分を除去するクランプ処理、
(b)RGB−RAW画像の各画素に設定されたRGBの単一信号値に基づいて、各画素にRGBの3信号を設定するデモザイク処理、
(c)白の被写体に対するRGB値を揃えるホワイトバランス処理、
(d)RGB値のYUV値への変換処理、
これらの処理を実行する。
先に説明したように、現像処理部121は、第2撮像部108から入力するRGB−RAW画像112に対する現像処理を実行する。具体的には、例えば以下の処理を実行する。
(a)撮像素子を構成する回路に基づいて発生するDCオフセットやノイズ信号に基づくオフセット成分を除去するクランプ処理、
(b)RGB−RAW画像の各画素に設定されたRGBの単一信号値に基づいて、各画素にRGBの3信号を設定するデモザイク処理、
(c)白の被写体に対するRGB値を揃えるホワイトバランス処理、
(d)RGB値のYUV値への変換処理、
これらの処理を実行する。
(ステップS103)
次に、ステップS103において動きベクトル(MV)の検出処理を実行する。
この処理は、図3に示す画像処理部120の動きベクトル検出部122において実行される。
動きベクトル検出部122は、第1撮像部107からW画像111を入力するとともに、現像処理部121が、第2撮像部108の撮影画像であるRGB−RAW画像112に基づいて生成した、YUV画像130中のY信号(輝度信号)を入力する。
動きベクトル検出部122は、これらの2つの信号(W信号,Y信号)に基づいて、2つの画像の位置ずれに相当する動きベクトル(MV:Motion Vector)を検出する。
次に、ステップS103において動きベクトル(MV)の検出処理を実行する。
この処理は、図3に示す画像処理部120の動きベクトル検出部122において実行される。
動きベクトル検出部122は、第1撮像部107からW画像111を入力するとともに、現像処理部121が、第2撮像部108の撮影画像であるRGB−RAW画像112に基づいて生成した、YUV画像130中のY信号(輝度信号)を入力する。
動きベクトル検出部122は、これらの2つの信号(W信号,Y信号)に基づいて、2つの画像の位置ずれに相当する動きベクトル(MV:Motion Vector)を検出する。
前述したように、図1に示す画像処理装置100の撮像部106に構成される第1撮像部107と、第2撮像部108は、所定間隔離れた位置に設定される2つの撮像部であり、それぞれの撮影画像は異なる視点からの画像となる。すなわち、視差を持つ画像となる。
従って、2つの画像の対応画素、すなわち同一位置の画素には同一の被写体画像が撮影されず、視差に応じた被写体ずれが発生する。
従って、2つの画像の対応画素、すなわち同一位置の画素には同一の被写体画像が撮影されず、視差に応じた被写体ずれが発生する。
動きベクトル検出部122は、これらの2つの信号(W信号,Y信号)に基づいて、2つの画像の位置ずれに相当する動きベクトル(MV:Motion Vector)を検出する。
具体的には、2つの画像(W画像、Y画像)の対応点をもとめ、その対応点を結ぶベクトルを動きベクトル(MV)として算出する。
動きベクトル検出部122の生成した動きベクトル(MV)は、位置合わせ部123に入力される。
具体的には、2つの画像(W画像、Y画像)の対応点をもとめ、その対応点を結ぶベクトルを動きベクトル(MV)として算出する。
動きベクトル検出部122の生成した動きベクトル(MV)は、位置合わせ部123に入力される。
(ステップS104)
次に、ステップS104において位置合わせ処理を実行する。
この処理は、図3に示す画像処理部120の位置合わせ部123の実行する処理である。
次に、ステップS104において位置合わせ処理を実行する。
この処理は、図3に示す画像処理部120の位置合わせ部123の実行する処理である。
位置合わせ部123は、動きベクトル検出部122の生成した動きベクトル(MV)を入力するとともに、現像処理部121が、RGB−RAW画像112に基づいて生成したYUV画像130を入力する。
位置合わせ部123は、YUV画像130を、動きベクトル(MV)の大きさと方向に従って各画素位置を移動させて、W画像、すなわち、第1撮像部107の撮影画像であるW−RAW画像111と同一視点位置から撮影されたと同様のYUV画像を生成する。
この処理によって、YUV画像130は、第1撮像部107と同一視点から撮影されたとみなされるYUV画像に変換される。
位置合わせ部123は、YUV画像130を、動きベクトル(MV)の大きさと方向に従って各画素位置を移動させて、W画像、すなわち、第1撮像部107の撮影画像であるW−RAW画像111と同一視点位置から撮影されたと同様のYUV画像を生成する。
この処理によって、YUV画像130は、第1撮像部107と同一視点から撮影されたとみなされるYUV画像に変換される。
(ステップS105)
次に、ステップS105において、周波数対応パラメータ算出処理を実行する。
この処理は、図3に示す画像処理部120の周波数対応パラメータ算出部124の実行する処理である。
次に、ステップS105において、周波数対応パラメータ算出処理を実行する。
この処理は、図3に示す画像処理部120の周波数対応パラメータ算出部124の実行する処理である。
先に図4を参照して説明したように、周波数対応パラメータ算出部124は、第1撮像部107の撮影画像であるW−RAW画像111と、センサノイズ特性(σ)113を入力し、これらの入力データに基づいて、偽色補正に利用するための補正パラメータである周波数対応ブレンド率設定パラメータを算出して画像補正部126に出力する。
周波数対応パラメータ算出部124は、先にら図5を参照して説明したように、第1撮像部107の撮影画像であるW−RAW画像111を構成する全画素について、周波数対応ブレンド率設定パラメータ[ratioFreq]を算出し、算出パラメータを、画像補正部126に入力する。
(ステップS106)
次に、ステップS106において、位置ずれ対応パラメータ算出処理を実行する。
この処理は、図3に示す画像処理部120の位置ずれ対応パラメータ算出部125の実行する処理である。
次に、ステップS106において、位置ずれ対応パラメータ算出処理を実行する。
この処理は、図3に示す画像処理部120の位置ずれ対応パラメータ算出部125の実行する処理である。
先に図3、図6〜図8を参照して説明したように、位置ずれ対応パラメータ算出部125は、第1撮像部107の撮影画像であるW−RAW画像111と、位置合わせ部123が生成した位置合わせ後のYUV画像、すなわち、第1撮像部107の撮影視点から撮影したと同等のYUV画像と、センサノイズ特性(σ)113を入力し、これらの入力データに基づいて、偽色補正に利用するための補正パラメータである位置ずれ対応ブレンド率設定パラメータを算出して画像補正部126に出力する。
なお、第1撮像部107の撮影画像であるW−RAW画像111と、位置合わせ部123が生成した位置合わせ後のYUV画像は、本来、位置ずれは解消されているはずである。しかし、画素位置によって、それぞれの画素値(W画素値)に差分が発生する。この差分は偽色であると考えられ、本来の画素位置の画素値と異なる画素位置に出力されるべき画素とであるとの解釈の下に、「位置ずれ対応パラメータ」として説明している。
従って、「位置ずれが大きい」とは「偽色が多い」ことに相当し、「位置ずれが小さい」とは「偽色が少ない」ことに相当する。
従って、「位置ずれが大きい」とは「偽色が多い」ことに相当し、「位置ずれが小さい」とは「偽色が少ない」ことに相当する。
位置ずれ対応パラメータ算出部125は、先に説明した図6の構成に従い、位置ずれ対応ブレンド率設定パラメータ[ratioErr]を算出する。
位置ずれ対応ブレンド率設定パラメータ[ratioErr]は、
位置ずれが大きい(=偽色が多い)画素領域では、大きな値、すなわち、1に近い値となり、
位置ずれが小さい(=偽色が少ない)画素領域では、小さな値、すなわち、0に近い値となる。
位置ずれ対応パラメータ算出部125の算出した位置ずれ対応ブレンド率設定パラメータ[ratioErr]は、図3に示す画像処理部120内の画像補正部126に入力される。
位置ずれ対応ブレンド率設定パラメータ[ratioErr]は、
位置ずれが大きい(=偽色が多い)画素領域では、大きな値、すなわち、1に近い値となり、
位置ずれが小さい(=偽色が少ない)画素領域では、小さな値、すなわち、0に近い値となる。
位置ずれ対応パラメータ算出部125の算出した位置ずれ対応ブレンド率設定パラメータ[ratioErr]は、図3に示す画像処理部120内の画像補正部126に入力される。
(ステップS107)
ステップS107〜S108の処理は、図3に示す画像処理部120の画像補正部126の実行する処理である。
ステップS107〜S108の処理は、図3に示す画像処理部120の画像補正部126の実行する処理である。
画像補正部126は、以下の各データを入力する。
(a)第1撮像部107の撮影画像であるW−RAW画像111、
(b)位置合わせ部123の生成した位置合わせ後YUV画像161、
(c)周波数対応パラメータ算出部124の生成した周波数対応ブレンド率設定パラメータ[ratioFreq]、
(d)位置ずれ対応パラメータ算出部125の生成した位置ずれ対応ブレンド率設定パラメータ[ratioErr]、
(a)第1撮像部107の撮影画像であるW−RAW画像111、
(b)位置合わせ部123の生成した位置合わせ後YUV画像161、
(c)周波数対応パラメータ算出部124の生成した周波数対応ブレンド率設定パラメータ[ratioFreq]、
(d)位置ずれ対応パラメータ算出部125の生成した位置ずれ対応ブレンド率設定パラメータ[ratioErr]、
画像補正部126は、これらのデータを入力し、偽色を低減させた補正画像(YUV画像)の画素値を構成する色差信号UVの出力信号値である補正後UV信号(Uout,Vout)203を生成して、図3に示す画像処理部120内の信号変換部127に出力する。
画像補正部126は、まず、ステップS107において、入力データを適用して、複数の異なるローパスフィルタ(LPF0,LPF1,LPF2)、具体的には、それぞれカットオフ周波数の異なるローパスフィルタを適用して、異なるUV画、すなわち、先に、図15〜図17を参照して説明した以下の各UV画を生成する。、
U0=LPF0(U)
V0=LPF0(V)
U1=LPF1(U)
V1=LPF1(V)
U2=LPF2(U)
V2=LPF2(V)
U0=LPF0(U)
V0=LPF0(V)
U1=LPF1(U)
V1=LPF1(V)
U2=LPF2(U)
V2=LPF2(V)
3つのローパスフィルタ(LPF0〜LPF2)の違いは、カットオフ周波数の差であり、LPF0のカットオフ周波数が最も高く、LPF2のカットオフ周波数が最も低い。
例えば、各ローパスフィルタとして、以下の設定のローパスフィルタが適用可能である。
LPF0は3×3(画素)の移動平均フィルタ、
LPF1は13×13(画素)の移動平均フィルタ、
LPF2は25×25(画素)の移動平均フィルタ、
このような設定の移動平均フィルタを、上記3つのローパスフィルタ(LPF0〜LPF2)として適用することができる。
例えば、各ローパスフィルタとして、以下の設定のローパスフィルタが適用可能である。
LPF0は3×3(画素)の移動平均フィルタ、
LPF1は13×13(画素)の移動平均フィルタ、
LPF2は25×25(画素)の移動平均フィルタ、
このような設定の移動平均フィルタを、上記3つのローパスフィルタ(LPF0〜LPF2)として適用することができる。
(ステップS108)
次に、画像補正部126は、ステップS108において、ステップS107で算出したU0〜U3,V0〜V3と、
(1)周波数対応パラメータ算出部124の生成した周波数対応ブレンド率設定パラメータ[ratioFreq]、
(2)位置ずれ対応パラメータ算出部125の生成した位置ずれ対応ブレンド率設定パラメータ[ratioErr]、
これら2つのブレンド率設定パラメータを適用して、補正後UV信号(Uout,Vout)203を算出する。
この補正後UV信号(Uout,Vout)の算出処理は、先に説明したように、例えば、以下の(式7)、すなわち、
Uout=(1−ratioErr)((1−ratioFreq)×U0+ratioFreq×U1)+ratioErr×U2
Vout=(1−ratioErr)((1−ratioFreq)×V0+ratioFreq×V1)+ratioErr×V2
・・・・・(式7)
上記(式7)に従って算出される。
次に、画像補正部126は、ステップS108において、ステップS107で算出したU0〜U3,V0〜V3と、
(1)周波数対応パラメータ算出部124の生成した周波数対応ブレンド率設定パラメータ[ratioFreq]、
(2)位置ずれ対応パラメータ算出部125の生成した位置ずれ対応ブレンド率設定パラメータ[ratioErr]、
これら2つのブレンド率設定パラメータを適用して、補正後UV信号(Uout,Vout)203を算出する。
この補正後UV信号(Uout,Vout)の算出処理は、先に説明したように、例えば、以下の(式7)、すなわち、
Uout=(1−ratioErr)((1−ratioFreq)×U0+ratioFreq×U1)+ratioErr×U2
Vout=(1−ratioErr)((1−ratioFreq)×V0+ratioFreq×V1)+ratioErr×V2
・・・・・(式7)
上記(式7)に従って算出される。
あるいは、図9(a)に示す前述した(式5)を適用し、画像特性に応じて適用するフィルタを変更する処理としてもよい。
なお、先に、説明したように、画像補正部126が領域の特徴に応じて実行する補正後UV信号(Uout,Vout)の算出処理は、以下のような態様で実行される。
(a)位置ずれが多い(偽色が多いと推定される)領域では、カットオフ周波数の低いローパスフィルタLPF2を優先的に用いて、より広範囲の周囲画素(例えば25×25画素)の画素値に基づいて平滑化する処理を実行する。
(a)位置ずれが多い(偽色が多いと推定される)領域では、カットオフ周波数の低いローパスフィルタLPF2を優先的に用いて、より広範囲の周囲画素(例えば25×25画素)の画素値に基づいて平滑化する処理を実行する。
(b)位置ずれが少ない(偽色が少ないと推定される)領域では、
高周波成分の多い領域では、カットオフ周波数が中程度のローパスフィルタLPF1を優先的に用いて、中程度の範囲の周囲画素(例えば13×13画素)の画素値に基づいて平滑化する処理を実行する。
また、高周波成分の少ない低周波領域では、カットオフ周波数が高いローパスフィルタLPF0を優先的に用いて、小さい範囲の周囲画素(例えば3×3画素)の画素値に基づいて平滑化する処理を実行する。
高周波成分の多い領域では、カットオフ周波数が中程度のローパスフィルタLPF1を優先的に用いて、中程度の範囲の周囲画素(例えば13×13画素)の画素値に基づいて平滑化する処理を実行する。
また、高周波成分の少ない低周波領域では、カットオフ周波数が高いローパスフィルタLPF0を優先的に用いて、小さい範囲の周囲画素(例えば3×3画素)の画素値に基づいて平滑化する処理を実行する。
(c)位置ずれが中程度(偽色がややあると推定される)領域では、上記の位置ずれが多い(偽色が多いと推定される)領域に対する処理と、位置ずれが少ない(偽色が少ないと推定される)領域に対する処理との中間的な処理を実行する。
画像補正部126は、このように画像領域の特性に応じて補正後UV信号(Uout,Vout)203を生成し、生成信号を、図3に示す画像処理部120内の信号変換部127に出力する。
(ステップS109)
ステップS109の処理は、図3に示す画像処理部120の信号変換部127の実行する処理である。
信号変換部127は、画像補正部126の生成した補正後UV信号(Uout,Vout)203と、第1撮像部107の撮影画像であるW−RAW画像111を入力する。
信号変換部127は、これらの入力信号に基づいてく信号変換を実行して、RGB画像150を生成して出力する。
ステップS109の処理は、図3に示す画像処理部120の信号変換部127の実行する処理である。
信号変換部127は、画像補正部126の生成した補正後UV信号(Uout,Vout)203と、第1撮像部107の撮影画像であるW−RAW画像111を入力する。
信号変換部127は、これらの入力信号に基づいてく信号変換を実行して、RGB画像150を生成して出力する。
信号変換部127は、W−RAW画像111のW信号Y(輝度)信号とし、補正後UV信号(Uout,Vout)203のUV信号との組み合わせからなるYUV信号をRGB信号に変換する処理を実行する。
この信号変換処理は、既存の変換式に従って行われる。
この信号変換処理は、既存の変換式に従って行われる。
信号変換部127の生成したRGB画像150は、例えば表示部に表示される。あるいは、記憶部に格納される。あるいは、外部の他の情報処理装置に出力される。
なお、記憶部格納処理や、外部出力処理の前処理として圧縮処理等の符号化処理を実行する場合もある。
なお、YUV信号からRGB信号への必須ではなく、YUV信号のまま、表示装置への出力、記憶部に対する格納、あるいは外部出力を行う構成としてもよい。
なお、記憶部格納処理や、外部出力処理の前処理として圧縮処理等の符号化処理を実行する場合もある。
なお、YUV信号からRGB信号への必須ではなく、YUV信号のまま、表示装置への出力、記憶部に対する格納、あるいは外部出力を行う構成としてもよい。
このような処理により、画像特性に応じた最適な偽色低減処理が実行され、偽色の少ない高品質な補正画像を生成することが可能となる。
[6.画像処理装置のその他の構成例について]
次に、画像処理装置のその他の構成例について説明する。
上述した実施例では、例えば図3に示す画像処理部120が、第2撮像部108の撮影画像であるRGB−RAW画像112を現像処理部121に入力し、RGB−RAW画像112の弦象処理によって生成されたYUV画像130を適用しはた画像処理を実行する構成としている。
次に、画像処理装置のその他の構成例について説明する。
上述した実施例では、例えば図3に示す画像処理部120が、第2撮像部108の撮影画像であるRGB−RAW画像112を現像処理部121に入力し、RGB−RAW画像112の弦象処理によって生成されたYUV画像130を適用しはた画像処理を実行する構成としている。
この現像処理の実行タイミングは、例えば、画像処理部120の処理が完了した後としてもよい。あるいは現像処理部の一部の処理を画像処理部120の処理が完了した後に実行する構成等、様々な設定が可能である。
また、図3に示す画像処理部120の最終段の処理として、信号変換部127によるYUV信号からRGB信号への信号変換を実行する構成としているが、前述したように、この処理は、必須ではなく、YUV信号のまま、表示装置への出力、記憶部に対する格納、あるいは外部出力を行う構成としてもよい。
[7.本開示の構成のまとめ]
以上、特定の実施例を参照しながら、本開示の実施例について詳解してきた。しかしながら、本開示の要旨を逸脱しない範囲で当業者が実施例の修正や代用を成し得ることは自明である。すなわち、例示という形態で本発明を開示してきたのであり、限定的に解釈されるべきではない。本開示の要旨を判断するためには、特許請求の範囲の欄を参酌すべきである。
以上、特定の実施例を参照しながら、本開示の実施例について詳解してきた。しかしながら、本開示の要旨を逸脱しない範囲で当業者が実施例の修正や代用を成し得ることは自明である。すなわち、例示という形態で本発明を開示してきたのであり、限定的に解釈されるべきではない。本開示の要旨を判断するためには、特許請求の範囲の欄を参酌すべきである。
なお、本明細書において開示した技術は、以下のような構成をとることができる。
(1) カラー画像と、全画素をホワイト(W)画素配列としたW配列撮像素子によって撮影されたホワイト(W)画像を入力して、カラー画像に含まれる偽色を低減させる画像処理を実行する画像処理部を有し、
前記画像処理部は、
前記ホワイト(W)画像を入力し、ホワイト(W)画像の画像領域単位の周波数対応パラメータを算出する周波数対応パラメータ算出部と、
前記ホワイト(W)画像と、前記カラー画像を入力し、入力した2つの画像の画像領域単位の位置ずれ対応パラメータを算出する位置ずれ対応パラメータ算出部と、
前記周波数対応パラメータと、位置ずれ対応パラメータとの値に応じて、前記ホワイト(W)画像と、前記カラー画像のブレンド比率を制御したブレンド処理を実行して、補正画素値を算出する画像補正部を有する画像処理装置。
(1) カラー画像と、全画素をホワイト(W)画素配列としたW配列撮像素子によって撮影されたホワイト(W)画像を入力して、カラー画像に含まれる偽色を低減させる画像処理を実行する画像処理部を有し、
前記画像処理部は、
前記ホワイト(W)画像を入力し、ホワイト(W)画像の画像領域単位の周波数対応パラメータを算出する周波数対応パラメータ算出部と、
前記ホワイト(W)画像と、前記カラー画像を入力し、入力した2つの画像の画像領域単位の位置ずれ対応パラメータを算出する位置ずれ対応パラメータ算出部と、
前記周波数対応パラメータと、位置ずれ対応パラメータとの値に応じて、前記ホワイト(W)画像と、前記カラー画像のブレンド比率を制御したブレンド処理を実行して、補正画素値を算出する画像補正部を有する画像処理装置。
(2) 前記カラー画像は、RGB配列撮像素子によって撮影されたRGB画像であり、
前記位置ずれ対応パラメータ算出部は、
前記ホワイト(W)画像と、前記RGB画像に基づいて生成されるYUV画像を入力し、入力した2つの画像の画像領域単位の位置ずれ対応パラメータを算出し、
前記画像補正部は、
前記周波数対応パラメータと、位置ずれ対応パラメータとの値に応じて、前記ホワイト(W)画像と、前記YUV画像のブレンド比率を制御したブレンド処理を実行して、補正画素値を算出する(1)に記載の画像処理装置。
前記位置ずれ対応パラメータ算出部は、
前記ホワイト(W)画像と、前記RGB画像に基づいて生成されるYUV画像を入力し、入力した2つの画像の画像領域単位の位置ずれ対応パラメータを算出し、
前記画像補正部は、
前記周波数対応パラメータと、位置ずれ対応パラメータとの値に応じて、前記ホワイト(W)画像と、前記YUV画像のブレンド比率を制御したブレンド処理を実行して、補正画素値を算出する(1)に記載の画像処理装置。
(3) 前記画像補正部は、
異なるカットオフ周波数を有する複数の異なるローパスフィルタ(LPF)を、画像領域単位で選択適用して補正画素値を算出する(1)または(2)に記載の画像処理装置。
異なるカットオフ周波数を有する複数の異なるローパスフィルタ(LPF)を、画像領域単位で選択適用して補正画素値を算出する(1)または(2)に記載の画像処理装置。
(4) 前記画像補正部は、
(a)前記カラー画像の領域単位でローパスフィルタ(LPF)を適用したLPF適用カラー画素値と、
(b)前記ホワイト(W)画像の画素値を、前記ホワイト(W)画像の領域単位でローパスフィルタ(LPF)を適用した値で除算した除算W画素値と、
を算出し、算出した2つの値を乗算して補正画素値を算出する(1)〜(3)いずれかに記載の画像処理装置。
(a)前記カラー画像の領域単位でローパスフィルタ(LPF)を適用したLPF適用カラー画素値と、
(b)前記ホワイト(W)画像の画素値を、前記ホワイト(W)画像の領域単位でローパスフィルタ(LPF)を適用した値で除算した除算W画素値と、
を算出し、算出した2つの値を乗算して補正画素値を算出する(1)〜(3)いずれかに記載の画像処理装置。
(5) 前記画像補正部は、
前記カラー画像の領域単位で適用するローパスフィルタ(LPF)を、
高周波領域では、カットオフ周波数が相対的に低いローパスフィルタを優先適用し、
低周波領域では、カットオフ周波数が相対的に高いローパスフィルタを優先適用する(1)〜(4)いずれかに記載の画像処理装置。
前記カラー画像の領域単位で適用するローパスフィルタ(LPF)を、
高周波領域では、カットオフ周波数が相対的に低いローパスフィルタを優先適用し、
低周波領域では、カットオフ周波数が相対的に高いローパスフィルタを優先適用する(1)〜(4)いずれかに記載の画像処理装置。
(6) 前記画像補正部は、
前記カラー画像の領域単位で適用するローパスフィルタ(LPF)を、
位置ずれが大きい領域では、カットオフ周波数が相対的に低いローパスフィルタを優先適用し、
位置ずれが小さい領域では、カットオフ周波数が相対的に高いローパスフィルタを優先適用する(1)〜(5)いずれかに記載の画像処理装置。
前記カラー画像の領域単位で適用するローパスフィルタ(LPF)を、
位置ずれが大きい領域では、カットオフ周波数が相対的に低いローパスフィルタを優先適用し、
位置ずれが小さい領域では、カットオフ周波数が相対的に高いローパスフィルタを優先適用する(1)〜(5)いずれかに記載の画像処理装置。
(7) 前記画像補正部は、
(a)前記YUV画像の領域単位でローパスフィルタ(LPF)を適用したLPF適用YUV画素値と、
(b)前記ホワイト(W)画像の画素値を、前記ホワイト(W)画像の領域単位でローパスフィルタ(LPF)を適用した値で除算した除算W画素値と、
を算出し、算出した2つの値を乗算して補正画素値を算出する(2)に記載の画像処理装置。
(a)前記YUV画像の領域単位でローパスフィルタ(LPF)を適用したLPF適用YUV画素値と、
(b)前記ホワイト(W)画像の画素値を、前記ホワイト(W)画像の領域単位でローパスフィルタ(LPF)を適用した値で除算した除算W画素値と、
を算出し、算出した2つの値を乗算して補正画素値を算出する(2)に記載の画像処理装置。
(8) 前記画像補正部は、
前記YUV画像の画像領域単位で、以下の補正画素値算出式、
Uout=LPF(U)×(W/LPF(W))
Vout=LPF(V)×(W/LPF(W))
上記補正画素値式に従って算出されるUV値(Uout,Vout)を補正画素値として算出する(2)に記載の画像処理装置。
前記YUV画像の画像領域単位で、以下の補正画素値算出式、
Uout=LPF(U)×(W/LPF(W))
Vout=LPF(V)×(W/LPF(W))
上記補正画素値式に従って算出されるUV値(Uout,Vout)を補正画素値として算出する(2)に記載の画像処理装置。
(9) 前記画像補正部は、
前記補正画素値算出式に適用するローパスフィルタ(LPF)を、
高周波領域では、カットオフ周波数が相対的に低いローパスフィルタを優先適用し、
低周波領域では、カットオフ周波数が相対的に高いローパスフィルタを優先適用する(8)に記載の画像処理装置。
前記補正画素値算出式に適用するローパスフィルタ(LPF)を、
高周波領域では、カットオフ周波数が相対的に低いローパスフィルタを優先適用し、
低周波領域では、カットオフ周波数が相対的に高いローパスフィルタを優先適用する(8)に記載の画像処理装置。
(10) 前記画像補正部は、
前記補正画素値算出式に適用するローパスフィルタ(LPF)を、
位置ずれが大きい領域では、カットオフ周波数が相対的に低いローパスフィルタを優先適用し、
位置ずれが小さい領域では、カットオフ周波数が相対的に高いローパスフィルタを優先適用する(8)または(9)に記載の画像処理装置。
前記補正画素値算出式に適用するローパスフィルタ(LPF)を、
位置ずれが大きい領域では、カットオフ周波数が相対的に低いローパスフィルタを優先適用し、
位置ずれが小さい領域では、カットオフ周波数が相対的に高いローパスフィルタを優先適用する(8)または(9)に記載の画像処理装置。
(11) 前記画像処理部は、
前記カラー画像と、前記ホワイト(W)画像の位置合わせを実行する位置合わせ部を有し、
前記位置ずれ対応パラメータ算出部は、
前記ホワイト(W)画像と、前記位置合わせ部の生成した位置合わせ後のカラー画像を入力し、入力した2つの画像の画像領域単位の位置ずれ対応パラメータを算出する(1)〜(10)いずれかに記載の画像処理装置。
前記カラー画像と、前記ホワイト(W)画像の位置合わせを実行する位置合わせ部を有し、
前記位置ずれ対応パラメータ算出部は、
前記ホワイト(W)画像と、前記位置合わせ部の生成した位置合わせ後のカラー画像を入力し、入力した2つの画像の画像領域単位の位置ずれ対応パラメータを算出する(1)〜(10)いずれかに記載の画像処理装置。
(12) 前記画像処理部は、
前記カラー画像と、前記ホワイト(W)画像を入力し、両画像間の動きベクトルを検出する動きベクトル検出部を有し、
前記位置合わせ部は、前記動きベクトルを利用して、前記カラー画像と、前記ホワイト(W)画像の位置合わせを実行する(11)に記載の画像処理装置。
前記カラー画像と、前記ホワイト(W)画像を入力し、両画像間の動きベクトルを検出する動きベクトル検出部を有し、
前記位置合わせ部は、前記動きベクトルを利用して、前記カラー画像と、前記ホワイト(W)画像の位置合わせを実行する(11)に記載の画像処理装置。
(13) 前記動きベクトル検出部は、
前記カラー画像の撮像部と、前記ホワイト(W)画像の撮像部との撮影位置のずれに応じた視差に基づく画像の位置ずれに相当する動きベクトルを検出する(12)に記載の画像処理装置。
前記カラー画像の撮像部と、前記ホワイト(W)画像の撮像部との撮影位置のずれに応じた視差に基づく画像の位置ずれに相当する動きベクトルを検出する(12)に記載の画像処理装置。
(14) 全画素をホワイト(W)画素配列としたW配列撮像素子を有し、ホワイト(W)画像を撮影する第1撮像部と、
RGB画素配列を有するRGB配列撮像素子を有し、カラー画像を撮影する第2撮像部と、
前記ホワイト(W)画像と、前記カラー画像を入力し、カラー画像に含まれる偽色を低減させる画像処理を実行する画像処理部を有し、
前記画像処理部は、
前記ホワイト(W)画像を入力し、ホワイト(W)画像の画像領域単位の周波数対応パラメータを算出する周波数対応パラメータ算出部と、
前記ホワイト(W)画像と、前記カラー画像を入力し、入力した2つの画像の画像領域単位の位置ずれ対応パラメータを算出する位置ずれ対応パラメータ算出部と、
前記周波数対応パラメータと、位置ずれ対応パラメータとの値に応じて、前記ホワイト(W)画像と、前記カラー画像のブレンド比率を制御したブレンド処理を実行して、補正画素値を算出する画像補正部を有する撮像装置。
RGB画素配列を有するRGB配列撮像素子を有し、カラー画像を撮影する第2撮像部と、
前記ホワイト(W)画像と、前記カラー画像を入力し、カラー画像に含まれる偽色を低減させる画像処理を実行する画像処理部を有し、
前記画像処理部は、
前記ホワイト(W)画像を入力し、ホワイト(W)画像の画像領域単位の周波数対応パラメータを算出する周波数対応パラメータ算出部と、
前記ホワイト(W)画像と、前記カラー画像を入力し、入力した2つの画像の画像領域単位の位置ずれ対応パラメータを算出する位置ずれ対応パラメータ算出部と、
前記周波数対応パラメータと、位置ずれ対応パラメータとの値に応じて、前記ホワイト(W)画像と、前記カラー画像のブレンド比率を制御したブレンド処理を実行して、補正画素値を算出する画像補正部を有する撮像装置。
(15) 画像処理装置において実行する画像処理方法であり、
前記画像処理装置は、
カラー画像と、全画素をホワイト(W)画素配列としたW配列撮像素子によって撮影されたホワイト(W)画像を入力して、カラー画像に含まれる偽色を低減させる画像処理を実行する画像処理部を有し、
前記画像処理部が、
前記ホワイト(W)画像を入力し、ホワイト(W)画像の画像領域単位の周波数対応パラメータを算出する周波数対応パラメータ算出処理と、
前記ホワイト(W)画像と、前記カラー画像を入力し、入力した2つの画像の画像領域単位の位置ずれ対応パラメータを算出する位置ずれ対応パラメータ算出処理と、
前記周波数対応パラメータと、位置ずれ対応パラメータとの値に応じて、前記ホワイト(W)画像と、前記カラー画像のブレンド比率を制御したブレンド処理を実行して、補正画素値を算出する画像処理方法。
前記画像処理装置は、
カラー画像と、全画素をホワイト(W)画素配列としたW配列撮像素子によって撮影されたホワイト(W)画像を入力して、カラー画像に含まれる偽色を低減させる画像処理を実行する画像処理部を有し、
前記画像処理部が、
前記ホワイト(W)画像を入力し、ホワイト(W)画像の画像領域単位の周波数対応パラメータを算出する周波数対応パラメータ算出処理と、
前記ホワイト(W)画像と、前記カラー画像を入力し、入力した2つの画像の画像領域単位の位置ずれ対応パラメータを算出する位置ずれ対応パラメータ算出処理と、
前記周波数対応パラメータと、位置ずれ対応パラメータとの値に応じて、前記ホワイト(W)画像と、前記カラー画像のブレンド比率を制御したブレンド処理を実行して、補正画素値を算出する画像処理方法。
(16) 撮像装置において実行する画像処理方法であり、
前記撮像装置は、
全画素をホワイト(W)画素配列としたW配列撮像素子を有し、ホワイト(W)画像を撮影する第1撮像部と、
RGB画素配列を有するRGB配列撮像素子を有し、カラー画像を撮影する第2撮像部と、
前記ホワイト(W)画像と、前記カラー画像を入力し、カラー画像に含まれる偽色を低減させる画像処理を実行する画像処理部を有し、
前記第1撮像部と、前記第2撮像部において、ホワイト(W)画像とカラー画像を撮影し、
前記画像処理部において、
前記ホワイト(W)画像を入力し、ホワイト(W)画像の画像領域単位の周波数対応パラメータを算出する周波数対応パラメータ算出処理と、
前記ホワイト(W)画像と、前記カラー画像を入力し、入力した2つの画像の画像領域単位の位置ずれ対応パラメータを算出する位置ずれ対応パラメータ算出処理と、
前記周波数対応パラメータと、位置ずれ対応パラメータとの値に応じて、前記ホワイト(W)画像と、前記カラー画像のブレンド比率を制御したブレンド処理を実行して、補正画素値を算出する画像処理方法。
前記撮像装置は、
全画素をホワイト(W)画素配列としたW配列撮像素子を有し、ホワイト(W)画像を撮影する第1撮像部と、
RGB画素配列を有するRGB配列撮像素子を有し、カラー画像を撮影する第2撮像部と、
前記ホワイト(W)画像と、前記カラー画像を入力し、カラー画像に含まれる偽色を低減させる画像処理を実行する画像処理部を有し、
前記第1撮像部と、前記第2撮像部において、ホワイト(W)画像とカラー画像を撮影し、
前記画像処理部において、
前記ホワイト(W)画像を入力し、ホワイト(W)画像の画像領域単位の周波数対応パラメータを算出する周波数対応パラメータ算出処理と、
前記ホワイト(W)画像と、前記カラー画像を入力し、入力した2つの画像の画像領域単位の位置ずれ対応パラメータを算出する位置ずれ対応パラメータ算出処理と、
前記周波数対応パラメータと、位置ずれ対応パラメータとの値に応じて、前記ホワイト(W)画像と、前記カラー画像のブレンド比率を制御したブレンド処理を実行して、補正画素値を算出する画像処理方法。
(17) 画像処理装置において画像処理を実行させるプログラムであり、
前記画像処理装置は、
カラー画像と、全画素をホワイト(W)画素配列としたW配列撮像素子によって撮影されたホワイト(W)画像を入力して、カラー画像に含まれる偽色を低減させる画像処理を実行する画像処理部を有し、
前記プログラムは、前記画像処理部に、
前記ホワイト(W)画像を入力し、ホワイト(W)画像の画像領域単位の周波数対応パラメータを算出する周波数対応パラメータ算出処理と、
前記ホワイト(W)画像と、前記カラー画像を入力し、入力した2つの画像の画像領域単位の位置ずれ対応パラメータを算出する位置ずれ対応パラメータ算出処理と、
前記周波数対応パラメータと、位置ずれ対応パラメータとの値に応じて、前記ホワイト(W)画像と、前記カラー画像のブレンド比率を制御したブレンド処理を実行して、補正画素値を算出する処理を実行させるプログラム。
前記画像処理装置は、
カラー画像と、全画素をホワイト(W)画素配列としたW配列撮像素子によって撮影されたホワイト(W)画像を入力して、カラー画像に含まれる偽色を低減させる画像処理を実行する画像処理部を有し、
前記プログラムは、前記画像処理部に、
前記ホワイト(W)画像を入力し、ホワイト(W)画像の画像領域単位の周波数対応パラメータを算出する周波数対応パラメータ算出処理と、
前記ホワイト(W)画像と、前記カラー画像を入力し、入力した2つの画像の画像領域単位の位置ずれ対応パラメータを算出する位置ずれ対応パラメータ算出処理と、
前記周波数対応パラメータと、位置ずれ対応パラメータとの値に応じて、前記ホワイト(W)画像と、前記カラー画像のブレンド比率を制御したブレンド処理を実行して、補正画素値を算出する処理を実行させるプログラム。
(18) 撮像装置において画像処理を実行させるプログラムであり、
前記撮像装置は、
全画素をホワイト(W)画素配列としたW配列撮像素子を有し、ホワイト(W)画像を撮影する第1撮像部と、
RGB画素配列を有するRGB配列撮像素子を有し、カラー画像を撮影する第2撮像部と、
前記ホワイト(W)画像と、前記カラー画像を入力し、カラー画像に含まれる偽色を低減させる画像処理を実行する画像処理部を有し、
前記プログラムは、
前記第1撮像部と、前記第2撮像部において、ホワイト(W)画像とカラー画像を撮影させ、
前記画像処理部に、
前記ホワイト(W)画像を入力し、ホワイト(W)画像の画像領域単位の周波数対応パラメータを算出する周波数対応パラメータ算出処理と、
前記ホワイト(W)画像と、前記カラー画像を入力し、入力した2つの画像の画像領域単位の位置ずれ対応パラメータを算出する位置ずれ対応パラメータ算出処理と、
前記周波数対応パラメータと、位置ずれ対応パラメータとの値に応じて、前記ホワイト(W)画像と、前記カラー画像のブレンド比率を制御したブレンド処理を実行して、補正画素値を算出する処理を実行させるプログラム。
前記撮像装置は、
全画素をホワイト(W)画素配列としたW配列撮像素子を有し、ホワイト(W)画像を撮影する第1撮像部と、
RGB画素配列を有するRGB配列撮像素子を有し、カラー画像を撮影する第2撮像部と、
前記ホワイト(W)画像と、前記カラー画像を入力し、カラー画像に含まれる偽色を低減させる画像処理を実行する画像処理部を有し、
前記プログラムは、
前記第1撮像部と、前記第2撮像部において、ホワイト(W)画像とカラー画像を撮影させ、
前記画像処理部に、
前記ホワイト(W)画像を入力し、ホワイト(W)画像の画像領域単位の周波数対応パラメータを算出する周波数対応パラメータ算出処理と、
前記ホワイト(W)画像と、前記カラー画像を入力し、入力した2つの画像の画像領域単位の位置ずれ対応パラメータを算出する位置ずれ対応パラメータ算出処理と、
前記周波数対応パラメータと、位置ずれ対応パラメータとの値に応じて、前記ホワイト(W)画像と、前記カラー画像のブレンド比率を制御したブレンド処理を実行して、補正画素値を算出する処理を実行させるプログラム。
また、明細書中において説明した一連の処理はハードウェア、またはソフトウェア、あるいは両者の複合構成によって実行することが可能である。ソフトウェアによる処理を実行する場合は、処理シーケンスを記録したプログラムを、専用のハードウェアに組み込まれたコンピュータ内のメモリにインストールして実行させるか、あるいは、各種処理が実行可能な汎用コンピュータにプログラムをインストールして実行させることが可能である。例えば、プログラムは記録媒体に予め記録しておくことができる。記録媒体からコンピュータにインストールする他、LAN(Local Area Network)、インターネットといったネットワークを介してプログラムを受信し、内蔵するハードディスク等の記録媒体にインストールすることができる。
なお、明細書に記載された各種の処理は、記載に従って時系列に実行されるのみならず、処理を実行する装置の処理能力あるいは必要に応じて並列的にあるいは個別に実行されてもよい。また、本明細書においてシステムとは、複数の装置の論理的集合構成であり、各構成の装置が同一筐体内にあるものには限らない。
以上、説明したように、本開示の一実施例の構成によれば、カラー画像における画像領域単位の画像特性に応じた偽色補正を行う装置、方法が実現される。
具体的には、カラー画像と、全画素をホワイト(W)画素配列としたW配列撮像素子によって撮影されたホワイト(W)画像を入力して、カラー画像に含まれる偽色を低減させる画像処理を実行する画像処理部を有する。画像処理部は、ホワイト(W)画像を入力し、画像領域単位の周波数対応パラメータを算出する周波数対応パラメータ算出部と、ホワイト(W)画像と、カラー画像を入力し、入力した2つの画像の画像領域単位の位置ずれ対応パラメータを算出する位置ずれ対応パラメータ算出部と、周波数対応パラメータと、位置ずれ対応パラメータとの値に応じて、ホワイト(W)画像と、カラー画像のブレンド比率を制御したブレンド処理を実行して、補正画素値を算出する。
これらの処理により、カラー画像における画像領域単位の画像特性に応じた偽色補正を行う装置、方法が実現され、偽色を除去または低減した高品質な画像を生成して出力することが可能となる。
具体的には、カラー画像と、全画素をホワイト(W)画素配列としたW配列撮像素子によって撮影されたホワイト(W)画像を入力して、カラー画像に含まれる偽色を低減させる画像処理を実行する画像処理部を有する。画像処理部は、ホワイト(W)画像を入力し、画像領域単位の周波数対応パラメータを算出する周波数対応パラメータ算出部と、ホワイト(W)画像と、カラー画像を入力し、入力した2つの画像の画像領域単位の位置ずれ対応パラメータを算出する位置ずれ対応パラメータ算出部と、周波数対応パラメータと、位置ずれ対応パラメータとの値に応じて、ホワイト(W)画像と、カラー画像のブレンド比率を制御したブレンド処理を実行して、補正画素値を算出する。
これらの処理により、カラー画像における画像領域単位の画像特性に応じた偽色補正を行う装置、方法が実現され、偽色を除去または低減した高品質な画像を生成して出力することが可能となる。
100 画像処理装置
101 制御部
102 記憶部
103 コーデック
104 入力部
105 出力部
106 撮像部
107 第1撮像部
108 第2撮像部
111 W−RAW画像
112 RGB−RAW画像
113 センサノイズ特性(σ)
120 画像処理部
121 現像処理部
122 動きベクトル検出部
123 位置合わせ部
124 周波数対応パラメータ算出部
125 位置ずれ対応パラメータ算出部
126 画像補正部
127 信号変換部
150 RGB画像
151 隣接画素画素値差分絶対値算出部
152 ダイナミックレンジ(DR)算出部
153 周波数パラメータ算出部
154 加算部
155 ブレンド率算出部
161 位置合わせ後YUV画像
162 YUV画像ベースW画像
163 画素値調整YUV画像ベースW画像
164 差分画像
171 信号変換部
172 第1領域単位画素値加算部
173 第2領域単位画素値加算部
174 領域単位画素非算出部
175 乗算部
176 差分算出部
201 周波数対応ブレンド率設定パラメータ
202 位置ずれ対応ブレンド比率設定パラメータ
203 補正後UV信号
101 制御部
102 記憶部
103 コーデック
104 入力部
105 出力部
106 撮像部
107 第1撮像部
108 第2撮像部
111 W−RAW画像
112 RGB−RAW画像
113 センサノイズ特性(σ)
120 画像処理部
121 現像処理部
122 動きベクトル検出部
123 位置合わせ部
124 周波数対応パラメータ算出部
125 位置ずれ対応パラメータ算出部
126 画像補正部
127 信号変換部
150 RGB画像
151 隣接画素画素値差分絶対値算出部
152 ダイナミックレンジ(DR)算出部
153 周波数パラメータ算出部
154 加算部
155 ブレンド率算出部
161 位置合わせ後YUV画像
162 YUV画像ベースW画像
163 画素値調整YUV画像ベースW画像
164 差分画像
171 信号変換部
172 第1領域単位画素値加算部
173 第2領域単位画素値加算部
174 領域単位画素非算出部
175 乗算部
176 差分算出部
201 周波数対応ブレンド率設定パラメータ
202 位置ずれ対応ブレンド比率設定パラメータ
203 補正後UV信号
Claims (18)
- カラー画像と、全画素をホワイト(W)画素配列としたW配列撮像素子によって撮影されたホワイト(W)画像を入力して、カラー画像に含まれる偽色を低減させる画像処理を実行する画像処理部を有し、
前記画像処理部は、
前記ホワイト(W)画像を入力し、ホワイト(W)画像の画像領域単位の周波数対応パラメータを算出する周波数対応パラメータ算出部と、
前記ホワイト(W)画像と、前記カラー画像を入力し、入力した2つの画像の画像領域単位の位置ずれ対応パラメータを算出する位置ずれ対応パラメータ算出部と、
前記周波数対応パラメータと、位置ずれ対応パラメータとの値に応じて、前記ホワイト(W)画像と、前記カラー画像のブレンド比率を制御したブレンド処理を実行して、補正画素値を算出する画像補正部を有する画像処理装置。 - 前記カラー画像は、RGB配列撮像素子によって撮影されたRGB画像であり、
前記位置ずれ対応パラメータ算出部は、
前記ホワイト(W)画像と、前記RGB画像に基づいて生成されるYUV画像を入力し、入力した2つの画像の画像領域単位の位置ずれ対応パラメータを算出し、
前記画像補正部は、
前記周波数対応パラメータと、位置ずれ対応パラメータとの値に応じて、前記ホワイト(W)画像と、前記YUV画像のブレンド比率を制御したブレンド処理を実行して、補正画素値を算出する請求項1に記載の画像処理装置。 - 前記画像補正部は、
異なるカットオフ周波数を有する複数の異なるローパスフィルタ(LPF)を、画像領域単位で選択適用して補正画素値を算出する請求項1に記載の画像処理装置。 - 前記画像補正部は、
(a)前記カラー画像の領域単位でローパスフィルタ(LPF)を適用したLPF適用カラー画素値と、
(b)前記ホワイト(W)画像の画素値を、前記ホワイト(W)画像の領域単位でローパスフィルタ(LPF)を適用した値で除算した除算W画素値と、
を算出し、算出した2つの値を乗算して補正画素値を算出する請求項1に記載の画像処理装置。 - 前記画像補正部は、
前記カラー画像の領域単位で適用するローパスフィルタ(LPF)を、
高周波領域では、カットオフ周波数が相対的に低いローパスフィルタを優先適用し、
低周波領域では、カットオフ周波数が相対的に高いローパスフィルタを優先適用する請求項1に記載の画像処理装置。 - 前記画像補正部は、
前記カラー画像の領域単位で適用するローパスフィルタ(LPF)を、
位置ずれが大きい領域では、カットオフ周波数が相対的に低いローパスフィルタを優先適用し、
位置ずれが小さい領域では、カットオフ周波数が相対的に高いローパスフィルタを優先適用する請求項1に記載の画像処理装置。 - 前記画像補正部は、
(a)前記YUV画像の領域単位でローパスフィルタ(LPF)を適用したLPF適用YUV画素値と、
(b)前記ホワイト(W)画像の画素値を、前記ホワイト(W)画像の領域単位でローパスフィルタ(LPF)を適用した値で除算した除算W画素値と、
を算出し、算出した2つの値を乗算して補正画素値を算出する請求項2に記載の画像処理装置。 - 前記画像補正部は、
前記YUV画像の画像領域単位で、以下の補正画素値算出式、
Uout=LPF(U)×(W/LPF(W))
Vout=LPF(V)×(W/LPF(W))
上記補正画素値式に従って算出されるUV値(Uout,Vout)を補正画素値として算出する請求項2に記載の画像処理装置。 - 前記画像補正部は、
前記補正画素値算出式に適用するローパスフィルタ(LPF)を、
高周波領域では、カットオフ周波数が相対的に低いローパスフィルタを優先適用し、
低周波領域では、カットオフ周波数が相対的に高いローパスフィルタを優先適用する請求項8に記載の画像処理装置。 - 前記画像補正部は、
前記補正画素値算出式に適用するローパスフィルタ(LPF)を、
位置ずれが大きい領域では、カットオフ周波数が相対的に低いローパスフィルタを優先適用し、
位置ずれが小さい領域では、カットオフ周波数が相対的に高いローパスフィルタを優先適用する請求項8に記載の画像処理装置。 - 前記画像処理部は、
前記カラー画像と、前記ホワイト(W)画像の位置合わせを実行する位置合わせ部を有し、
前記位置ずれ対応パラメータ算出部は、
前記ホワイト(W)画像と、前記位置合わせ部の生成した位置合わせ後のカラー画像を入力し、入力した2つの画像の画像領域単位の位置ずれ対応パラメータを算出する請求項1に記載の画像処理装置。 - 前記画像処理部は、
前記カラー画像と、前記ホワイト(W)画像を入力し、両画像間の動きベクトルを検出する動きベクトル検出部を有し、
前記位置合わせ部は、前記動きベクトルを利用して、前記カラー画像と、前記ホワイト(W)画像の位置合わせを実行する請求項11に記載の画像処理装置。 - 前記動きベクトル検出部は、
前記カラー画像の撮像部と、前記ホワイト(W)画像の撮像部との撮影位置のずれに応じた視差に基づく画像の位置ずれに相当する動きベクトルを検出する請求項12に記載の画像処理装置。 - 全画素をホワイト(W)画素配列としたW配列撮像素子を有し、ホワイト(W)画像を撮影する第1撮像部と、
RGB画素配列を有するRGB配列撮像素子を有し、カラー画像を撮影する第2撮像部と、
前記ホワイト(W)画像と、前記カラー画像を入力し、カラー画像に含まれる偽色を低減させる画像処理を実行する画像処理部を有し、
前記画像処理部は、
前記ホワイト(W)画像を入力し、ホワイト(W)画像の画像領域単位の周波数対応パラメータを算出する周波数対応パラメータ算出部と、
前記ホワイト(W)画像と、前記カラー画像を入力し、入力した2つの画像の画像領域単位の位置ずれ対応パラメータを算出する位置ずれ対応パラメータ算出部と、
前記周波数対応パラメータと、位置ずれ対応パラメータとの値に応じて、前記ホワイト(W)画像と、前記カラー画像のブレンド比率を制御したブレンド処理を実行して、補正画素値を算出する画像補正部を有する撮像装置。 - 画像処理装置において実行する画像処理方法であり、
前記画像処理装置は、
カラー画像と、全画素をホワイト(W)画素配列としたW配列撮像素子によって撮影されたホワイト(W)画像を入力して、カラー画像に含まれる偽色を低減させる画像処理を実行する画像処理部を有し、
前記画像処理部が、
前記ホワイト(W)画像を入力し、ホワイト(W)画像の画像領域単位の周波数対応パラメータを算出する周波数対応パラメータ算出処理と、
前記ホワイト(W)画像と、前記カラー画像を入力し、入力した2つの画像の画像領域単位の位置ずれ対応パラメータを算出する位置ずれ対応パラメータ算出処理と、
前記周波数対応パラメータと、位置ずれ対応パラメータとの値に応じて、前記ホワイト(W)画像と、前記カラー画像のブレンド比率を制御したブレンド処理を実行して、補正画素値を算出する画像処理方法。 - 撮像装置において実行する画像処理方法であり、
前記撮像装置は、
全画素をホワイト(W)画素配列としたW配列撮像素子を有し、ホワイト(W)画像を撮影する第1撮像部と、
RGB画素配列を有するRGB配列撮像素子を有し、カラー画像を撮影する第2撮像部と、
前記ホワイト(W)画像と、前記カラー画像を入力し、カラー画像に含まれる偽色を低減させる画像処理を実行する画像処理部を有し、
前記第1撮像部と、前記第2撮像部において、ホワイト(W)画像とカラー画像を撮影し、
前記画像処理部において、
前記ホワイト(W)画像を入力し、ホワイト(W)画像の画像領域単位の周波数対応パラメータを算出する周波数対応パラメータ算出処理と、
前記ホワイト(W)画像と、前記カラー画像を入力し、入力した2つの画像の画像領域単位の位置ずれ対応パラメータを算出する位置ずれ対応パラメータ算出処理と、
前記周波数対応パラメータと、位置ずれ対応パラメータとの値に応じて、前記ホワイト(W)画像と、前記カラー画像のブレンド比率を制御したブレンド処理を実行して、補正画素値を算出する画像処理方法。 - 画像処理装置において画像処理を実行させるプログラムであり、
前記画像処理装置は、
カラー画像と、全画素をホワイト(W)画素配列としたW配列撮像素子によって撮影されたホワイト(W)画像を入力して、カラー画像に含まれる偽色を低減させる画像処理を実行する画像処理部を有し、
前記プログラムは、前記画像処理部に、
前記ホワイト(W)画像を入力し、ホワイト(W)画像の画像領域単位の周波数対応パラメータを算出する周波数対応パラメータ算出処理と、
前記ホワイト(W)画像と、前記カラー画像を入力し、入力した2つの画像の画像領域単位の位置ずれ対応パラメータを算出する位置ずれ対応パラメータ算出処理と、
前記周波数対応パラメータと、位置ずれ対応パラメータとの値に応じて、前記ホワイト(W)画像と、前記カラー画像のブレンド比率を制御したブレンド処理を実行して、補正画素値を算出する処理を実行させるプログラム。 - 撮像装置において画像処理を実行させるプログラムであり、
前記撮像装置は、
全画素をホワイト(W)画素配列としたW配列撮像素子を有し、ホワイト(W)画像を撮影する第1撮像部と、
RGB画素配列を有するRGB配列撮像素子を有し、カラー画像を撮影する第2撮像部と、
前記ホワイト(W)画像と、前記カラー画像を入力し、カラー画像に含まれる偽色を低減させる画像処理を実行する画像処理部を有し、
前記プログラムは、
前記第1撮像部と、前記第2撮像部において、ホワイト(W)画像とカラー画像を撮影させ、
前記画像処理部に、
前記ホワイト(W)画像を入力し、ホワイト(W)画像の画像領域単位の周波数対応パラメータを算出する周波数対応パラメータ算出処理と、
前記ホワイト(W)画像と、前記カラー画像を入力し、入力した2つの画像の画像領域単位の位置ずれ対応パラメータを算出する位置ずれ対応パラメータ算出処理と、
前記周波数対応パラメータと、位置ずれ対応パラメータとの値に応じて、前記ホワイト(W)画像と、前記カラー画像のブレンド比率を制御したブレンド処理を実行して、補正画素値を算出する処理を実行させるプログラム。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016045224 | 2016-03-09 | ||
JP2016045224 | 2016-03-09 | ||
PCT/JP2016/086062 WO2017154293A1 (ja) | 2016-03-09 | 2016-12-05 | 画像処理装置、撮像装置、および画像処理方法、並びにプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2017154293A1 true JPWO2017154293A1 (ja) | 2019-01-10 |
JP6825617B2 JP6825617B2 (ja) | 2021-02-03 |
Family
ID=59789299
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018504003A Active JP6825617B2 (ja) | 2016-03-09 | 2016-12-05 | 画像処理装置、撮像装置、および画像処理方法、並びにプログラム |
Country Status (5)
Country | Link |
---|---|
US (1) | US11202045B2 (ja) |
EP (1) | EP3429197B1 (ja) |
JP (1) | JP6825617B2 (ja) |
CN (1) | CN108702494B (ja) |
WO (1) | WO2017154293A1 (ja) |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019111529A1 (ja) * | 2017-12-08 | 2019-06-13 | ソニーセミコンダクタソリューションズ株式会社 | 画像処理装置および画像処理方法 |
WO2022011506A1 (zh) * | 2020-07-13 | 2022-01-20 | 深圳市汇顶科技股份有限公司 | 图像处理的方法和图像处理装置 |
US11910121B2 (en) * | 2021-01-26 | 2024-02-20 | Zf Friedrichshafen Ag | Converting dual-context video data to full color video |
JP2023011215A (ja) * | 2021-07-12 | 2023-01-24 | 富士フイルム株式会社 | 画像処理装置及び医療画像処理装置 |
CN113870146B (zh) * | 2021-10-15 | 2024-06-25 | 中国大恒(集团)有限公司北京图像视觉技术分公司 | 一种彩色相机图像边缘伪彩的校正方法 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013026672A (ja) * | 2011-07-15 | 2013-02-04 | Toshiba Corp | 固体撮像装置及びカメラモジュール |
JP2013219705A (ja) * | 2012-04-12 | 2013-10-24 | Sony Corp | 画像処理装置、および画像処理方法、並びにプログラム |
JP2013239904A (ja) * | 2012-05-15 | 2013-11-28 | Sony Corp | 画像処理装置と画像処理方法およびプログラム |
Family Cites Families (24)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6614471B1 (en) * | 1999-05-10 | 2003-09-02 | Banctec, Inc. | Luminance correction for color scanning using a measured and derived luminance value |
JP4501855B2 (ja) * | 2005-12-22 | 2010-07-14 | ソニー株式会社 | 画像信号処理装置、撮像装置、および画像信号処理方法、並びにコンピュータ・プログラム |
JP4144630B2 (ja) * | 2006-04-14 | 2008-09-03 | ソニー株式会社 | 撮像装置 |
JP5106870B2 (ja) * | 2006-06-14 | 2012-12-26 | 株式会社東芝 | 固体撮像素子 |
JP5326943B2 (ja) * | 2009-08-31 | 2013-10-30 | ソニー株式会社 | 画像処理装置、および画像処理方法、並びにプログラム |
JP5454075B2 (ja) * | 2009-10-20 | 2014-03-26 | ソニー株式会社 | 画像処理装置、および画像処理方法、並びにプログラム |
JP5724185B2 (ja) * | 2010-03-04 | 2015-05-27 | ソニー株式会社 | 画像処理装置、および画像処理方法、並びにプログラム |
JP2012257193A (ja) * | 2011-05-13 | 2012-12-27 | Sony Corp | 画像処理装置、撮像装置、および画像処理方法、並びにプログラム |
JP2013066146A (ja) * | 2011-08-31 | 2013-04-11 | Sony Corp | 画像処理装置、および画像処理方法、並びにプログラム |
US8837853B2 (en) * | 2011-09-06 | 2014-09-16 | Sony Corporation | Image processing apparatus, image processing method, information recording medium, and program providing image blur correction |
WO2013145487A1 (ja) * | 2012-03-27 | 2013-10-03 | ソニー株式会社 | 画像処理装置、撮像素子、および画像処理方法、並びにプログラム |
US9288457B2 (en) * | 2012-04-24 | 2016-03-15 | Sony Corporation | Image processing device, method of processing image, and image processing program including false color correction |
JP6019964B2 (ja) * | 2012-09-10 | 2016-11-02 | 株式会社リコー | 画像処理装置及びそれを搭載した撮像装置、並びに画像処理方法 |
JP2015035782A (ja) * | 2013-08-09 | 2015-02-19 | オリンパス株式会社 | 画像処理装置、撮像装置、顕微鏡システム、画像処理方法及び画像処理プログラム |
KR102144394B1 (ko) | 2013-08-20 | 2020-08-13 | 한화테크윈 주식회사 | 영상 정합 장치 및 이를 이용한 영상 정합 방법 |
JP6235604B2 (ja) * | 2013-10-29 | 2017-11-22 | 株式会社日立国際電気 | 映像信号のノイズ除去回路及び映像信号のノイズ除去方法 |
JP6276569B2 (ja) * | 2013-12-02 | 2018-02-07 | 株式会社メガチップス | 画素補間処理装置、撮像装置、プログラムおよび集積回路 |
JP5771677B2 (ja) * | 2013-12-24 | 2015-09-02 | オリンパス株式会社 | 画像処理装置、撮像装置、プログラム及び画像処理方法 |
US9344639B2 (en) * | 2014-08-12 | 2016-05-17 | Google Technology Holdings LLC | High dynamic range array camera |
US9654700B2 (en) * | 2014-09-16 | 2017-05-16 | Google Technology Holdings LLC | Computational camera using fusion of image sensors |
JP6598507B2 (ja) * | 2015-05-11 | 2019-10-30 | キヤノン株式会社 | 撮像装置、撮像システム、信号処理方法 |
US9712792B2 (en) * | 2015-08-10 | 2017-07-18 | Samsung Electronics Co., Ltd. | RGB-RWB dual images by multi-layer sensors towards better image quality |
CN110463194B (zh) * | 2017-03-27 | 2022-01-25 | 索尼公司 | 图像处理装置和图像处理方法以及图像捕获装置 |
KR20230010842A (ko) * | 2017-11-06 | 2023-01-19 | 에이조 가부시키가이샤 | 화상처리장치, 화상처리방법 및 화상처리 프로그램을 기록한 기록 매체 |
-
2016
- 2016-12-05 EP EP16893617.7A patent/EP3429197B1/en active Active
- 2016-12-05 JP JP2018504003A patent/JP6825617B2/ja active Active
- 2016-12-05 CN CN201680083059.9A patent/CN108702494B/zh not_active Expired - Fee Related
- 2016-12-05 WO PCT/JP2016/086062 patent/WO2017154293A1/ja active Application Filing
- 2016-12-05 US US16/070,952 patent/US11202045B2/en active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013026672A (ja) * | 2011-07-15 | 2013-02-04 | Toshiba Corp | 固体撮像装置及びカメラモジュール |
JP2013219705A (ja) * | 2012-04-12 | 2013-10-24 | Sony Corp | 画像処理装置、および画像処理方法、並びにプログラム |
JP2013239904A (ja) * | 2012-05-15 | 2013-11-28 | Sony Corp | 画像処理装置と画像処理方法およびプログラム |
Also Published As
Publication number | Publication date |
---|---|
CN108702494B (zh) | 2020-12-04 |
EP3429197A4 (en) | 2019-03-06 |
EP3429197A1 (en) | 2019-01-16 |
JP6825617B2 (ja) | 2021-02-03 |
CN108702494A (zh) | 2018-10-23 |
EP3429197B1 (en) | 2020-05-06 |
US20210076017A1 (en) | 2021-03-11 |
US11202045B2 (en) | 2021-12-14 |
WO2017154293A1 (ja) | 2017-09-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US8547451B2 (en) | Apparatus and method for obtaining high dynamic range image | |
WO2017154293A1 (ja) | 画像処理装置、撮像装置、および画像処理方法、並びにプログラム | |
KR101460688B1 (ko) | 화상처리장치 및 그 제어 방법 | |
JP6711396B2 (ja) | 画像処理装置、撮像装置、および画像処理方法、並びにプログラム | |
JP2006135745A (ja) | 画像処理装置、および画像処理方法、並びにコンピュータ・プログラム | |
JP2012239103A (ja) | 画像処理装置、および画像処理方法、並びにプログラム | |
JP2007041834A (ja) | 画像処理装置 | |
US8427560B2 (en) | Image processing device | |
JP2010141663A (ja) | 撮像装置 | |
JP2003123063A (ja) | 画像処理装置 | |
JP2002232904A (ja) | 信号処理装置およびその信号処理方法およびその動作処理プログラムおよびそのプログラムを記憶した記憶媒体 | |
US6747698B2 (en) | Image interpolating device | |
JP2009194721A (ja) | 画像信号処理装置、画像信号処理方法、及び撮像装置 | |
JP2003224859A (ja) | 画像処理装置、画像処理方法およびプログラム | |
JP4320807B2 (ja) | カメラ信号処理装置及びカメラ信号処理方法 | |
JP2005260675A (ja) | 画像処理装置およびプログラム | |
JP7183015B2 (ja) | 画像処理装置、画像処理方法、及びプログラム | |
JP2005354585A (ja) | 画像処理装置、画像処理方法、及び画像処理プログラム | |
JP5494249B2 (ja) | 画像処理装置、撮像装置及び画像処理プログラム | |
US7499086B2 (en) | Image signal processing apparatus, image signal processing circuit, image signal processing method, program, and recording medium | |
JP4269367B2 (ja) | カメラ信号処理装置及びカメラ信号処理方法 | |
WO2017085988A1 (ja) | 画像処理装置及び画像処理方法 | |
JP4269366B2 (ja) | カメラ信号処理装置及びカメラ信号処理方法 | |
JP4269369B2 (ja) | カメラ信号処理装置及びカメラ信号処理方法 | |
JP2000253411A (ja) | 撮像装置及び前記撮像装置における画像処理方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20191009 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20201215 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20201228 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6825617 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |