JPWO2016006305A1 - 画像処理装置、撮像装置、画像処理方法及びプログラム - Google Patents

画像処理装置、撮像装置、画像処理方法及びプログラム Download PDF

Info

Publication number
JPWO2016006305A1
JPWO2016006305A1 JP2016532469A JP2016532469A JPWO2016006305A1 JP WO2016006305 A1 JPWO2016006305 A1 JP WO2016006305A1 JP 2016532469 A JP2016532469 A JP 2016532469A JP 2016532469 A JP2016532469 A JP 2016532469A JP WO2016006305 A1 JPWO2016006305 A1 JP WO2016006305A1
Authority
JP
Japan
Prior art keywords
data
flash
image
color
ambient light
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016532469A
Other languages
English (en)
Other versions
JP6302555B2 (ja
Inventor
太郎 斎藤
太郎 斎藤
慎也 藤原
慎也 藤原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Corp
Original Assignee
Fujifilm Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujifilm Corp filed Critical Fujifilm Corp
Publication of JPWO2016006305A1 publication Critical patent/JPWO2016006305A1/ja
Application granted granted Critical
Publication of JP6302555B2 publication Critical patent/JP6302555B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/64Circuits for processing colour signals
    • H04N9/73Colour balance circuits, e.g. white balance circuits or colour temperature control
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • G06T1/20Processor architectures; Processor configuration, e.g. pipelining
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/90Dynamic range modification of images or parts thereof
    • G06T5/94Dynamic range modification of images or parts thereof based on local image properties, e.g. for local contrast enhancement
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/90Determination of colour characteristics
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/46Colour picture communication systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/46Colour picture communication systems
    • H04N1/56Processing of colour picture signals
    • H04N1/60Colour correction or control
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/46Colour picture communication systems
    • H04N1/56Processing of colour picture signals
    • H04N1/60Colour correction or control
    • H04N1/6027Correction or control of colour gradation or colour contrast
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/10Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths
    • H04N23/12Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths with one sensor only
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/56Cameras or camera modules comprising electronic image sensors; Control thereof provided with illuminating means
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/71Circuitry for evaluating the brightness variation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/74Circuitry for compensating brightness variation in the scene by influencing the scene brightness using illuminating means
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/76Circuitry for compensating brightness variation in the scene by influencing the image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • H04N23/84Camera processing pipelines; Components thereof for processing colour signals
    • H04N23/88Camera processing pipelines; Components thereof for processing colour signals for colour balance, e.g. white-balance circuits or colour temperature control
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10141Special mode during image acquisition
    • G06T2207/10152Varying illumination
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20021Dividing image into blocks, subimages or windows

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Color Television Image Signal Generators (AREA)
  • Processing Of Color Television Signals (AREA)

Abstract

本発明は、フラッシュ光による被写体の画像成分を示すフラッシュ画像成分データにおいて、被写体の色に応じてもたらされる明度の相違を補償することができる画像処理装置、撮像装置、画像処理方法及びプログラムを提供する。本発明の好ましい態様において、画像処理装置(31)のフラッシュ画像成分取得部(40)は、フラッシュ光の発光下で被写体を撮影することにより取得された第1の画像データに基づきフラッシュ画像成分データを取得する。フラッシュ補正データ取得部(42)は、被写体の色に応じてもたらされるフラッシュ画像成分データの明度の相違を反映したフラッシュ補正データを取得する。フラッシュ明度補正部(44)は、フラッシュ画像成分データ及びフラッシュ補正データに基づき、被写体の色に応じてもたらされるフラッシュ画像成分データの明度の相違が補償されたフラッシュ画像補正成分データを取得する。

Description

本発明は、画像処理装置、撮像装置、画像処理方法及びプログラムに係り、特に、フラッシュ光の発光下で撮影取得された画像データの画像処理に関する。
フラッシュ光を発光させずに行われた撮影(以下、「フラッシュ非発光撮影」とも称する)により取得される画像(以下、「フラッシュ非発光画像」とも称する)は、基本的には環境光のみからの光の影響を受けた画像になる。一方、フラッシュ光の発光下で行われた撮影(以下、「フラッシュ発光撮影」とも称する)により取得される画像(以下、「フラッシュ発光画像」とも称する)は、環境光の他にフラッシュ光の影響を受けた画像になる。
このフラッシュ発光画像中には、「フラッシュ光の影響が大きい主要被写体等の部分」と「フラッシュ光の影響が小さい又は影響が実質的にない背景等の部分」とが混在する。すなわちフラッシュ発光部の近くに存在する主要被写体等は、フラッシュ発光画像中では環境光に加えてフラッシュ光の影響を受けた画像となる。一方、フラッシュ発光部の近くには存在しない背景等は、フラッシュ発光画像中では主として環境光の影響を受けた画像となる。このように1つのフラッシュ発光画像中には、光源の種類が実質的に異なる複数の画像部分が存在する。そのため、フラッシュ発光画像の全体のホワイトバランスを一律に調整する場合、光源の種類が実質的に異なる複数の画像部分のホワイトバランスを同時に最適化することは難しい。
そこでフラッシュ発光画像のホワイトバランス処理では、背景等の画像部分及び主要被写体等の画像部分を別々の光源領域とみなし、各画像部分を個別にホワイトバランス処理することによって、画像の色味を改善することが行われている。
例えば特許文献1は、撮影画像データ及びモニタ画像データからホワイトバランスマップを算出する画像処理装置を開示する。このホワイトバランスマップは、撮影画像データの中で、ストロボ(フラッシュ)が照射されて明るくなっているピクセルの領域と、ストロボの照射が及ばず暗いままのピクセルの領域とのそれぞれに対して適切なホワイトバランスの調整を行うためのデータである。
また特許文献2は、ストロボ(フラッシュ)発光撮影により取得される画像のホワイトバランス処理において、安定したホワイトバランス補正を実現することを目的とした画像処理を行う撮像装置を開示する。この撮像装置では、ストロボ発光画像データ、ストロボ非発光画像データ及びストロボ非発光時の過去画像データからホワイトバランス補正値が算出される。
特開2012−19293号公報 特開2010−193002号公報
上述のように、例えばフラッシュ発光画像のデータとフラッシュ非発光画像のデータなどを用いて、被写体は同一ではあるが主要被写体等の画像部分の明るさが異なる複数の撮影画像に基づいて、「フラッシュ光の影響を受けている画像部分」と「フラッシュ光の影響を受けていない画像部分」とを分離する方法が考えられている。
しかしながら、フラッシュ発光撮影の際にフラッシュ光が被写体に均一に照射されても、実際の撮影画像の明度は被写体の色に依存して変わってしまう。そのため、フラッシュ発光画像のデータとフラッシュ非発光画像のデータとの間の差分データのみからでは、フラッシュ発光画像の明度に関するフラッシュ光の影響を正確に推定することが難しい。
一例として、平坦な板に貼り付けた赤の色票、緑の色票及び青の色票の各々を被写体として、フラッシュ発光撮影及びフラッシュ非発光撮影を行った。これらの撮影では、RGB(赤緑青)カラーフィルタを有する撮像素子を具備したデジタルカメラ(撮像装置)を使用し、そのデジタルカメラからほぼ等距離の位置に赤の色票、緑の色票及び青の色票の各々を配置した。そして、フラッシュ発光画像とフラッシュ非発光画像との間の差分データから算出される輝度値に基づいて、フラッシュ光による画像成分に関して色票間における明るさ(輝度値)の関係を求めた。ここで「輝度値(Y)」の算出は、フラッシュ発光画像とフラッシュ非発光画像との間の差分データをRGBデータ(RGB画素値)に基づいて求めて、この差分データのRGBデータを「Y=0.3*R+0.6*G+0.1*B」で表される式に適用することで行い、図32に示す結果を得た。
図32は、赤の色票、緑の色票及び青の色票に関する「フラッシュ発光画像とフラッシュ非発光画像との間の差分データ」の輝度の関係を例示するグラフである。図32の縦軸は、各色票の「フラッシュ発光画像とフラッシュ非発光画像との間の差分データ」の輝度値(Y)の大きさを示す。
撮影取得される画像の明るさが被写体の色に依存しないと仮定した場合、平板に貼り付けられた赤の色票、緑の色票及び青の色票の「フラッシュ発光画像とフラッシュ非発光画像との間の差分データ」の輝度値は相互に等しくなると考えられる。しかしながら実際には、図32からも明らかなように、赤の色票、緑の色票及び青の色票の「フラッシュ発光画像とフラッシュ非発光画像との間の差分データ」の輝度値は相互に異なり、フラッシュ発光画像の明るさが被写体の色に依存することが分かる。
したがってフラッシュ発光画像とフラッシュ非発光画像との間の差分データは、フラッシュ光の影響に加え、被写体自身の色に依存する影響が反映されたデータとなる。「被写体の色に依存する影響が取り除かれていないデータ」からは、「フラッシュ発光画像におけるフラッシュ光の影響を示すデータ」を必ずしも正確には得られない。したがってホワイトバランス処理等の各種の画像処理を精度良く行う観点からは、処理対象の画像データにおいて、被写体の色に応じてもたらされる明度の相違を補償することが好ましい。
しかしながら従来、被写体の色に応じてもたらされる明度の相違に注目してホワイトバランス処理等の各種の画像処理を行う手法は提案されていなかった。例えば特許文献1の画像処理装置では、撮影画像データを明るいピクセルの領域と暗いピクセルの領域とに分類した上でホワイトバランス処理が行われるが、被写体の色に応じてもたらされる明度の相違には全く注目されていない。また特許文献2に開示されるホワイトバランス処理では、ストロボ発光画像データ及びストロボ非発光画像データからホワイトバランス補正値が算出されるが、ホワイトバランス処理において被写体の色に応じてもたらされる明度の相違は全く考慮されていない。
本発明は上述の事情に鑑みてなされたものであり、処理対象の画像データにおいて、被写体の色に応じてもたらされる明度の相違を補償することができる画像処理技術及びその関連技術を提供することを目的とする。
本発明の一態様は、フラッシュ光の発光下で被写体を撮影することにより取得された第1の画像データに基づき、フラッシュ光による被写体の画像成分を示すフラッシュ画像成分データを取得するフラッシュ画像成分取得部と、フラッシュ画像成分データに基づき、被写体の色に応じてもたらされるフラッシュ画像成分データの明度の相違を反映したフラッシュ補正データを取得するフラッシュ補正データ取得部と、フラッシュ画像成分データ及びフラッシュ補正データに基づき、被写体の色に応じてもたらされるフラッシュ画像成分データの明度の相違が補償されたフラッシュ画像補正成分データを取得するフラッシュ明度補正部と、を備える画像処理装置に関する。
本態様によれば、「フラッシュ光による被写体の画像成分を示すフラッシュ画像成分データ」と「被写体の色に応じてもたらされるフラッシュ画像成分データの明度の相違を反映したフラッシュ補正データ」とに基づいて、フラッシュ画像成分データの明度の相違が補償(補正)されたフラッシュ画像補正成分データが取得される。このフラッシュ画像補正成分データに基づいて第1の画像データに対する各種の画像処理を行うことで、被写体の色に応じてもたらされるフラッシュ画像成分データの明度の相違を補償した処理結果を得ることができる。
ここでいう「フラッシュ光による被写体の画像成分を示すフラッシュ画像成分データ」は、例えば、フラッシュ光と環境光との影響下で取得されたフラッシュ発光画像のデータ(第1の画像データ)から環境光の影響を取り除いたデータによって表すことができる。なお「フラッシュ画像成分データ」は、フラッシュ光の影響を直接的又は間接的に示すデータによって表現可能であり、例えば撮影に使用されたフラッシュ光と同等の色成分比を持つ光の影響を受けたデータによって表されてもよい。
また、ここでいう「環境光」は、撮影の際に被写体に影響を及ぼすフラッシュ光以外の光成分を指し、単一の光源からの光によって「環境光」が構成されてもよいし、複数の光源からの光がミックスされて「環境光」が構成されてもよい。
望ましくは、フラッシュ画像成分取得部は、第1の画像データと、フラッシュ光の非発光下で被写体を撮影することにより取得された第2の画像データとの差分を表す第1の差分データから、フラッシュ画像成分データを取得する。
本態様によれば、「フラッシュ光の発光下で被写体を撮影することにより取得された第1の画像データ」と「フラッシュ光の非発光下で被写体を撮影することにより取得された第2の画像データ」との差分を表す第1の差分データによって、「フラッシュ光による被写体の画像成分を直接的に示すフラッシュ画像成分データ」を精度良く表すことができる。
望ましくは、フラッシュ画像成分取得部は、第1の発光量のフラッシュ光の発光下で被写体を撮影することにより取得された第1の画像データと、第1の発光量とは異なる第2の発光量のフラッシュ光の発光下で被写体を撮影することにより取得された第2の画像データとの差分を表す第1の差分データから、フラッシュ画像成分データを取得する。
本態様によれば、「第1の発光量のフラッシュ光の発光下で被写体を撮影することにより取得された第1の画像データ」と「第2の発光量のフラッシュ光の発光下で被写体を撮影することにより取得された第2の画像データ」との差分を表す第1の差分データによって、「フラッシュ光による被写体の画像成分を示すフラッシュ画像成分データ」を精度良く取得することができる。本態様では、「フラッシュ光と同等の色成分比を持つ光の影響を受けたデータ」によって「フラッシュ光による被写体の画像成分を間接的に示すフラッシュ画像成分データ」を表すことができる。
望ましくは、フラッシュ画像成分取得部は、第1の差分データにフラッシュ光用ホワイトバランスゲインを適用することでフラッシュ画像成分データを取得する。
本態様によれば、「フラッシュ光による被写体の画像成分を示すフラッシュ画像成分データ」はフラッシュ光用のホワイトバランスゲインが適用されてホワイトバランスが調整されるため、被写体が本来有する適正な色調が再現されたフラッシュ画像成分データを取得することができる。
望ましくは、フラッシュ補正データ取得部は、複数の処理ブロックに区分されたフラッシュ画像成分データの複数の処理ブロックの各々におけるフラッシュ画像成分データの色成分比を表す色比データを取得し、フラッシュ画像成分データの色比データに基づいて、被写体の色に応じてもたらされるフラッシュ画像成分データの複数の処理ブロック間における明度の相違を反映したフラッシュ補正データを取得する。
本態様によれば、処理ブロック単位でフラッシュ補正データを取得することができる。
望ましくは、フラッシュ補正データは、フラッシュ画像成分データの明度を示す第1の明度データに適用されることで、被写体の色に応じてもたらされるフラッシュ画像成分データの明度の相違を補償するデータであり、フラッシュ補正データ取得部は、フラッシュ画像成分データの複数の処理ブロックの各々に関してフラッシュ補正データを取得する。
本態様によれば、フラッシュ画像成分データの明度を示す第1の明度データに適用することで、被写体の色に応じてもたらされるフラッシュ画像成分データの明度の相違を補償することが可能なフラッシュ補正データを取得することができる。
望ましくは、フラッシュ明度補正部は、フラッシュ画像成分データに基づいて、複数の処理ブロックの各々における第1の明度データを取得し、複数の処理ブロックの各々に関して第1の明度データにフラッシュ補正データを適用することで、フラッシュ画像補正成分データを取得する。
本態様によれば、フラッシュ画像成分データの明度を示す第1の明度データにフラッシュ補正データが適用され、被写体の色に応じてもたらされるフラッシュ画像成分データの明度の相違が補償されたフラッシュ画像補正成分データが取得される。
望ましくは、フラッシュ補正データ取得部は、無彩色の色比データを基準に、複数の処理ブロックの各々に関するフラッシュ補正データを取得する。
本態様によれば、無彩色を基準にしてフラッシュ補正データが取得される。無彩色は、「白」、「黒」及び「白と黒との混合で得られる色」であり、本明細書において「グレー」とは、これらの「白」、「黒」及び「白と黒との混合で得られる色」を含みうる概念である。原色を使う色空間上において無彩色は各原色量が等しくなり、例えばRGB色空間において無彩色は「Rデータ=Gデータ=Bデータ(すなわち「Rデータ:Gデータ:Bデータ=1:1:1」)」の関係を有する。
望ましくは、第1の画像データは、複数色のカラーフィルタを含む撮像素子によって取得され、フラッシュ画像成分データは複数色の各々に関する色成分データを含み、フラッシュ補正データ取得部は、色成分データに基づいて、複数の処理ブロックの各々におけるフラッシュ画像成分データの色比データを取得する。
本態様によれば、撮影に使用される撮像素子のカラーフィルタの色に基づいて、フラッシュ画像成分データの色比データを簡便に取得することができる。
望ましくは、フラッシュ画像成分データの色比データは、複数の処理ブロックの各々におけるフラッシュ画像成分データの複数色の色成分データの合計に対する、複数色の各々に関するフラッシュ画像成分データの色成分データの比に基づいている。
本態様によれば、フラッシュ画像成分データの色比データは、複数の処理ブロックの各々におけるフラッシュ画像成分データの複数色の色成分データの合計に基づいて正規化されたデータとして取得可能である。
望ましくは、フラッシュ補正データ取得部は、被写体の色に応じたフラッシュ画像成分データの明度を示す明度指標データをフラッシュ画像成分データの色比データから導き出す演算処理に基づいて、複数の処理ブロックの各々におけるフラッシュ画像成分データの色比データから、複数の処理ブロックの各々におけるフラッシュ画像成分データの明度指標データを取得し、複数の処理ブロックの各々における複数色の色成分データの合計に対する複数色の各々に関する色成分データの比が相互に等しい無彩色の色比データから、無彩色に関する明度指標データを演算処理に基づいて取得し、無彩色に関する明度指標データに対する複数の処理ブロックの各々におけるフラッシュ画像成分データの明度指標データの比に基づいて、フラッシュ画像成分データの複数の処理ブロックの各々に関するフラッシュ補正データを取得する。
本態様によれば、「無彩色に関する明度指標データ」に対する「フラッシュ画像成分データの明度指標データ」の比に基づいてフラッシュ補正データが取得される。
なお明度指標データを導き出すために用いられる「演算処理」は、明度を直接的又は間接的に示すデータを算出することが可能な処理であればよく、予め定められた演算式や参照テーブルを使用可能である。したがって、例えば「輝度値」の算出に用いられる演算式をここでいう「演算処理」で使用してもよく、そのような演算式によって算出される「輝度値」を「明度指標データ」としてもよい。
望ましくは、複数の処理ブロックの各々は、単一の画素によって構成される。
本態様によれば、画素単位でフラッシュ補正データを取得することができる。ここでいう「画素」は、フラッシュ画像成分データの構成単位であり、撮像素子を構成する画素を基準とすることができる。
望ましくは、複数の処理ブロックの各々は、複数の画素によって構成される。
本態様によれば、複数画素の単位でフラッシュ補正データを取得することができる。例えばフラッシュ画像成分データを構成する各画素データに予期していないノイズ成分が含まれる場合であっても、複数画素単位でフラッシュ補正データの取得処理を行うことで、そのようなノイズ成分の影響を実質的に低減することができる。
望ましくは、第1の画像データの撮影に使用された撮像素子は複数色のカラーフィルタを含む単板式の撮像素子であり、複数色のカラーフィルタは、特定の色パターンの基本配列が繰り返し配置されることで構成され、複数の処理ブロックの各々を構成する複数の画素は、基本配列を構成する画素に対応する。
本態様によれば、撮像素子のカラーフィルタの基本配列を基準にフラッシュ補正データを取得することができ、フラッシュ補正データの取得処理を簡便に行うことができる。
望ましくは、画像処理装置は、環境光による被写体の画像成分を示す環境光画像成分データを取得する環境光画像成分取得部と、環境光画像成分データに基づき、被写体の色に応じてもたらされる環境光画像成分データの明度の相違を反映した環境光補正データを取得する環境光補正データ取得部と、環境光画像成分データ及び環境光補正データに基づき、被写体の色に応じてもたらされる環境光画像成分データの明度の相違が補償された環境光画像補正成分データを取得する環境光明度補正部と、を更に備える。
本態様によれば、「環境光による被写体の画像成分を示す環境光画像成分データ」と「被写体の色に応じてもたらされる環境光画像成分データの明度の相違を反映した環境光補正データ」とに基づいて、環境光画像成分データの明度の相違が補償された環境光画像補正成分データが取得される。この環境光画像補正成分データに基づいて第1の画像データに対する各種の画像処理を行うことで、被写体の色に応じてもたらされる環境光画像成分データの明度の相違を補償した処理結果を得ることができる。
ここでいう「環境光による被写体の画像成分を示す環境光画像成分データ」は、例えば、フラッシュ光と環境光との影響下で取得されたフラッシュ発光画像のデータ(第1の画像データ)からフラッシュ光の影響を取り除いたデータによって表すことができる。この「環境光画像成分データ」は、フラッシュ発光画像のデータ(第1の画像データ)の撮影取得に使用された環境光と同等の色成分比を持つ光の影響を受けたデータによって表すことができる。
望ましくは、環境光画像成分取得部は、フラッシュ光の非発光下で被写体を撮影することにより取得された第2の画像データを基礎データとして環境光画像成分データを取得する。
本態様によれば、第2の画像データに基づいて、環境光画像成分データを精度良く取得することができる。
環境光画像成分データは、第2の画像データ自体であってもよいし、第2の画像データから導き出される他のデータであってもよい。
望ましくは、環境光画像成分取得部は、第1の画像データと、第1の画像データとフラッシュ光の非発光下で被写体を撮影することにより取得された第2の画像データとの差分を表す第1の差分データと、の差分を表す第2の差分データを基礎データとして、環境光画像成分データを取得する。
本態様によれば、第1の差分データによって表されるフラッシュ画像成分データを、フラッシュ発光画像のデータである第1の画像データから取り除くことで、環境光画像成分データを取得することができる。
環境光画像成分取得部は、第1の発光量のフラッシュ光の発光下で被写体を撮影することにより取得された第1の画像データと、第1の画像データと第1の発光量とは異なる第2の発光量のフラッシュ光の発光下で被写体を撮影することにより取得された第2の画像データとの差分を表す第1の差分データと、に基づいて基礎データを導き出し、この基礎データに基づいて環境光画像成分データを取得してもよい。
望ましくは、環境光画像成分取得部は、複数の処理ブロックの各々における基礎データの色成分比を表す色比データを取得し、複数の処理ブロックの各々におけるフラッシュ画像成分データの色比データと基礎データの色比データとに基づいて環境光用ホワイトバランスゲインを取得し、基礎データに環境光用ホワイトバランスゲインを適用することで環境光画像成分データを取得する。
本態様によれば、「環境光による被写体の画像成分を示す環境光画像成分データ」は環境光用のホワイトバランスゲインが適用されてホワイトバランスが調整されるため、被写体の適正な色調が再現された環境光画像成分データを取得することができる。
望ましくは、環境光用ホワイトバランスゲインは、複数の処理ブロックの各々における基礎データの色比データに適用されると、複数の処理ブロックの各々における環境光画像成分データの色比データが導き出される。
本態様によれば、環境光用のホワイトバランスゲインを使って環境光画像成分データの色比データが導き出される。
望ましくは、環境光補正データ取得部は、複数の処理ブロックの各々における環境光画像成分データの色成分比を表す色比データを取得し、環境光画像成分データの色比データに基づいて、被写体の色に応じてもたらされる環境光画像成分データの複数の処理ブロック間における明度の相違を反映した環境光補正データを取得する。
本態様によれば、処理ブロック単位で環境光補正データを取得することができる。
望ましくは、環境光補正データは、環境光画像成分データの明度を示す第2の明度データに適用されることで、被写体の色に応じてもたらされる環境光画像成分データの明度の相違を補償するデータであり、環境光補正データ取得部は、環境光画像成分データの複数の処理ブロックの各々に関して環境光補正データを取得する。
本態様によれば、環境光画像成分データの明度を示す第2の明度データに適用することで、被写体の色に応じてもたらされる環境光画像成分データの明度の相違を補償することが可能な環境光補正データを取得することができる。
望ましくは、環境光明度補正部は、環境光画像成分データに基づいて、複数の処理ブロックの各々における第2の明度データを取得し、複数の処理ブロックの各々に関して第2の明度データに環境光補正データを適用することで、環境光画像補正成分データを取得する。
本態様によれば、環境光画像成分データの明度を示す第2の明度データに環境光補正データが適用され、被写体の色に応じてもたらされる環境光画像成分データの明度の相違が補償された環境光画像補正成分データが取得される。
望ましくは、環境光補正データ取得部は、無彩色の色比データを基準に、複数の処理ブロックの各々に関する環境光補正データを取得する。
本態様によれば、無彩色を基準にして環境光補正データが取得される。
望ましくは、第1の画像データは、複数色のカラーフィルタを含む撮像素子によって撮影され、環境光画像成分データは複数色の各々に関する色成分データを含み、環境光補正データ取得部は、色成分データに基づいて、複数の処理ブロックの各々における環境光画像成分データの色比データを取得する。
本態様によれば、撮影に使用される撮像素子のカラーフィルタの色に基づいて、環境光画像成分データの色比データを簡便に取得することができる。
望ましくは、環境光画像成分データの色比データは、複数の処理ブロックの各々における環境光画像成分データの複数色の色成分データの合計に対する、複数色の各々に関する環境光画像成分データの色成分データの比に基づいている。
本態様によれば、環境光画像成分データの色比データは、複数の処理ブロックの各々における環境光画像成分データの複数色の色成分データの合計に基づいて正規化されたデータとして取得可能である。
望ましくは、環境光補正データ取得部は、被写体の色に応じた環境光画像成分データの明度を示す明度指標データを環境光画像成分データの色比データから導き出す演算処理に基づいて、複数の処理ブロックの各々における環境光画像成分データの色比データから、複数の処理ブロックの各々における環境光画像成分データの明度指標データを取得し、複数の処理ブロックの各々における複数色の色成分データの合計に対する複数色の各々に関する色成分データの比が相互に等しい無彩色の色比データから、無彩色に関する明度指標データを演算処理に基づいて取得し、無彩色に関する明度指標データに対する複数の処理ブロックの各々における環境光画像成分データの明度指標データの比に基づいて、環境光画像成分データの複数の処理ブロックの各々に関する環境光補正データを取得する。
本態様によれば、「無彩色に関する明度指標データ」に対する「環境光画像成分データの明度指標データ」の比に基づいて環境光補正データが取得される。
なお明度指標データを導き出すために用いられる「演算処理」は、明度を直接的又は間接的に示すデータを算出することが可能な処理であればよい。したがって、「輝度値」の算出に用いられる演算式をここでいう「演算処理」で使用してもよく、そのような演算式によって算出される「輝度値」を「明度指標データ」としてもよい。
望ましくは、画像処理装置は、フラッシュ画像補正成分データに基づいて、第1の画像データのホワイトバランスを調整するホワイトバランス処理部を更に備える。
本態様によれば、被写体の色に応じてもたらされるフラッシュ画像成分データの明度の相違が補償されたフラッシュ画像補正成分データに基づいて、第1の画像データのホワイトバランスを調整することができる。
望ましくは、ホワイトバランス処理部は、フラッシュ画像補正成分データに基づいて、第1の画像データにフラッシュ光用ホワイトバランスゲインを適用する。
本態様によれば、被写体の色に応じてもたらされるフラッシュ画像成分データの明度の相違が補償されたフラッシュ画像補正成分データに基づいて、第1の画像データにフラッシュ光用ホワイトバランスゲインが適用される。
望ましくは、画像処理装置は、フラッシュ画像補正成分データ及び環境光画像補正成分データに基づいて、第1の画像データのホワイトバランスを調整するホワイトバランス処理部を更に備える。
本態様によれば、「被写体の色に応じてもたらされるフラッシュ画像成分データの明度の相違が補償されたフラッシュ画像補正成分データ」と「被写体の色に応じてもたらされる環境光画像成分データの明度の相違が補償された環境光画像補正成分データ」とに基づいて、第1の画像データのホワイトバランスを調整することができる。
望ましくは、ホワイトバランス処理部は、フラッシュ画像補正成分データと環境光画像補正成分データとに基づいて、第1の画像データに、フラッシュ光用ホワイトバランスゲイン及び環境光用ホワイトバランスゲインを適用する。
本態様によれば、「被写体の色に応じてもたらされるフラッシュ画像成分データの明度の相違が補償されたフラッシュ画像補正成分データ」と「被写体の色に応じてもたらされる環境光画像成分データの明度の相違が補償された環境光画像補正成分データ」とに基づいて、第1の画像データにフラッシュ光用ホワイトバランスゲイン及び環境光用ホワイトバランスゲインが適用される。
望ましくは、明度は輝度である。
本態様によれば、被写体の色に応じてもたらされるフラッシュ画像成分データの輝度の相違が補償されたフラッシュ画像補正成分データが取得される。
本発明の他の態様は、撮像素子と、上記の画像処理装置と、を備える撮像装置に関する。
本発明の他の態様は、フラッシュ光の発光下で被写体を撮影することにより取得された第1の画像データから、フラッシュ光による被写体の画像成分を示すフラッシュ画像成分データを取得するステップと、フラッシュ画像成分データに基づき、被写体の色に応じてもたらされるフラッシュ画像成分データの明度の相違を反映したフラッシュ補正データを取得するステップと、フラッシュ画像成分データ及びフラッシュ補正データに基づき、被写体の色に応じてもたらされるフラッシュ画像成分データの明度の相違が補償されたフラッシュ画像補正成分データを取得するステップと、を備える画像処理方法に関する。
本発明の他の態様は、フラッシュ光の発光下で被写体を撮影することにより取得された第1の画像データから、フラッシュ光による被写体の画像成分を示すフラッシュ画像成分データを取得する手順と、フラッシュ画像成分データに基づき、被写体の色に応じてもたらされるフラッシュ画像成分データの明度の相違を反映したフラッシュ補正データを取得する手順と、フラッシュ画像成分データ及びフラッシュ補正データに基づき、被写体の色に応じてもたらされるフラッシュ画像成分データの明度の相違が補償されたフラッシュ画像補正成分データを取得する手順と、をコンピュータに実行させるためのプログラムに関する。
本発明によれば、被写体の色に応じてもたらされるフラッシュ画像成分データの明度の相違が補償されたフラッシュ画像補正成分データを取得することができる。この「被写体の色に応じてもたらされるフラッシュ画像成分データの明度の相違が補償されたフラッシュ画像補正成分データ」を用いてホワイトバランス処理等の各種の画像処理を処理対象の画像データに対して行うことで、被写体の色に応じてもたらされる明度の相違を補償することができ、処理精度を高めることが可能になる。
デジタルカメラの正面斜視図である。 デジタルカメラの背面斜視図である。 デジタルカメラの制御処理系を示すブロック図である。 被写体の色に応じてもたらされる画像データの明度(輝度)の相違を説明する図であり、図4(a)は、グレーの被写体及び青の被写体の各々に関する画像データの輝度値の関係を示す図であり、図4(b)は、被写体の色に応じてもたらされる画像データの明度の相違を補償した後の画像データの輝度値の関係を示す図である。 第1実施形態に係る画像処理装置の機能構成を示すブロック図である。 第1実施形態に係るホワイトバランス処理のフローチャートである。 第2実施形態に係るフラッシュ画像成分取得部の機能構成を示すブロック図である。 フラッシュ画像成分取得部の第1の画像データ抽出部の構成例を示すブロック図である。 フラッシュ画像成分取得部の第1の抽出データ調整部の構成例を示すブロック図である。 撮像素子を構成する複数の画素の平面構造を示す概念図である。 カラーフィルタの基本配列例を示す平面図であり、(a)はベイヤー配列の基本配列パターンを示し、(b)はX−Trans(登録商標)タイプの基本配列パターンを示す。 第2実施形態に係るフラッシュ補正データ取得部の機能構成を示すブロック図である。 第1の色比データ取得部の機能構成を示すブロック図である。 第1の補正データ算出部の機能構成を示すブロック図である。 第2実施形態に係るホワイトバランス処理のフローチャートである。 第3実施形態に係るフラッシュ明度補正部の機能構成を示すブロック図である。 第3実施形態に係るホワイトバランス処理のフローチャートである。 第4実施形態に係る画像処理装置の機能構成を示すブロック図である。 第4実施形態に係る環境光画像成分取得部の機能構成を示すブロック図である。 環境光画像成分取得部の第2の画像データ抽出部の構成例を示すブロック図である。 環境光画像成分取得部の第2の抽出データ調整部の構成例を示すブロック図である。 環境光補正データ取得部の機能構成を示すブロック図である。 第2の色比データ取得部の機能構成を示すブロック図である。 第2の補正データ算出部の機能構成を示すブロック図である。 環境光明度補正部の機能構成を示すブロック図である。 第4実施形態に係るホワイトバランス処理部の機能構成を示すブロック図である。 第4実施形態に係るホワイトバランス処理のフローチャートである。 第4実施形態においてフラッシュ画像補正成分データを取得するための処理フロー(図27のステップS42)の詳細を示すフローチャートである。 第4実施形態において環境光画像補正成分データを取得するための処理フロー(図27のステップS43)の詳細を示すフローチャートである。 スマートフォンの外観を示す図である。 図30に示すスマートフォンの構成を示すブロック図である。 赤の色票、緑の色票及び青の色票に関する「フラッシュ発光画像とフラッシュ非発光画像との間の差分データ」の輝度の関係を例示するグラフである。
図面を参照して本発明の実施形態について説明する。以下の実施形態では、デジタルカメラ(撮像装置)に本発明を適用する例について説明する。ただし、デジタルカメラ以外の画像処理装置、撮像装置、画像処理方法及びプログラムにも本発明を適用することが可能である。
図1は、デジタルカメラ2の正面斜視図である。図2は、デジタルカメラ2の背面斜視図である。
デジタルカメラ2は、カメラ本体3と、カメラ本体3の前面に取り付けられるレンズ鏡筒4とを備える。カメラ本体3及びレンズ鏡筒4は、一体的に設けられてもよいし、レンズ交換式カメラとして着脱自在に設けられてもよい。
カメラ本体3の前面には、レンズ鏡筒4に加えてフラッシュ発光部5が設けられ、カメラ本体3の上面には、シャッタボタン6及び電源スイッチ7が設けられている。シャッタボタン6は、ユーザからの撮影指示を受け付ける撮影指示部であり、電源スイッチ7は、デジタルカメラ2の電源のオン及びオフの切り換え指示をユーザから受け付ける電源切換部である。なおフラッシュ発光部5は、デジタルカメラ2(カメラ本体3)に内蔵されているタイプのフラッシュ装置であってもよいし、外付けタイプのフラッシュ装置であってもよい。
カメラ本体3の背面には、液晶パネル等によって構成される表示部8と、ユーザによって直接的に操作される操作部9とが設けられている。表示部8は、撮影待機状態ではライブビュー画像(スルー画像)を表示して電子ビューファインダとして機能し、撮影画像やメモリ記憶画像の再生時には再生画像表示部として機能する。
操作部9は、モード切換スイッチ、十字キー、実行キーなどの任意の操作デバイスによって構成される。例えばモード切換スイッチは、デジタルカメラ2の動作モードを切り換える際にユーザによって操作される。デジタルカメラ2の動作モードとして、被写体を撮像して撮影画像を得るための撮影モード、画像を再生表示する再生モード、等がある。また他の撮影モードとして、オートフォーカスを行うAF(Auto Focus)モード及びマニュアルフォーカス操作を行うMF(Manual Focus)モードがある。一方、十字キー及び実行キーは、表示部8にメニュー画面や設定画面を表示したり、メニュー画面や設定画面内に表示されるカーソルを移動したり、デジタルカメラ2の各種設定を確定したりする場合に、ユーザによって操作される。
カメラ本体3の底部(図示省略)には、メインメモリ10が装填されるメモリスロットと、このメモリスロットの開口を開閉する装填蓋とが設けられている。メインメモリ10は、カメラ本体3に着脱自在に設けられており、カメラ本体3に装着されると、カメラ本体3に設けられる記憶制御部33(図3参照)と電気的に接続される。メインメモリ10は、一般にカード型フラッシュメモリ等の半導体メモリにより構成可能であるが、特に限定されるものではなく、磁気媒体等の任意の記憶方式の記憶媒体をメインメモリ10として用いることが可能である。
図3は、デジタルカメラ2の制御処理系を示すブロック図である。
被写体光は、レンズ鏡筒4に設けられるレンズ部12とカメラ本体3に設けられるメカニカルシャッタ20とを通過し、撮像素子21によって受光される。レンズ部12は、撮影レンズ(レンズ群)及び絞りを含む撮影光学系によって構成される。撮像素子21は、被写体像を受光して画像データを生成する素子であり、RGB(赤緑青)等のカラーフィルタと、光学像を電気信号に変換するCCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)等のイメージセンサ(フォトダイオード)とを有する。撮像素子21から出力される画像データは、プロセス処理部22でAGC(Automatic Gain Control)回路等によってプロセス処理が施され、その後AD変換部23によってアナログ形式の画像データがデジタル形式の画像データに変換される。デジタル化された画像データはバッファメモリ24に保存される。
バッファメモリ24は、画像データを一時的に記憶する領域であり、DRAM(Dynamic Random Access Memory)等によって構成される。AD変換部23から送られてきてバッファメモリ24に蓄えられた画像データは、システム制御部25により制御される画像処理装置31によって読み出される。
画像処理装置31は、バッファメモリ24から読み出した画像データを処理対象として使用し、後述のホワイトバランス処理の他に、ガンマ補正処理及びデモザイク処理等の各種の画像処理を行い、画像処理後の画像データを再びバッファメモリ24に保存する。
画像処理装置31において画像処理が施されてバッファメモリ24に保存された画像データは、表示制御部35及び圧縮伸張部32によって読み出される。表示制御部35は表示部8を制御し、バッファメモリ24から読み出した画像データを表示部8に表示させる。このように、撮像素子21から出力され画像処理装置31において画像処理を受けた画像データは、撮影確認画像(ポストビュー画像)として表示部8に表示される。
一方、圧縮伸張部32は、バッファメモリ24から読み出した画像データの圧縮処理を行って、JPEG(Joint Photographic Experts Group)やTIFF(Tagged Image File Format)等の任意の圧縮形式の画像データを作成する。圧縮処理後の画像データは、メインメモリ10へのデータ記憶処理及びメインメモリ10からのデータ読み出し処理をコントロールする記憶制御部33によって、メインメモリ10に記憶される。なおメインメモリ10に画像データ等のデータ類を記憶する場合、記憶制御部33は、システム制御部25を介してクロックデバイス34から取得される日時情報等に基づいて、そのデータ類に編集日時情報(更新日時情報)等の撮影情報やその他の関連情報を付加する。この撮影情報を含む関連情報は、任意のフォーマットで画像データに付加され、例えばExif(Exchangeable image file format)形式を採用可能である。
メインメモリ10に保存されている画像データを再生する再生モードにおいて、メインメモリ10に保存されている画像データは、システム制御部25により制御される記憶制御部33によって読み出され、圧縮伸張部32によって伸張処理が施された後にバッファメモリ24に保存される。そして撮影画像の確認表示と同様の手順で、表示制御部35によってバッファメモリ24から画像データが読み出され、表示部8において画像データが再生表示される。
システム制御部25は、上述のようにバッファメモリ24、画像処理装置31及び記憶制御部33をコントロールするが、デジタルカメラ2における他の各部もコントロールする。例えば、システム制御部25は、レンズ駆動部27を制御してレンズ部12の駆動をコントロールし、シャッタ駆動部26を制御してメカニカルシャッタ20の駆動をコントロールし、撮像素子21を制御して画像データの出力をコントロールする。またシステム制御部25は、フラッシュ発光部5を制御してフラッシュの発光及び非発光をコントロールし、電源制御部28を制御して電源29における電池装着の有無、電池の種類、電池残量の検出等を行う。またシステム制御部25は、クロックデバイス34においてカウントされる日時情報を取得して各種の処理に利用する。またシステム制御部25は、画像処理装置31を構成する各種の処理部を制御する。
さらにシステム制御部25は、シャッタボタン6、電源スイッチ7及び操作部9を含むユーザインタフェース36からの操作信号を取得し、操作信号に応じた各種の処理及びデバイス制御を行う。例えば、システム制御部25は、シャッタボタン6から受信したレリーズ信号に応じてシャッタ駆動部26を制御し、メカニカルシャッタ20の開閉をコントロールする。またシステム制御部25は、電源スイッチ7から受信した電源オンオフ信号に応じて電源制御部28を制御し、電源29のオン及びオフをコントロールする。
システム制御部25で行われる各種の処理及びデバイス制御に必要なプログラムやデータ類は、制御メモリ30に記憶されている。システム制御部25は、必要に応じて、制御メモリ30に記憶されているプログラムやデータ類を読み出すことができ、また新たなプログラムやデータ類を制御メモリ30に保存することができる。例えば設定されたホワイトバランスモードの種類やホワイトバランスゲイン等の条件データを、システム制御部25は制御メモリ30に書き込むことができる。またシステム制御部25は、表示制御部35を制御し、各部から取得した各種情報を表示部8に表示させることができる。なおシステム制御部25は、ユーザがユーザインタフェース36を介して入力する操作信号に応じて、表示部8に表示させる各種情報を変更することができる。
次に、画像処理装置31におけるホワイトバランス処理について説明する。
以下の各実施形態ではホワイトバランス処理を画像処理の一例として説明するが、下述の画像処理プロセスはホワイトバランス処理以外の他の処理にも応用可能である。
以下の各実施形態では、フラッシュ発光画像のホワイトバランス処理において、被写体の色に応じてもたらされる明度の相違を補償(補正)するための補正処理が行われる。以下の各実施形態では、画像データの「明度」として「輝度」が使われる。
図4は、被写体の色に応じてもたらされる画像データの明度(輝度)の相違を説明する図である。図4(a)は、グレー(無彩色)の被写体及び青(有彩色)の被写体の各々に関する画像データの輝度値の関係を示す図であり、図4(b)は、被写体の色に応じてもたらされる画像データの明度の相違を補償した後の画像データの輝度値の関係を示す図である。図4(a)及び図4(b)の縦軸は、グレーの被写体及び青の被写体の各々に関する画像データの輝度値を示す。なお図4(a)及び図4(b)は、グレーの被写体及び青の被写体がフラッシュ発光部から等距離に配置されるケースを示す。図4(a)及び図4(b)において、「Fg1」はグレーの被写体の画像データの輝度のうちフラッシュ光が寄与する部分を概念的に示し、「Lg1」はグレーの被写体の画像データの輝度のうち環境光が寄与する部分を概念的に示す。また「Fb1」及び「Fb2」は青の被写体の画像データの輝度のうちフラッシュ光が寄与する部分を概念的に示し、「Lb1」及び「Lb2」は青の被写体の画像データの輝度のうち環境光が寄与する部分を概念的に示す。
一般に、フラッシュ発光部5と被写体との間の距離に応じて、画像データにおける「フラッシュ光の影響量(図4(a)の「Fg1」及び「Fb1」参照)」及び「環境光の影響量(図4(a)の「Lg1」及び「Lb1」参照)」は変化する。また、画像の明るさは被写体の色に依存するため、フラッシュ発光部5と被写体との間の距離が同じであっても被写体の色が異なると、画像におけるフラッシュ光の影響量及び環境光の影響量は変わる。したがって図4(a)に示す例では、グレーの被写体の画像データと青の被写体の画像データとの間で、フラッシュ光が寄与する輝度部分の大きさは一致せず(すなわち「Fg1≠Fb1」)、また環境光が寄与する輝度部分の大きさも一致せず(すなわち「Lg1≠Lb1」)、全体の輝度の大きさも異なる(すなわち「Fg1+Lg1≠Fb1+Lb1」)。
下述の各実施形態では、このような被写体の色に応じてもたらされる画像データの輝度(明度)の相違を補償し、図4(b)に示すように、下記の式1〜式3のうち少なくともいずれかの関係を実現するための処理が行われる。
式1 「Fg1=Fb2(ただし「Fb2=Fb1×フラッシュ光用の補正データ(フラッシュ補正データ)」)」
式2 「Lg1=Lb2(ただし「Lb2=Lb1×環境光用の補正データ(環境光補正データ)」)」
式3 「Fg1+Lg1=Fb2+Lb2」
このように被写体の色に依存する明度の相違などの影響を取り除いて、上記の式1〜式3のうち少なくともいずれかにより表される関係を実現することによって、より正確な「フラッシュ光の影響を示す画像データ」を取得することができ、これを用いて画像処理を行うことにより画像データの輝度(明度)の相違を補償することができる。
上述のように画像処理装置31ではホワイトバランス処理以外の画像処理も行われるが、以下では、主としてホワイトバランス処理について説明し、ホワイトバランス処理以外の画像処理についての説明は省略する。
<第1実施形態>
図5は、第1実施形態に係る画像処理装置31の機能構成を示すブロック図である。本実施形態の画像処理装置31は、フラッシュ画像成分取得部40、フラッシュ補正データ取得部42、フラッシュ明度補正部44及びホワイトバランス処理部46を有する。
フラッシュ画像成分取得部40は、フラッシュ光の発光下で被写体を撮影することにより取得された第1の画像データ(フラッシュ発光画像データD1)に基づき、フラッシュ光による被写体の画像成分を示すフラッシュ画像成分データ(RGBフラッシュ影響度マップ)D3を取得する。
フラッシュ画像成分取得部40におけるフラッシュ画像成分データD3の具体的な取得手法は特に限定されない。例えばフラッシュ画像成分取得部40は、「フラッシュ発光画像データD1(第1の画像データ)」と「フラッシュ光の非発光下で被写体を撮影することにより取得されたフラッシュ非発光画像データD2(第2の画像データ)」との差分データを、フラッシュ画像成分データD3とすることができる。このフラッシュ画像成分データD3は、フラッシュ発光画像データD1から環境光の影響がキャンセルされた「フラッシュ光の影響を示す画像データ」である。すなわちフラッシュ画像成分データD3は、フラッシュ発光画像から、フラッシュ光の影響を受けずに環境光の影響のみを受けている領域を排除して、フラッシュ光の影響を受けている領域を分離したデータとなる。
フラッシュ画像成分取得部40によるフラッシュ発光画像データD1及びフラッシュ非発光画像データD2の取得手法は特に限定されない。例えば、連続的に撮影取得された同一被写体に関するフラッシュ発光画像データD1及びフラッシュ非発光画像データD2が、撮像素子21(図3参照)から、プロセス処理部22、AD変換部23及びバッファメモリ24を介し、画像処理装置31のフラッシュ画像成分取得部40に供給されてもよい。またフラッシュ画像成分取得部40は、メインメモリ10に保存されている同一被写体に関するフラッシュ発光画像データD1及びフラッシュ非発光画像データD2を処理対象として取得してもよい。この場合、メインメモリ10に保存されているフラッシュ発光画像データD1及びフラッシュ非発光画像データD2は記憶制御部33によって読み出され、圧縮伸張部32で伸張処理が施された後に、バッファメモリ24を介して画像処理装置31のフラッシュ画像成分取得部40に供給される。
また、画像処理装置31(フラッシュ画像成分取得部40)に供給されるフラッシュ発光画像データD1及びフラッシュ非発光画像データD2の撮影取得条件、画像タイプ、画像サイズ等の各種の条件は特に限定されない。すなわち、「フラッシュ発光下で撮影取得された画像データ」及び「フラッシュ非発光下で撮影取得された画像データ」であれば、画像処理装置31(フラッシュ画像成分取得部40)に供給されるフラッシュ発光画像データD1及びフラッシュ非発光画像データD2は如何なる撮影条件下で撮影取得された画像データであっても構わない。例えば、フラッシュ発光画像データD1及びフラッシュ非発光画像データD2は、静止画データであってもよいし、動画データであってもよい。またフラッシュ非発光画像データD2として、ライブビュー用の画像データや、フラッシュ光の調光用の画像データのような高速動作時に撮影取得された画像データが使用されてもよい。
これらのフラッシュ発光画像データD1及びフラッシュ非発光画像データD2を画像処理装置31(フラッシュ画像成分取得部40)に供給するプロセスは、システム制御部25(図3参照)の制御下で適切に行われる。
なおフラッシュ画像成分データD3を取得するフラッシュ画像成分取得部40の構成例の詳細は、後述の第2実施形態において説明する。
図5のフラッシュ補正データ取得部42は、フラッシュ画像成分データD3に基づき、被写体の色に応じてもたらされるフラッシュ画像成分データD3の明度の相違を反映したフラッシュ補正データ(色別フラッシュ影響度マップ)D4を取得する。このフラッシュ補正データD4は、被写体の色に応じてもたらされる影響(明度の相違)を解消するための数値データ(例えばゲイン値)によって表現可能である。
フラッシュ明度補正部44は、フラッシュ画像成分データD3及びフラッシュ補正データD4に基づき、被写体の色に応じてもたらされるフラッシュ画像成分データD3の明度の相違が補償されたフラッシュ画像補正成分データ(合成フラッシュ影響度マップ)D5を取得する。このフラッシュ画像補正成分データD5は、フラッシュ画像成分データD3がフラッシュ補正データD4に基づいて調整され、被写体の色に応じた分光特性に基づく輝度の相違が補償された「フラッシュ光の影響を示す(画像)データ」である。
これらのフラッシュ補正データ取得部42及びフラッシュ明度補正部44の構成例やフラッシュ補正データD4及びフラッシュ画像補正成分データD5の具体例の詳細は、後述の第2実施形態及び第3実施形態において説明する。
ホワイトバランス処理部46は、フラッシュ画像補正成分データD5に基づいて、フラッシュ発光画像データ(第1の画像データ)D1のホワイトバランスを調整する。例えば、フラッシュ画像補正成分データD5から、フラッシュ発光画像データD1においてフラッシュ光の影響が強い領域及び弱い領域を推定することが可能である。したがってホワイトバランス処理部46は、フラッシュ画像補正成分データD5に基づいてフラッシュ発光画像データ(第1の画像データ)D1のうちフラッシュ光の影響が比較的強い領域を判別し、その「フラッシュ光の影響が比較的強い領域」の画像データ(フラッシュ発光画像データ(第1の画像データ)D1)に対してフラッシュ光用ホワイトバランスゲインを適用することができる。
なお、ホワイトバランス処理部46におけるホワイトバランス処理の具体的な手法は特に限定されない。例えばフラッシュ発光画像データD1におけるフラッシュ光の影響のみを解消するホワイトバランス処理が行われてもよいし、フラッシュ発光画像データD1におけるフラッシュ光及び環境光の各々の影響を解消するホワイトバランス処理が行われてもよい。より具体的には、フラッシュ発光画像データD1のうちフラッシュ光の影響が比較的強い領域に対し、フラッシュ光用のホワイトバランスゲインが適用されてもよい。この場合、その「フラッシュ光の影響が比較的強い領域」以外の領域に対しては、ホワイトバランスゲインが適用されなくてもよいし、環境光用のホワイトバランスゲインが適用されてもよい。またフラッシュ発光画像データD1の各領域に関し、フラッシュ光の影響と環境光の影響との割合を求めて、その割合に応じて、フラッシュ光用のホワイトバランスゲイン及び環境光用のホワイトバランスゲインの両者を適用してもよい。
図6は、第1実施形態に係るホワイトバランス処理のフローチャートである。
まずフラッシュ画像成分取得部40において、フラッシュ発光画像データD1及びフラッシュ非発光画像データD2が取得され(図6のS11)、これらのフラッシュ発光画像データD1及びフラッシュ非発光画像データD2からフラッシュ画像成分データ(RGBフラッシュ影響度マップ)D3が取得される(S12)。
そしてフラッシュ補正データ取得部42において、フラッシュ画像成分データD3からフラッシュ補正データD4が取得される(S13)。またフラッシュ明度補正部44において、フラッシュ画像成分データD3及びフラッシュ補正データD4からフラッシュ画像補正成分データD5が取得される(S14)。
そしてホワイトバランス処理部46において、フラッシュ画像補正成分データD5に応じたホワイトバランス処理がフラッシュ発光画像データD1に対して行われる(S15)。
以上説明したように本実施形態の画像処理装置31及び画像処理方法によれば、被写体の色に応じてもたらされる輝度(明度)の相違などの影響を取り除くためのフラッシュ補正データが取得され、そのフラッシュ補正データが考慮されてフラッシュ光の影響度を示すフラッシュ画像補正成分データが取得される。そのようなフラッシュ画像補正成分データを用いることで、フラッシュ発光画像データD1に対して精度の高いホワイトバランス処理を行うことができる。
<第2実施形態>
本実施形態において、上述の第1実施形態と同一又は類似の構成には同一の符号を付し、その詳細な説明を省略する。
本実施形態では無彩色(グレー)の被写体の分光特性(分光反射率)を基準にして被写体の撮影画像の明度(輝度)を調整することで、被写体の色に応じてもたらされる画像データの明度の相違を補償する処理が行われる。
本実施形態に係る画像処理装置31は、図5に示す第1実施形態の画像処理装置31と同様に、フラッシュ画像成分取得部40、フラッシュ補正データ取得部42、フラッシュ明度補正部44及びホワイトバランス処理部46を備えるが、とりわけフラッシュ画像成分取得部40及びフラッシュ補正データ取得部42が以下の具体的構成を有する。
まずフラッシュ画像成分取得部40の具体的構成の一態様について説明する。
本実施形態のフラッシュ画像成分取得部40は、フラッシュ光の発光下で被写体を撮影することにより取得されたフラッシュ発光画像データ(第1の画像データ)D1と、フラッシュ光の非発光下で被写体を撮影することにより取得されたフラッシュ非発光画像データD2(第2の画像データ)との差分を表す第1の差分データから、フラッシュ画像成分データD3を取得する。特に本実施形態のフラッシュ画像成分取得部40は、その第1の差分データにフラッシュ光用ホワイトバランスゲインを適用することでフラッシュ画像成分データD3を取得する。
図7は、第2実施形態に係るフラッシュ画像成分取得部40の機能構成を示すブロック図である。本実施形態のフラッシュ画像成分取得部40は、第1の画像データ抽出部47及び第1の抽出データ調整部49を有する。第1の画像データ抽出部47は、フラッシュ発光画像データD1とフラッシュ非発光画像データD2との差分を表す第1の差分データを取得する。第1の抽出データ調整部49は、その第1の差分データにフラッシュ光用ホワイトバランスゲインを適用することでフラッシュ画像成分データD3を取得する。
図8は、フラッシュ画像成分取得部40の第1の画像データ抽出部47の構成例を示すブロック図である。本実施形態の第1の画像データ抽出部47は減算器48を有する。減算器48は、フラッシュ発光画像データD1及びフラッシュ非発光画像データD2が入力され、「第1の差分データ(第1のRGBフラッシュ影響度マップ)D6=フラッシュ発光画像データD1−フラッシュ非発光画像データD2」で表される第1の差分データD6を算出する。減算器48で算出された第1の差分データD6は、第1の画像データ抽出部47から第1の抽出データ調整部49に送られる。
図9は、フラッシュ画像成分取得部40の第1の抽出データ調整部49の構成例を示すブロック図である。本実施形態の第1の抽出データ調整部49は、第1のホワイトバランス調整部50及びフラッシュ光用WBゲイン記憶部51を有する。第1のホワイトバランス調整部50は、フラッシュ光用WBゲイン記憶部51に保存されているフラッシュ光用ホワイトバランスゲインWB1を読み出し、第1の差分データD6にフラッシュ光用ホワイトバランスゲインWB1を適用することで、フラッシュ画像成分データ(第2のRGBフラッシュ影響度マップ)D3を取得する。
このように第1の画像データ抽出部47及び第1の抽出データ調整部49を経て取得されるフラッシュ画像成分データD3は、フラッシュ光の分光特性に応じたホワイトバランスの補正が施された「フラッシュ光の影響を示す画像データ」となる。したがって、本実施形態のフラッシュ画像成分取得部40は、グレーバランスが調整されたフラッシュ画像成分データD3を出力する。
なお、フラッシュ光用ホワイトバランスゲインWB1を取得してフラッシュ光用WBゲイン記憶部51に記憶する手法は特に限定されない。例えばフラッシュ発光部5(図1及び図3参照)がデジタルカメラ2(カメラ本体3)に内蔵されているタイプのフラッシュ装置である場合、フラッシュ光の分光特性は既知であるため、デジタルカメラ2(カメラ本体3)の製造時等において、フラッシュ光用ホワイトバランスゲインWB1を予め取得してフラッシュ光用WBゲイン記憶部51に記憶しておくことができる。またフラッシュ発光部5が外付けタイプのフラッシュ装置である場合、ユーザが例えばグレーカードをフラッシュ光の発光下で撮影し、その撮影画像データから適正なフラッシュ光用ホワイトバランスゲインWB1を予め取得し、そのフラッシュ光用ホワイトバランスゲインWB1をフラッシュ光用WBゲイン記憶部51に記憶しておくことができる。
なお第1の画像データ抽出部47(フラッシュ画像成分取得部40)は、フラッシュ非発光画像データD2ではなくフラッシュ発光画像データを使用して、フラッシュ画像成分データD3を取得してもよい。すなわちフラッシュ画像成分取得部40は、第1の発光量のフラッシュ光の発光下で被写体を撮影することにより取得された第1の画像データ(フラッシュ発光画像データD1)と、第1の発光量とは異なる第2の発光量のフラッシュ光の発光下で被写体を撮影することにより取得された第2の画像データ(フラッシュ発光画像データ)との差分を表す第1の差分データから、フラッシュ画像成分データD3を取得してもよい。
次に、フラッシュ補正データ取得部42(図5参照)におけるフラッシュ画像成分データD3の処理単位(処理ブロック)について説明する。
図10は、撮像素子21を構成する複数の画素14の平面構造を示す概念図である。撮像素子21は、複数の画素14が2次元的に並べられて構成され、各画素14はカラーフィルタ及びイメージセンサを有する。撮像素子21によって撮影取得される画像データは、これらの画素14(イメージセンサ)の各々から出力される画素データ(画素値)の集合によって構成される。したがって、上述のフラッシュ発光画像データD1、フラッシュ非発光画像データD2、第1の差分データD6及びフラッシュ画像成分データD3の各々も、画素データの集合によって構成される。
本実施形態のフラッシュ補正データ取得部42は、フラッシュ画像成分データD3を複数の処理ブロックに区分して処理を行うが、これらの複数の処理ブロックの各々は、単一の画素によって構成されてもよいし、複数の画素によって構成されてもよい。各処理ブロックの構成画素を単一画素とする場合、フラッシュ補正データ取得部42等における下記の処理は画素毎に行われる。一方、各処理ブロックの構成画素を複数画素とする場合、フラッシュ補正データ取得部42等における下記の処理はその「処理ブロックを構成する複数画素」毎に行われる。
なお複数の処理ブロックの各々を複数の画素によって構成する場合、複数の処理ブロックの各々を構成する複数の画素は、撮像素子21のカラーフィルタ16の基本配列を構成する画素14に対応することが好ましい。すなわち、フラッシュ発光画像データ(第1の画像データ)D1の撮影に使用された撮像素子21はRGB等の複数色のカラーフィルタを含む単板式の撮像素子であり、これらの複数色のカラーフィルタが、特定の色パターンの基本配列が繰り返し配置されることで構成される場合には、このカラーフィルタの基本配列に対応するように各処理ブロックが定められることが好ましい。
図11は、カラーフィルタ16の基本配列例を示す平面図であり、(a)はベイヤー配列の基本配列パターンを示し、(b)はX−Trans(登録商標)タイプの基本配列パターンを示す。なお図11(a)において「R」はR(赤)のカラーフィルタ16を示し、「B」はB(青)のカラーフィルタ16を示し、「G1」及び「G2」はG(緑)のカラーフィルタ16を示す。また図11(b)において「R1」〜「R8」はR(赤)のカラーフィルタ16を示し、「B1」〜「B8」はB(青)のカラーフィルタ16を示し、「G1」〜「G20」はG(緑)のカラーフィルタ16を示す。
例えば撮像素子21がベイヤー配列のカラーフィルタ16を有する場合には、図11(a)に示すような2画素×2画素(計4画素)によって各処理ブロックを構成することが好ましい。一方、撮像素子21がX−Transタイプのカラーフィルタ16を有する場合には、図11(b)に示すような6画素×6画素(計36画素)によって各処理ブロックを構成することが好ましい。
なお、フラッシュ補正データ取得部42等の処理における各処理ブロックを構成する画素の単位と、後述のホワイトバランス処理部46におけるホワイトバランス処理における各処理ブロックを構成する画素の単位とを、同じに設定してもよい。すなわちホワイトバランス処理における各処理ブロックが単一画素によって構成される場合には、フラッシュ補正データ取得部42等の処理における各処理ブロックも単一画素によって構成することができる。またホワイトバランス処理における各処理ブロックがカラーフィルタ16の基本配列を構成する複数画素によって構成される場合には、フラッシュ補正データ取得部42等における各処理ブロックもカラーフィルタ16の基本配列を構成する複数画素によって構成することができる。
以下の説明では、各処理ブロックが単一の画素によって構成される例について説明するが、各処理ブロックが複数の画素によって構成される場合にも基本的には同様の処理が行われる。したがって各処理ブロックが複数の画素によって構成される場合の処理については、「画素」を「複数の画素によって構成される領域」と呼ぶのがふさわしいケースもあるが、下記の説明では便宜上「画素」と呼ぶ。
次に、フラッシュ補正データ取得部42の具体的構成の一態様について説明する。
本実施形態のフラッシュ補正データ取得部42は、被写体の分光特性(分光反射率)に基づく色に依存する影響を低減するために、処理ブロック毎に取得したフラッシュ画像成分データの色比データ(RGB比等)から明度指標データ(輝度データ)を取得し、この明度指標データから色間の明度(輝度)の相違を補償するためのフラッシュ補正データ(補正ゲイン)を取得する。
図12は、第2実施形態に係るフラッシュ補正データ取得部42の機能構成を示すブロック図である。
本実施形態のフラッシュ補正データ取得部42は、第1の色比データ取得部53及び第1の補正データ算出部54を有する。第1の色比データ取得部53は、フラッシュ画像成分データD3から、複数の処理ブロックの各々におけるフラッシュ画像成分データD3の色成分比を表す色比データD7を取得する。第1の補正データ算出部54は、フラッシュ画像成分データD3の色比データD7に基づいて、被写体の色に応じてもたらされるフラッシュ画像成分データD3の複数の処理ブロック間における明度の相違を反映したフラッシュ補正データD4を取得する。
図13は、第1の色比データ取得部53の機能構成を示すブロック図である。本例の第1の色比データ取得部53は、第1のデモザイク処理部56及び第1の色比算出部57を有する。
第1のデモザイク処理部56は、フラッシュ画像成分データD3のデモザイク処理(同時化処理)を行う。このデモザイク処理によって、フラッシュ画像成分データD3を構成する各画素に対し、撮像素子21のカラーフィルタ16を構成する色(RGB等)の各々に関する画素データが割り当てられた色成分データD8が取得される。
第1の色比算出部57は、この色成分データD8に基づいて、複数の処理ブロックの各々におけるフラッシュ画像成分データD3の色比データD7を取得する。この色比データD7は、フラッシュ画像成分データD3を構成する色成分データD8の色成分比率(RGB比等)を示し、処理ブロック毎に算出される。複数色(RGB等)のカラーフィルタ16を含む撮像素子21によって取得されるフラッシュ発光画像データ(第1の画像データ)D1から導き出されるフラッシュ画像成分データD3は、カラーフィルタ16を構成する複数色(RGB等)の各々に関する色成分データD8を含む。第1の色比データ取得部53(フラッシュ補正データ取得部42)の第1の色比算出部57は、この色成分データD8に基づいて、複数の処理ブロックの各々におけるフラッシュ画像成分データD3の色比データD7を取得する。
なおフラッシュ画像成分データD3の色比データD7は、複数の処理ブロックの各々におけるフラッシュ画像成分データD3の複数色の色成分データD8の合計に対する、その複数色の各々に関するフラッシュ画像成分データD3の色成分データD8の比に基づいている。例えばフラッシュ画像成分データD3がRGBの色成分データD8によって構成され、各処理ブロックが単一画素によって構成され、第1のデモザイク処理部56におけるデモザイク処理によってフラッシュ画像成分データD3の各画素がRGBの各々の色成分データD8を持つ場合について考察する。この場合、フラッシュ画像成分データD3の「ある画素」におけるRGBの色成分データD8の値の比が例えば「R:G:B=1:2:3」であるケースでは、この画素に関する色比データD7は、「R:G:B=1/(1+2+3):2/(1+2+3):3/(1+2+3)」であり、これが直接的又は間接的に示すデータとなる。
なお上述の例では、第1のデモザイク処理部56によってフラッシュ画像成分データD3のデモザイク処理が行われるが、フラッシュ画像成分取得部40が「デモザイク処理されたフラッシュ発光画像データD1及びフラッシュ非発光画像データD2」を取得する構成としてもよい。すなわちフラッシュ画像成分取得部40に入力される前の段階でフラッシュ発光画像データD1とフラッシュ非発光画像データD2とがデモザイク処理されていてもよい。また上述の例では、第1のデモザイク処理部56によってフラッシュ画像成分データD3のデモザイク処理が行われるが、処理ブロックが複数画素によって構成される場合には第1のデモザイク処理部56(デモザイク処理)が省略されてもよい。第1のデモザイク処理部56が省略される場合には、各処理ブロックに含まれる複数の画素に関する色成分データD8から各処理ブロックにおける色比データD7が取得可能である。
例えば各処理ブロックがベイヤー配列の基本配列パターンに対応する2画素×2画素によって構成される場合、図11(a)の「R」で表される画素のデータ(画素データ)を各処理ブロックのRの色成分データD8として扱い、図11(a)の「B」で表される画素のデータを各処理ブロックのBの色成分データD8として扱い、図11(a)の「G1」及び「G2」で表される2画素のデータから各処理ブロックのGの色成分データD8を取得してもよい。また処理ブロックがX−Transタイプの基本配列パターンに対応する6画素×6画素によって構成される場合、図11(b)の「R1」〜「R8」で表される8画素のデータから各処理ブロックのRの色成分データD8を取得し、図11(b)の「B1」〜「B8」で表される8画素のデータから各処理ブロックのBの色成分データD8を取得し、図11(b)の「G1」〜「G20」で表される20画素のデータから各処理ブロックのGの色成分データD8を取得してもよい。複数の画素のデータから各処理ブロックにおける単色の色成分データD8を求める手法は特に限定されず、例えば、その単色に関する複数の画素のデータの「平均値」を単色の色成分データD8として設定してもよい。したがって図11(a)に示す例では、「G1」及び「G2」で表される2画素のデータの平均値を、各処理ブロックのGの色成分データD8に設定してもよい。同様に図11(b)に示す例では、「R1」〜「R8」で表される8画素のデータの平均値を各処理ブロックのRの色成分データD8に設定し、「B1」〜「B8」で表される8画素のデータの平均値を各処理ブロックのBの色成分データD8に設定し、「G1」〜「G20」で表される20画素のデータの平均値を各処理ブロックのGの色成分データD8に設定してもよい。
図14は、第1の補正データ算出部54の機能構成を示すブロック図である。本例の第1の補正データ算出部54は、第1の明度指標データ取得部59及び第1の補正データ演算処理部60を有する。
第1の明度指標データ取得部59は、色比データD7から明度指標データD9を取得する。すなわち第1の明度指標データ取得部59(フラッシュ補正データ取得部42)は、「被写体の色に応じたフラッシュ画像成分データD3の明度を示す明度指標データD9をフラッシュ画像成分データD3の色比データD7から導き出す演算処理」に基づいて、複数の処理ブロックの各々におけるフラッシュ画像成分データD3の色比データD7から、複数の処理ブロックの各々におけるフラッシュ画像成分データD3の明度指標データD9を取得する。
第1の補正データ演算処理部60は、明度指標データD9からフラッシュ補正データD4を取得する。特に本実施形態の第1の補正データ演算処理部60(フラッシュ補正データ取得部42)は、無彩色の色比データを基準に、複数の処理ブロックの各々に関するフラッシュ補正データD4を取得する。すなわち第1の補正データ演算処理部60(フラッシュ補正データ取得部42)は、複数の処理ブロックの各々における複数色の色成分データの合計に対する複数色の各々に関する色成分データの比が相互に等しい無彩色の色比データから、無彩色に関する明度指標データを演算処理に基づいて取得する。そして第1の補正データ演算処理部60(フラッシュ補正データ取得部42)は、無彩色に関する明度指標データに対する複数の処理ブロックの各々におけるフラッシュ画像成分データD3の明度指標データD9の比に基づいて、フラッシュ画像成分データD3の複数の処理ブロックの各々に関するフラッシュ補正データD4を取得する。
ここで明度指標データD9を取得するために使用される上記の「演算処理」は、明度を直接的又は間接的に示す明度指標データD9を導出する処理であれば特に限定されず、例えば「輝度値」の算出に使用される演算処理が用いられてもよい。したがって、「輝度値(Y)」の算出に用いられる例えば「Y=0.3*R+0.6*G+0.1*B」で表される式に基づいて、明度指標データD9が算出されてもよい。この式を用いて演算処理を行うと、例えばフラッシュ画像成分データD3の「ある処理ブロック」における色比データD7が「R:G:B=1/(1+2+3):2/(1+2+3):3/(1+2+3)(=1:2:3)」を示すデータの場合、その処理ブロックの明度指標データD9を例えば「D9=0.3*1/(1+2+3)+0.6*2/(1+2+3)+0.1*3/(1+2+3)=0.3/6+1.2/6+0.3/6=1.8/6=0.9/3」に設定することができる。この場合、無彩色の色比データは、RGBの各々に関する色成分データが相互に等しいことから、常に「R:G:B=1/3:1/3:1/3(=1:1:1)」を示すデータとなる。したがって上記の式を用いて求められる無彩色の明度指標データD9は「D9=0.3*1/3+0.6*1/3+0.1*1/3=0.3/3+0.6/3+0.1/3=1.0/3」となる。この場合、第1の補正データ演算処理部60で求められるフラッシュ補正データD4は、無彩色の明度指標データD9(=1.0/3)に対するその処理ブロックにおけるフラッシュ画像成分データD3の明度指標データD9(=0.9/3)の比(=(0.9/3)/(1.0/3))に基づいて取得され、例えばその比の逆数(=1.0/0.9)をフラッシュ補正データD4としうる。なお、明度指標データD9として、CIE XYZ表色系(色空間)でのY(輝度)やCIE L*a*b*表色系(色空間)でのL*(明度)を使うこともできる。
フラッシュ明度補正部44(図5参照)は、上述のようにして取得される「フラッシュ画像成分取得部40(第1の抽出データ調整部49)から出力されるフラッシュ画像成分データD3」と「フラッシュ補正データ取得部42(第1の補正データ演算処理部60)から出力されるフラッシュ補正データD4」とに基づいて、フラッシュ画像補正成分データD5を取得する。なお、フラッシュ画像補正成分データD5の具体的な取得手法の詳細については、後述の第3実施形態において説明する。
図15は、第2実施形態に係るホワイトバランス処理のフローチャートである。
上述のように、本実施形態のホワイトバランス処理は第1実施形態のホワイトバランス処理の一態様である。したがって、図15に示すステップS21は第1実施形態に係る図6のステップS11に対応し、図15に示すステップS22及びステップS23は図6のステップS12に対応し、図15に示すステップS24〜ステップS26は図6のステップS13に対応し、図15に示すステップS27は図6のステップS14に対応し、図15に示すステップS28は図6のステップS15に対応する。
すなわち本実施形態では、フラッシュ画像成分取得部40の第1の画像データ抽出部47において、フラッシュ発光画像データD1及びフラッシュ非発光画像データD2が取得され(図15のS21)、これらのフラッシュ発光画像データD1及びフラッシュ非発光画像データD2に基づいて第1の差分データD6が取得される(S22)。
そしてフラッシュ画像成分取得部40の第1の抽出データ調整部49において、第1の差分データD6にフラッシュ光用ホワイトバランスゲインWB1が適用されてフラッシュ画像成分データD3が取得される(S23)。
そしてフラッシュ補正データ取得部42の第1の色比データ取得部53において、第1のデモザイク処理部56によりフラッシュ画像成分データD3から各処理ブロックに関する色成分データD8が取得され、第1の色比算出部57により色成分データD8から各処理ブロックに関する色比データD7が取得される(S24)。
そしてフラッシュ補正データ取得部42の第1の補正データ算出部54において、第1の明度指標データ取得部59により色比データD7から各処理ブロックに関する明度指標データD9が取得され(S25)、第1の補正データ演算処理部60により明度指標データD9から各処理ブロックに関するフラッシュ補正データD4が取得される(S26)。
そしてフラッシュ明度補正部44において、フラッシュ画像成分データD3及びフラッシュ補正データD4からフラッシュ画像補正成分データD5が取得され(S27)、ホワイトバランス処理部46において、フラッシュ画像補正成分データD5に応じたホワイトバランス処理がフラッシュ発光画像データD1に対して行われる(S28)。
以上説明したように本実施形態の画像処理装置31及び画像処理方法によれば、第1実施形態に係る画像処理装置31と同様に、被写体の色に応じてもたらされるフラッシュ画像成分データの明度(輝度)の相違を補償するためのフラッシュ補正データに基づいて、精度の高いホワイトバランス処理を実現することができる。
<第3実施形態>
本実施形態において、上述の第2実施形態と同一又は類似の構成には同一の符号を付し、その詳細な説明を省略する。
本実施形態の画像処理装置31は、第2実施形態の画像処理装置31の一態様であり、フラッシュ画像成分データD3の明度(輝度)を示すデータに対してフラッシュ補正データD4が処理ブロック毎に適用されることでフラッシュ画像補正成分データD5が取得される。すなわち本実施形態に係る画像処理装置31は、図5に示す第1実施形態の画像処理装置31及び第2実施形態の画像処理装置31と同様に、フラッシュ画像成分取得部40、フラッシュ補正データ取得部42、フラッシュ明度補正部44及びホワイトバランス処理部46を備えるが、とりわけフラッシュ明度補正部44が以下の具体的構成を有する。
図16は、第3実施形態に係るフラッシュ明度補正部44の機能構成を示すブロック図である。
本実施形態のフラッシュ明度補正部44は、第1の明度データ取得部62及び第1の補正算出部63を有する。
フラッシュ明度補正部44の第1の明度データ取得部62は、フラッシュ画像成分取得部40から送られるフラッシュ画像成分データD3に基づいて、複数の処理ブロックの各々における第1の明度データD10を取得する。本実施形態における第1の明度データD10は輝度を表すデータであり、任意の手法によって第1の明度データ(輝度フラッシュ影響度マップ)D10が求められてもよい。すなわち第1の明度データ取得部62は、フラッシュ画像成分データD3の色成分データ(RGBデータ等)を輝度に変換して第1の明度データD10を取得する。例えば図14に示す第1の明度指標データ取得部59(フラッシュ補正データ取得部42、第1の補正データ算出部54)において明度指標データD9を取得するために使用される「演算処理(例えば「Y=0.3*R+0.6*G+0.1*B」)」と同様にして、フラッシュ画像成分データD3から第1の明度データD10(輝度値(Y))を算出することができる。
フラッシュ明度補正部44の第1の補正算出部63は、複数の処理ブロックの各々に関して第1の明度データD10にフラッシュ補正データD4を適用することで、フラッシュ画像補正成分データD5を取得する。より具体的には、本実施形態のフラッシュ補正データ取得部42において取得されるフラッシュ補正データD4は、フラッシュ画像成分データD3の明度を示す第1の明度データD10に適用されることで、被写体の色に応じてもたらされるフラッシュ画像成分データD3(第1の明度データD10)の明度の相違を補償するデータである。フラッシュ補正データ取得部42は、フラッシュ画像成分データD3の複数の処理ブロックの各々に関し、そのようなフラッシュ補正データD4を取得する。
例えば、処理ブロック毎に、第1の明度データD10にフラッシュ補正データD4を乗算することで、被写体の色に応じてもたらされる明度の相違が補償されたフラッシュ画像補正成分データD5が算出されるようにしてもよい。この場合、フラッシュ補正データ取得部42(第1の補正データ演算処理部60(図14参照))は、「無彩色の明度指標データD9に対するフラッシュ画像成分データD3の明度指標データD9の比の逆数」をフラッシュ補正データD4として取得することができる。例えば、上述のように無彩色の明度指標データD9が「D9=1.0/3」で表され、ある処理ブロックにおけるフラッシュ画像成分データD3の明度指標データD9が「D9=0.9/3」で表される場合、「無彩色の明度指標データD9に対するフラッシュ画像成分データD3の明度指標データD9の比」は「(0.9/3)/(1.0/3)=0.9」によって表されるため、フラッシュ補正データD4を「D4=1.0/0.9」とすることができる。この場合、フラッシュ画像補正成分データD5は、第1の明度データD10に「1.0/0.9」が乗算された値によって表されうる。
このように、フラッシュ画像成分データD3の輝度(明度)を示す第1の明度データD10にフラッシュ補正データD4を適用することで取得されるフラッシュ画像補正成分データD5は、被写体の色に応じてもたらされるフラッシュ画像成分データD3(第1の明度データD10)の輝度(明度)の相違が補償されたデータとなる。
図17は、第3実施形態に係るホワイトバランス処理のフローチャートである。
上述のように、本実施形態のホワイトバランス処理は第2実施形態のホワイトバランス処理の一態様である。例えば図17に示すステップS31〜S36は第2実施形態に係る図15のステップS21〜S26に対応し、図17に示すステップS37及びステップS38は図15のステップS27に対応し、図17に示すステップS39は図15のステップS28に対応する。
すなわち本実施形態では、図15のステップS21〜ステップS26と同様にして、フラッシュ発光画像データD1及びフラッシュ非発光画像データD2が取得され(図17のS31)、第1の差分データD6が取得され(S32)、フラッシュ画像成分データD3が取得され(S33)、各処理ブロックに関する色比データD7が取得され(S34)、各処理ブロックに関する明度指標データD9が取得され(S35)、各処理ブロックに関するフラッシュ補正データD4が取得される(S36)。
そしてフラッシュ明度補正部44の第1の明度データ取得部62において、フラッシュ画像成分取得部40が取得したフラッシュ画像成分データD3から、各処理ブロックに関する第1の明度データD10が取得される(S37)。そしてフラッシュ明度補正部44の第1の補正算出部63において、第1の明度データD10及びフラッシュ補正データD4から、フラッシュ画像補正成分データD5が取得される(S38)。
そしてホワイトバランス処理部46において、フラッシュ画像補正成分データD5に応じたホワイトバランス処理がフラッシュ発光画像データD1に対して行われる(S39)。例えば「フラッシュ画像補正成分データD5が最大の階調値(最大画像データ値)に対して50%以上の値を示す領域」がフラッシュ領域と判定されてもよく、ホワイトバランス処理部46は、フラッシュ発光画像データD1におけるそのようなフラッシュ領域に対してフラッシュ光用ホワイトバランスゲインWB1を適用してホワイトバランス処理を行ってもよい。
以上説明したように本実施形態の画像処理装置31及び画像処理方法によれば、被写体の色に応じてもたらされるフラッシュ画像成分データの明度(輝度)の相違を補償するためのフラッシュ補正データに基づいてフラッシュ画像補正成分データD5が取得される。このフラッシュ画像補正成分データD5を使うことで、精度の高いホワイトバランス処理を実現することができる。
<第4実施形態>
本実施形態において、上述の第3実施形態と同一又は類似の構成には同一の符号を付し、その詳細な説明を省略する。
上述の第1実施形態〜第3実施形態は主としてフラッシュ光のホワイトバランス調整に関するものであるが、本実施形態はフラッシュ光に加えて環境光のホワイトバランス調整に関するものである。すなわち本実施形態の画像処理装置31は、フラッシュ発光画像データD1におけるフラッシュ光に関する色別の補正処理だけではなく、環境光に関する色別の補正処理を行う。
一般に、画像データの撮影光源が不明な場合、画像にグレー(無彩色)の被写体が含まれていなかったり、画像中に含まれる無彩色の被写体の領域(位置)が不明であったりすると、適切なホワイトバランスゲインを取得することが難しい。
しかしながら、例えば上述の第2実施形態及び第3実施形態の画像処理装置31における画像処理によれば、撮影時に使用されたフラッシュ光の影響をキャンセルするホワイトバランス処理が施されたフラッシュ画像成分データD3(図9参照)を取得することができる。このフラッシュ画像成分データD3は、フラッシュ光が照射された被写体の本来の色成分比を示すデータである。そのためフラッシュ画像成分データD3を基準(目標)として使用することで、フラッシュ光の影響を受けた画像領域に関しては、本来の被写体の色が無彩色か否かにかかわらず、環境光に関する適切なホワイトバランスゲインを取得することが可能である。
環境光用ホワイトバランスゲインを取得することができれば、上述の第2実施形態及び第3実施形態の画像処理装置31における処理と同様の処理によって、被写体の色に応じてもたらされる明度の相違が補償された「環境光の影響を示すデータ(後述の環境光画像補正成分データ)」を取得することも可能になる。このような環境光の影響を示すデータ(環境光画像補正成分データ)を、上述の第2実施形態〜第3実施形態において取得されるフラッシュ画像補正成分データD5と組み合わせて使用することで、フラッシュ発光画像データD1の各処理ブロックに関して環境光とフラッシュ光との影響の比率を求めることができる。この「フラッシュ発光画像データD1の処理ブロック毎の環境光とフラッシュ光との影響の比率」を使ってフラッシュ光用のホワイトバランス処理及び/又は環境光用のホワイトバランス処理を行うことで、高精度なホワイトバランス処理を行うことができる。
以下、第4実施形態に係る具体的な機能構成例について説明する。
図18は、第4実施形態に係る画像処理装置31の機能構成を示すブロック図である。本実施形態の画像処理装置31は、上述のフラッシュ画像成分取得部40、フラッシュ補正データ取得部42、フラッシュ明度補正部44及びホワイトバランス処理部46に加え、環境光画像成分取得部66、環境光補正データ取得部68及び環境光明度補正部70を備える。
フラッシュ画像成分取得部40、フラッシュ補正データ取得部42及びフラッシュ明度補正部44は、上述の第3実施形態と同様の機能構成を有する。
環境光画像成分取得部66は、フラッシュ光の非発光下で被写体を撮影することにより取得された第2の画像データ(フラッシュ非発光画像データD2)を基礎データとして、環境光による被写体の画像成分を示す環境光画像成分データD11を取得する。ここで基礎データとは、環境光画像成分データD11を取得する場合に基となるデータであり、環境光による被写体の画像成分を示す環境光画像成分データD11が導出可能であれば特に限定されない。例えば環境光画像成分取得部66は、「第2の画像データ(フラッシュ非発光画像データD2)」自体を基礎データとして用いてもよく、また「第1の画像データ(フラッシュ発光画像データD1)」と、「この第1の画像データと第2の画像データ(フラッシュ非発光画像データD2)との差分を表す第1の差分データ」と、の差分を表す第2の差分データを基礎データとして用いてもよく、このような基礎データ(例えば「第2の画像データ」又は「第2の差分データ」)に基づいて環境光画像成分データD11を導出することができる。
図19は、第4実施形態に係る環境光画像成分取得部66の機能構成を示すブロック図である。本実施形態の環境光画像成分取得部66は、第2の画像データ抽出部72及び第2の抽出データ調整部73を有する。
本例の第2の画像データ抽出部72は、環境光による被写体の画像成分を示す環境光画像成分データの基礎データD14を取得する処理部である。具体的には、例えばフラッシュ光を発光させずに撮影することで取得された「環境光の影響のみを受けたフラッシュ非発光画像データD2」を「環境光画像成分データの基礎データD14」として使用可能であるが、環境光画像成分データの基礎データD14の取得手法はこれに限定されない。
例えば環境光画像成分取得部66の第2の画像データ抽出部72は、「フラッシュ発光画像データ(第1の画像データ)D1」と、「フラッシュ発光画像データD1とフラッシュ光の非発光下で被写体を撮影することにより取得されたフラッシュ非発光画像データD2(第2の画像データ)との差分を表す第1の差分データD6」と、の差分を表す第2の差分データを「環境光画像成分データの基礎データD14」として使用可能である。図20は、環境光画像成分取得部66の第2の画像データ抽出部72の構成例を示すブロック図である。本例の第2の画像データ抽出部72は、第1の減算器74及び第2の減算器75を有する。第1の減算器74は、フラッシュ発光画像データD1及びフラッシュ非発光画像データD2が入力され、「第1の差分データD6=フラッシュ発光画像データD1−フラッシュ非発光画像データD2」で表される第1の差分データD6を算出する。第2の減算器75は、フラッシュ発光画像データD1及び第1の差分データD6が入力され、「基礎データ(第1のRGB背景影響度マップ)D14=第2の差分データ=フラッシュ発光画像データD1−第1の差分データD6」で表される基礎データD14を算出する。第2の減算器75で算出された基礎データD14は、第2の画像データ抽出部72から第2の抽出データ調整部73に送られる。
図21は、環境光画像成分取得部66の第2の抽出データ調整部73の構成例を示すブロック図である。本実施形態の第2の抽出データ調整部73は、基礎データ色比取得部76、ホワイトバランスゲイン取得部77及び第2のホワイトバランス調整部78を有する。
基礎データ色比取得部76(環境光画像成分取得部66)は、複数の処理ブロックの各々における基礎データD14の色成分比を表す色比データD15を取得する。
ホワイトバランスゲイン取得部77(環境光画像成分取得部66)は、複数の処理ブロックの各々におけるフラッシュ画像成分データD3の色比データD7と基礎データD14の色比データD15とに基づいて、環境光用ホワイトバランスゲインWB2を取得する。図21に示す例では、ホワイトバランスゲイン取得部77は、フラッシュ画像成分取得部40からフラッシュ画像成分データD3を取得し、上述の第1の色比データ取得部53(図12参照)と同様の処理を行うことで、複数の処理ブロックの各々におけるフラッシュ画像成分データD3の色比データD7を取得する。ただしホワイトバランスゲイン取得部77は、フラッシュ補正データ取得部42の第1の色比データ取得部53から、フラッシュ画像成分データD3の色比データD7を取得してもよい。
フラッシュ画像成分データD3は、フラッシュ光用ホワイトバランスゲインWB1が適用されて被写体の本来の色調が再現されたデータであり、その「被写体の本来の色調」は、被写体にフラッシュ光が照射されて撮影される場合も、被写体に環境光のみが照射されて撮影される場合も変わらず同じである。したがって、ホワイトバランスゲイン取得部77は、同じ処理ブロックに関しては、基礎データD14の色比データD15に環境光用ホワイトバランスゲインWB2を適用して得られるデータが、フラッシュ画像成分データD3の色比データD7と等しくなるように、環境光用ホワイトバランスゲインWB2を取得する。
なお、フラッシュ画像成分データD3を構成する複数の処理ブロックのうち「フラッシュ光の影響を受けておらず環境光のみの影響を受けている処理ブロック」のデータは、「被写体の本来の色調」が再現されたデータではない。そのため、ホワイトバランスゲイン取得部77は、環境光用ホワイトバランスゲインWB2を取得する際には、フラッシュ画像成分データD3の色比データD7のうち「環境光のみの影響を受けている処理ブロック」のデータは使わず、「フラッシュ光の影響を受けている処理ブロック」のデータを使って環境光用ホワイトバランスゲインWB2を取得する。
このように「被写体の本来の色調」を表すフラッシュ画像成分データD3の色比データD7を目標データに設定して取得される環境光用ホワイトバランスゲインWB2は、複数の処理ブロックの各々における基礎データD14の色比データD15に適用されると、複数の処理ブロックの各々における環境光画像成分データD11の色比データが導き出される。そのため第2のホワイトバランス調整部78(環境光画像成分取得部66)は、基礎データD14に環境光用ホワイトバランスゲインWB2を適用することで環境光画像成分データ(第2のRGB背景影響度マップ)D11を取得する。
なお、被写体によっては環境光画像成分データD11が多少ばらつくことがあるため、複数の処理ブロックに関して取得された環境光用ホワイトバランスゲインWB2の合計の平均値を、各処理ブロックに関する基礎データD14に適用する環境光用ホワイトバランスゲインWB2として用いてもよい。ただし、環境光が単一光源によっては構成されずに複数の光源がミックスされて構成されている場合や、被写体に動体が含まれている場合のように、処理ブロック毎(画素毎)に導き出される環境光用ホワイトバランスゲインWB2を、対応の処理ブロックの基礎データD14に対して適用した方が画質を向上させることができる場合もある。したがって、基礎データD14の処理ブロックの全てに対して、一律に、同一の環境光用ホワイトバランスゲインWB2を適用する必要はない。
このようにして求められる環境光画像成分データD11は、フラッシュ光の影響を受けていない「環境光の影響を示す撮影画像データ」である。
なお環境光画像成分取得部66(第2の画像データ抽出部72)は、フラッシュ非発光画像データD2ではなくフラッシュ発光画像データを使用して第1の差分データD6及び基礎データD14を取得してもよい。すなわち環境光画像成分取得部66は、「第1の発光量のフラッシュ光の発光下で被写体を撮影することにより取得された第1の画像データ(フラッシュ発光画像データD1)」と、「この第1の画像データと、第1の発光量とは異なる第2の発光量のフラッシュ光の発光下で被写体を撮影することにより取得された第2の画像データ(フラッシュ発光画像データ)と、の差分を表す第1の差分データD6」とに基づいて基礎データD14を導きだし、この基礎データD14に基づいて環境光画像成分データD11を取得してもよい。
図22は、環境光補正データ取得部68の機能構成を示すブロック図である。
環境光補正データ取得部68は、第2の色比データ取得部80及び第2の補正データ算出部81を有し、環境光画像成分データD11に基づき、被写体の色に応じてもたらされる環境光画像成分データD11の明度の相違を反映した環境光補正データ(色別環境光影響度マップ)D12を取得する。すなわち第2の色比データ取得部80は、環境光画像成分データD11から、複数の処理ブロックの各々における環境光画像成分データD11の色成分比を表す色比データD16を取得する。第2の補正データ算出部81は、環境光画像成分データD11の色比データD16に基づいて、被写体の色に応じてもたらされる環境光画像成分データD11の複数の処理ブロック間における明度の相違を反映した環境光補正データD12を取得する。
本実施形態の環境光補正データ取得部68は、被写体の分光特性(分光反射率)に基づく色に依存する影響を低減するために、処理ブロック毎に取得した環境光画像成分データD11の色比データ(RGB比等)から明度指標データ(輝度データ)を取得し、この明度指標データから色間の明度(輝度)の相違を補償するための環境光補正データD12(補正ゲイン)を取得する。
図23は、第2の色比データ取得部80の機能構成を示すブロック図である。
本例の第2の色比データ取得部80は、第2のデモザイク処理部82及び第2の色比算出部83を有する。
第2のデモザイク処理部82は、環境光画像成分データD11のデモザイク処理を行う。このデモザイク処理によって、環境光画像成分データD11を構成する各画素に対し、撮像素子21のカラーフィルタ16を構成する色(RGB等)の各々に関する画素データが割り当てられた色成分データD17が取得される。第2の色比算出部83は、色成分データD17に基づいて、複数の処理ブロックの各々における環境光画像成分データD11の色比データD16を取得する。この色比データD16は、環境光画像成分データD11を構成する色成分データD17の比率(RGB比等)を示し、処理ブロック毎に算出される。
環境光画像成分データD11は、撮像素子21のカラーフィルタ16を構成する複数色(RGB等)の各々に関する色成分データを含む。第2の色比データ取得部80(環境光補正データ取得部68)は、この色成分データに基づいて、複数の処理ブロックの各々における環境光画像成分データD11の色比データD16を取得する。
なお環境光画像成分データD11の色比データD16は、複数の処理ブロックの各々における環境光画像成分データD11の複数色の色成分データD17の合計に対する、その複数色の各々に関する環境光画像成分データD11の色成分データD17の比に基づいている。
上述の例では、第2のデモザイク処理部82によって環境光画像成分データD11のデモザイク処理が行われるが、処理ブロックが複数画素によって構成される場合には第2のデモザイク処理部82(デモザイク処理)が省略されてもよい。第2のデモザイク処理部82が省略される場合には、各処理ブロックに含まれる複数の画素に関する色成分データD17から各処理ブロックにおける色比データD16が取得可能である。このように複数の画素のデータから各処理ブロックにおける単色の色成分データD17を求める手法は特に限定されず、例えばその単色に関する複数の画素のデータの「平均値」を単色の色成分データD17として設定してもよい。
図24は、第2の補正データ算出部81の機能構成を示すブロック図である。本例の第2の補正データ算出部81は、第2の明度指標データ取得部84及び第2の補正データ演算処理部85を有する。
第2の明度指標データ取得部84は、色比データD16から明度指標データD18を取得する。すなわち第2の明度指標データ取得部84(環境光補正データ取得部68)は、「被写体の色に応じた環境光画像成分データD11の明度を示す明度指標データD18を環境光画像成分データD11の色比データD16から導き出す演算処理」に基づいて、複数の処理ブロックの各々における環境光画像成分データD11の色比データD16から、複数の処理ブロックの各々における環境光画像成分データD11の明度指標データD18を取得する。
第2の補正データ演算処理部85は、明度指標データD18から環境光補正データD12を取得する。特に本実施形態の第2の補正データ演算処理部85(環境光補正データ取得部68)は、無彩色の色比データを基準に、複数の処理ブロックの各々に関する環境光補正データD12を取得する。すなわち第2の補正データ演算処理部85(環境光補正データ取得部68)は、複数の処理ブロックの各々における複数色の色成分データの合計に対する複数色の各々に関する色成分データの比が相互に等しい無彩色の色比データから、無彩色に関する明度指標データを演算処理に基づいて取得する。そして第2の補正データ演算処理部85(環境光補正データ取得部68)は、無彩色に関する明度指標データに対する複数の処理ブロックの各々における環境光画像成分データD11の明度指標データD18の比に基づいて、環境光画像成分データD11の複数の処理ブロックの各々に関する環境光補正データD12を取得する。
ここで明度指標データD18を取得するために使用される上記の「演算処理」は、明度を直接的又は間接的に示す明度指標データD18を導出する処理であれば特に限定されず、例えば「輝度値」の算出に使用される演算処理が用いられてもよい。したがって、「輝度値(Y)」の算出に用いられる例えば「Y=0.3*R+0.6*G+0.1*B」で表される式に基づいて、明度指標データD18が算出されてもよい。この場合、第2の補正データ演算処理部85で求められる環境光補正データD12は、無彩色の明度指標データD18に対するその処理ブロックにおける環境光画像成分データD11の明度指標データD18の比に基づいて取得される。
図18に示す環境光明度補正部70は、上述のようにして取得される「環境光画像成分取得部66(第2の画像データ抽出部72)から出力される環境光画像成分データD11」及び「環境光補正データ取得部68(第2の補正データ演算処理部85)から出力される環境光補正データD12」に基づき、被写体の色に応じてもたらされる環境光画像成分データD11の明度の相違が補償された環境光画像補正成分データ(合成環境光影響度マップ)D13を取得する。
図25は、環境光明度補正部70の機能構成を示すブロック図である。
本実施形態の環境光明度補正部70は、第2の明度データ取得部86及び第2の補正算出部87を有する。
環境光明度補正部70の第2の明度データ取得部86は、環境光画像成分データD11に基づいて、複数の処理ブロックの各々における第2の明度データ(輝度環境光影響度マップ)D19を取得する。本実施形態における第2の明度データD19は輝度を表すデータであり、任意の手法によって第2の明度データD19が求められてもよい。すなわち第2の明度データ取得部86は、環境光画像成分データD11の色成分データ(RGBデータ等)を輝度に変換して第2の明度データD19を取得する。例えば第2の明度指標データ取得部84(環境光補正データ取得部68、第2の補正データ算出部81)において明度指標データD18を取得するために使用される「演算処理」と同様にして、環境光画像成分データD11から第2の明度データD19(輝度値(Y))を算出することができる。
環境光明度補正部70の第2の補正算出部87は、複数の処理ブロックの各々に関して第2の明度データD19に環境光補正データD12を適用することで、環境光画像補正成分データD13を取得する。より具体的には、本実施形態の環境光補正データ取得部68において取得される環境光補正データD12は、環境光画像成分データD11の明度を示す第2の明度データD19に適用されることで、被写体の色に応じてもたらされる環境光画像成分データD11の明度の相違が補償されるデータである。環境光補正データ取得部68は、環境光画像成分データD11の複数の処理ブロックの各々に関してそのような環境光補正データD12を取得する。
したがって例えば、処理ブロック毎に、第2の明度データD19に環境光補正データD12を乗算することで、被写体の色に応じてもたらされる明度の相違が補償された環境光画像補正成分データD13が算出されるようにしてもよい。この場合、環境光補正データ取得部68(第2の補正データ演算処理部85(図24参照))は、「無彩色の明度指標データD18に対する環境光画像成分データD11の明度指標データD18の比の逆数」を環境光補正データD12として取得することができる。
このように、環境光画像成分データD11の輝度(明度)を示す第2の明度データD19に環境光補正データD12を適用することで取得される環境光画像補正成分データD13は、被写体の色に応じてもたらされる環境光画像成分データD11の輝度(明度)の相違が補償されたデータとなる。
そして図18に示す本実施形態のホワイトバランス処理部46は、フラッシュ画像補正成分データD5及び環境光画像補正成分データD13に基づいて、フラッシュ発光画像データ(第1の画像データ)D1のホワイトバランスを調整する。すなわちホワイトバランス処理部46は、フラッシュ画像補正成分データD5及び環境光画像補正成分データD13に基づいて、フラッシュ発光画像データ(第1の画像データ)D1に、フラッシュ光用ホワイトバランスゲインWB1及び環境光用ホワイトバランスゲインWB2を適用する。
図26は、第4実施形態に係るホワイトバランス処理部46の機能構成を示すブロック図である。
本例のホワイトバランス処理部46は、光源比データ取得部88及びホワイトバランス演算処理部89を有する。光源比データ取得部88は、フラッシュ画像補正成分データD5及び環境光画像補正成分データD13から、処理ブロック毎に、フラッシュ光と環境光との比を示す光源比データ(総合フラッシュ影響度マップ)D20を取得する。
ホワイトバランス演算処理部89は、光源比データD20に基づいて、処理ブロック毎にフラッシュ光用ホワイトバランスゲインWB1及び環境光用ホワイトバランスゲインWB2の適用比を切り換えて、フラッシュ発光画像データD1に対するホワイトバランス処理を行う。
ホワイトバランス演算処理部89(ホワイトバランス処理部46)がフラッシュ発光画像データD1、フラッシュ光用ホワイトバランスゲインWB1及び環境光用ホワイトバランスゲインWB2を取得する手法は特に限定されない。例えばホワイトバランス演算処理部89は、フラッシュ画像成分取得部40又は環境光画像成分取得部66からフラッシュ発光画像データD1を取得してもよい。またホワイトバランス演算処理部89は、フラッシュ光用WBゲイン記憶部51(図9参照)からフラッシュ光用ホワイトバランスゲインWB1を取得してもよい。またホワイトバランス演算処理部89は、ホワイトバランスゲイン取得部77(図21参照)から環境光用ホワイトバランスゲインWB2を取得してもよい。
なおホワイトバランス演算処理部89で行われるホワイトバランス処理演算の具体的手法は特に限定されず、処理ブロック毎に、フラッシュ光用ホワイトバランスゲインWB1及び環境光用ホワイトバランスゲインWB2の両者がフラッシュ発光画像データD1に適用されてもよい。例えばフラッシュ発光画像データD1の「ある処理ブロック」におけるフラッシュ光と環境光との影響比率が「フラッシュ光:環境光=2:1」の場合、その処理ブロックにおけるフラッシュ発光画像データD1に対するホワイトバランスゲインの適用比を「フラッシュ光用ホワイトバランスゲインWB1:環境光用ホワイトバランスゲインWB2=2/(2+1):1/(2+1)」としてもよい。或いは、例えばフラッシュ発光画像データD1の「ある処理ブロック」において環境光よりもフラッシュ光の影響比率が大きい場合には、その処理ブロックに対してフラッシュ光用ホワイトバランスゲインWB1が適用され、一方、フラッシュ光よりも環境光の影響比率が大きい場合には、その処理ブロックに対して環境光用ホワイトバランスゲインWB2が適用されてもよい。
このように、フラッシュ発光画像データD1の各処理ブロックにおけるフラッシュ光の影響量と環境光の影響量との比率に応じて、フラッシュ光を光源とするホワイトバランス処理及び環境光を光源とするホワイトバランス処理を行うことで、フラッシュ発光画像データD1のうち「相対的にフラッシュ光の影響が大きい画像部分」及び「相対的に環境光の影響が大きい画像部分」のそれぞれに対し、適切なホワイトバランス処理を行うことができる。
図27は、第4実施形態に係るホワイトバランス処理のフローチャートである。
まずフラッシュ画像成分取得部40及び環境光画像成分取得部66において、フラッシュ発光画像データD1及びフラッシュ非発光画像データD2が取得される(図27のS41)。そしてフラッシュ画像成分取得部40、フラッシュ補正データ取得部42及びフラッシュ明度補正部44において、フラッシュ発光画像データD1及びフラッシュ非発光画像データD2に基づきフラッシュ画像補正成分データD5が取得される(S42)。また環境光画像成分取得部66、環境光補正データ取得部68及び環境光明度補正部70において、フラッシュ発光画像データD1及びフラッシュ非発光画像データD2に基づき環境光画像補正成分データD13が取得される(S43)。
なおフラッシュ画像補正成分データD5を取得するステップS42のプロセスについては、図28を参照して後述する。また環境光画像補正成分データD13を取得するステップS43のプロセスについては、図29を参照して後述する。
そしてホワイトバランス処理部46の光源比データ取得部88において、フラッシュ画像補正成分データD5及び環境光画像補正成分データD13に基づき光源比データD20が取得される(S44)。
そしてホワイトバランス処理部46のホワイトバランス演算処理部89において、この光源比データD20に応じたホワイトバランス処理が、フラッシュ発光画像データD1に対して行われる(S45)。例えば、光源比データD20に応じた、フラッシュ光用ホワイトバランスゲインWB1及び環境光用ホワイトバランスゲインWB2がフラッシュ発光画像データD1に適用される。
図28は、第4実施形態においてフラッシュ画像補正成分データD5を取得するための処理フロー(図27のステップS42)の詳細を示すフローチャートである。なお図28に示すステップS51〜ステップS57は、それぞれ、第3実施形態に係る図17に示すステップS32〜ステップS38と同様の処理となる。
すなわちフラッシュ画像成分取得部40の第1の画像データ抽出部47(図7参照)において、フラッシュ発光画像データD1及びフラッシュ非発光画像データD2から第1の差分データD6が取得され(図28のS51)、第1の抽出データ調整部49においてフラッシュ画像成分データD3が取得される(S52)。
そしてフラッシュ補正データ取得部42の第1の色比データ取得部53(図12参照)において、フラッシュ画像成分データD3から各処理ブロックに関する色比データD7が取得される(S53)。そして、第1の補正データ算出部54の第1の明度指標データ取得部59(図14参照)において、この色比データD7から各処理ブロックに関する明度指標データD9が取得され(S54)、第1の補正データ演算処理部60において明度指標データD9から各処理ブロックに関するフラッシュ補正データ(色別フラッシュ影響度マップ)D4が取得される(S55)。
そしてフラッシュ明度補正部44の第1の明度データ取得部62(図16参照)において、フラッシュ画像成分取得部40において取得されるフラッシュ画像成分データD3から各処理ブロックに関する第1の明度データD10が取得される(S56)。そしてフラッシュ明度補正部44の第1の補正算出部63において、第1の明度データD10及びフラッシュ補正データD4からフラッシュ画像補正成分データD5が取得される(S57)。
図29は、第4実施形態において環境光画像補正成分データD13を取得するための処理フロー(図27のステップS43)の詳細を示すフローチャートである。
まず環境光画像成分取得部66の第2の画像データ抽出部72(図19参照)において、フラッシュ非発光画像データD2に基づいて基礎データD14が取得される(図29のS61)。
そして、基礎データ色比取得部76(図21参照)において基礎データD14から色比データD15が取得され(S62)、ホワイトバランスゲイン取得部77(図21参照)において、フラッシュ画像成分データD3の色比データD7と基礎データD14の色比データD15とから環境光用ホワイトバランスゲインWB2が取得される(S63)。
そして第2のホワイトバランス調整部78(図21参照)において、基礎データD14に環境光用ホワイトバランスゲインWB2が適用されて環境光画像成分データD11が取得される(S64)。そして環境光補正データ取得部68の第2の色比データ取得部80(図22参照)において、処理ブロック毎に環境光画像成分データD11の色比データD16が取得され(S65)、第2の補正データ算出部81の第2の明度指標データ取得部84(図24参照)において、環境光画像成分データD11の色比データD16から処理ブロック毎に明度指標データD18が取得される(S66)。そして第2の補正データ演算処理部85(図24参照)において、明度指標データD18から環境光補正データD12が取得される(S67)。
そして環境光明度補正部70の第2の明度データ取得部86(図25参照)において、環境光画像成分データD11から第2の明度データD19が取得され(S68)、第2の補正算出部87(図25参照)において、第2の明度データD19及び環境光補正データD12から環境光画像補正成分データD13が取得される(S69)。
以上説明したように本実施形態の画像処理装置31及び画像処理方法によれば、フラッシュ光の影響度及び環境光の影響度をそれぞれ的確に求めることができ、正確なフラッシュ光の影響度及び環境光の影響度に基づいて、フラッシュ発光画像データD1に対して精度の高いホワイトバランス処理を行うことができる。
フラッシュ光の発光下で撮影を行う場合には、被写体の一部又は全部にフラッシュ光が十分に届かない場合もあり、フラッシュ光の影響度のみを考慮したホワイトバランス処理では、被写体本来の色味に調整することが難しい場合がある。しかしながら本実施形態の画像処理装置31及び画像処理方法によれば、フラッシュ光の影響度とともに環境光の影響度も考慮されたホワイトバランス処理が行われるので、被写体本来の色味を適切に回復することが可能になる。
例えば、「フラッシュ光が十分に届いてフラッシュ光が支配的な影響を及ぼす画像部分」と「フラッシュ光が十分に届かずにフラッシュ光が支配的な影響を及ぼさない画像部分」とがフラッシュ発光画像データD1に混在する場合であっても、それぞれの画像部分に対して、被写体の色に応じてもたらされる明度の相違が補償された状態で、適切なホワイトバランス処理を行うことができる。
<他の変形例>
上述の実施形態及び変形例のうち任意の形態同士が組み合わされてもよい。また上述の実施形態は例示に過ぎず、他の構成に本発明を適用してもよい。
また上述の第1実施形態から第4実施形態の各々では、フラッシュ画像補正成分データD5の取得処理及びフラッシュ画像補正成分データD5を用いた画像処理がカメラ本体3において実施される例について説明したが、これら処理の一部又は全てをカメラ本体3(デジタルカメラ2)とは別のコンピュータやサーバ等の他の装置が実施するようにしてもよい。例えば、コンピュータにおいて画像データを加工する際に、コンピュータに設けられる画像処理装置にフラッシュ発光画像D1及びフラッシュ非発光画像D2などのデータ類が入力されることで、フラッシュ画像補正成分データD5の取得処理及びフラッシュ画像補正成分データD5を用いた画像処理が行われてもよい。またサーバが画像処理装置を備える場合には、例えば、デジタルカメラ2(カメラ本体3)やコンピュータからサーバにフラッシュ発光画像D1及びフラッシュ非発光画像D2などのデータ類が送信され、サーバの画像処理装置で画像データに対してフラッシュ画像補正成分データD5の取得処理及びフラッシュ画像補正成分データD5を用いた画像処理が行われ、画像処理後の画像データが送信元に送信及び提供されるようにしてもよい。
また上述の各機能構成は、任意のハードウェア、ソフトウェア、或いは両者の組み合わせによって実現可能である。例えば、上述の各装置及び処理部(画像処理装置31等)における画像処理方法(処理ステップ(処理手順))をコンピュータに実行させるプログラム、そのプログラムを記憶したコンピュータ読み取り可能な記憶媒体(非一時的記憶媒体)、或いはそのプログラムをインストール可能なコンピュータに対しても本発明を適用することができる。
また、本発明を適用可能な態様はデジタルカメラ及びコンピュータ(サーバ)には限定されず、撮像を主たる機能とするカメラ類の他に、撮像機能に加えて撮像以外の他の機能(通話機能、通信機能、その他のコンピュータ機能)を備えるモバイル機器類に対しても本発明を適用することが可能である。本発明を適用可能な他の態様としては、例えば、カメラ機能を有する携帯電話機やスマートフォン、PDA(Personal Digital Assistants)、携帯型ゲーム機が挙げられる。以下、本発明を適用可能なスマートフォンの一例について説明する。
<スマートフォンの構成>
図30は、スマートフォン101の外観を示す図である。図30に示すスマートフォン101は、平板状の筐体102を有し、筐体102の一方の面に表示部としての表示パネル121と、入力部としての操作パネル122とが一体となった表示入力部120を備える。また、かかる筐体102は、スピーカ131と、マイクロホン132、操作部140と、カメラ部141とを備える。なお、筐体102の構成はこれに限定されず、例えば、表示部と入力部とが独立した構成が採用されてもよいし、折り畳み構造やスライド機構を有する構成が採用されてもよい。
図31は、図30に示すスマートフォン101の構成を示すブロック図である。図31に示すように、スマートフォンの主たる構成要素として、無線通信部110と、表示入力部120と、通話部130と、操作部140と、カメラ部141と、記憶部150と、外部入出力部160と、GPS(Global Positioning System)受信部170と、モーションセンサ部180と、電源部190と、主制御部100とを備える。また、スマートフォン101の主たる機能として、基地局装置BSと移動通信網NWとを介した移動無線通信を行う無線通信機能を備える。
無線通信部110は、主制御部100の指示に従って、移動通信網NWに収容された基地局装置BSに対し無線通信を行うものである。かかる無線通信を使用して、音声データ、画像データ等の各種ファイルデータ、電子メールデータなどの送受信や、Webデータやストリーミングデータなどの受信を行う。
表示入力部120は、主制御部100の制御により、画像(静止画像及び動画像)や文字情報などを表示して視覚的にユーザに情報を伝達し、表示した情報に対するユーザ操作を検出する、いわゆるタッチパネルであって、表示パネル121と、操作パネル122とを備える。
表示パネル121は、LCD(Liquid Crystal Display)、OELD(Organic Electro−Luminescence Display)などを表示デバイスとして用いたものである。操作パネル122は、表示パネル121の表示面上に表示される画像を視認可能に載置され、ユーザの指や尖筆によって操作される座標を検出するデバイスである。かかるデバイスをユーザの指や尖筆によって操作すると、操作に起因して発生する検出信号を主制御部100に出力する。次いで、主制御部100は、受信した検出信号に基づいて、表示パネル121上の操作位置(座標)を検出する。
図30に示すように、本発明の撮像装置の一実施形態として例示しているスマートフォン101の表示パネル121と操作パネル122とは一体となって表示入力部120を構成しているが、操作パネル122が表示パネル121を完全に覆うような配置となっている。かかる配置を採用した場合、操作パネル122は、表示パネル121外の領域についても、ユーザ操作を検出する機能を備えてもよい。換言すると、操作パネル122は、表示パネル121に重なる重畳部分についての検出領域(以下、「表示領域」と称する)と、それ以外の表示パネル121に重ならない外縁部分についての検出領域(以下、「非表示領域」と称する)とを備えていてもよい。
なお、表示領域の大きさと表示パネル121の大きさとを完全に一致させてもよいが、両者を必ずしも一致させる必要はない。また、操作パネル122が、外縁部分と、それ以外の内側部分の2つの感応領域を備えていてもよい。さらに、外縁部分の幅は、筐体102の大きさなどに応じて適宜設計されるものである。更にまた、操作パネル122で採用される位置検出方式としては、マトリクススイッチ方式、抵抗膜方式、表面弾性波方式、赤外線方式、電磁誘導方式、静電容量方式などが挙げられ、いずれの方式を採用することもできる。
通話部130は、スピーカ131やマイクロホン132を備え、マイクロホン132を通じて入力されたユーザの音声を主制御部100にて処理可能な音声データに変換して主制御部100に出力し、無線通信部110或いは外部入出力部160により受信された音声データを復号してスピーカ131から出力するものである。また、図30に示すように、例えば、スピーカ131を表示入力部120が設けられた面と同じ面に搭載し、マイクロホン132を筐体102の側面に搭載することができる。
操作部140は、キースイッチなどを用いたハードウェアキーであって、ユーザからの指示を受け付けるものである。例えば、図30に示すように、操作部140は、スマートフォン101の筐体102の側面に搭載され、指などで押下されるとオンとなり、指を離すとバネなどの復元力によってオフ状態となる押しボタン式のスイッチである。
記憶部150は、主制御部100の制御プログラムや制御データ、アプリケーションソフトウェア、通信相手の名称や電話番号などを対応付けたアドレスデータ、送受信した電子メールのデータ、WebブラウジングによりダウンロードしたWebデータや、ダウンロードしたコンテンツデータを記憶し、またストリーミングデータなどを一時的に記憶するものである。また、記憶部150は、スマートフォン内蔵の内部記憶部151と着脱自在な外部メモリスロットを有する外部記憶部152により構成される。なお、記憶部150を構成するそれぞれの内部記憶部151と外部記憶部152は、フラッシュメモリタイプ(flash memory type)、ハードディスクタイプ(hard disk type)、マルチメディアカードマイクロタイプ(multimedia card micro type)、カードタイプのメモリ(例えば、MicroSD(登録商標)メモリ等)、RAM(Random Access Memory)、ROM(Read Only Memory)などの格納媒体を用いて実現される。
外部入出力部160は、スマートフォン101に連結されるすべての外部機器とのインタフェースの役割を果たすものであり、他の外部機器に通信等(例えば、ユニバーサルシリアルバス(USB)、IEEE1394など)又はネットワーク(例えば、インターネット、無線LAN、ブルートゥース(Bluetooth)(登録商標)、RFID(Radio Frequency Identification)、赤外線通信(Infrared Data Association:IrDA)(登録商標)、UWB(Ultra Wideband)(登録商標)、ジグビー(ZigBee)(登録商標)など)により直接的又は間接的に接続するためのものである。
スマートフォン101に連結される外部機器としては、例えば、有/無線ヘッドセット、有/無線外部充電器、有/無線データポート、カードソケットを介して接続されるメモリカード(Memory card)やSIM(Subscriber Identity Module Card)/UIM(User Identity Module Card)カード、オーディオ・ビデオI/O(Input/Output)端子を介して接続される外部オーディオ・ビデオ機器、無線接続される外部オーディオ・ビデオ機器、有/無線接続されるスマートフォン、有/無線接続されるパーソナルコンピュータ、有/無線接続されるPDA、有/無線接続されるイヤホンなどがある。外部入出力部は、このような外部機器から伝送を受けたデータをスマートフォン101の内部の各構成要素に伝達することや、スマートフォン101の内部のデータが外部機器に伝送されるようにしてもよい。
GPS受信部170は、主制御部100の指示に従って、GPS衛星ST1〜STnから送信されるGPS信号を受信し、受信した複数のGPS信号に基づく測位演算処理を実行し、スマートフォン101の緯度、経度、高度からなる位置を検出する。GPS受信部170は、無線通信部110や外部入出力部160(例えば、無線LAN)から位置情報を取得できる場合には、その位置情報を用いて位置を検出することもできる。
モーションセンサ部180は、例えば、3軸の加速度センサなどを備え、主制御部100の指示に従って、スマートフォン101の物理的な動きを検出する。スマートフォン101の物理的な動きを検出することにより、スマートフォン101の動く方向や加速度が検出される。かかる検出結果は、主制御部100に出力されるものである。
電源部190は、主制御部100の指示に従って、スマートフォン101の各部に、バッテリ(図示しない)に蓄えられる電力を供給するものである。
主制御部100は、マイクロプロセッサを備え、記憶部150が記憶する制御プログラムや制御データに従って動作し、スマートフォン101の各部を統括して制御するものである。また、主制御部100は、無線通信部110を通じて、音声通信やデータ通信を行うために、通信系の各部を制御する移動通信制御機能と、アプリケーション処理機能を備える。
アプリケーション処理機能は、記憶部150が記憶するアプリケーションソフトウェアに従って主制御部100が動作することにより実現するものである。アプリケーション処理機能としては、例えば、外部入出力部160を制御して対向機器とデータ通信を行う赤外線通信機能や、電子メールの送受信を行う電子メール機能、Webページを閲覧するWebブラウジング機能などがある。
また、主制御部100は、受信データやダウンロードしたストリーミングデータなどの画像データ(静止画像や動画像のデータ)に基づいて、映像を表示入力部120に表示する等の画像処理機能を備える。画像処理機能とは、主制御部100が、上記画像データを復号し、かかる復号結果に画像処理を施して、画像を表示入力部120に表示する機能のことをいう。
さらに、主制御部100は、表示パネル121に対する表示制御と、操作部140、操作パネル122を通じたユーザ操作を検出する操作検出制御を実行する。
表示制御の実行により、主制御部100は、アプリケーションソフトウェアを起動するためのアイコンや、スクロールバーなどのソフトウェアキーを表示し、或いは電子メールを作成するためのウィンドウを表示する。なお、スクロールバーとは、表示パネル121の表示領域に収まりきれない大きな画像などについて、画像の表示部分を移動する指示を受け付けるためのソフトウェアキーのことをいう。
また、操作検出制御の実行により、主制御部100は、操作部140を通じたユーザ操作を検出したり、操作パネル122を通じて、上記アイコンに対する操作や、上記ウィンドウの入力欄に対する文字列の入力を受け付けたり、或いは、スクロールバーを通じた表示画像のスクロール要求を受け付ける。
さらに、操作検出制御の実行により主制御部100は、操作パネル122に対する操作位置が、表示パネル121に重なる重畳部分(表示領域)か、それ以外の表示パネル121に重ならない外縁部分(非表示領域)かを判定し、操作パネル122の感応領域や、ソフトウェアキーの表示位置を制御するタッチパネル制御機能を備える。
また、主制御部100は、操作パネル122に対するジェスチャ操作を検出し、検出したジェスチャ操作に応じて、予め設定された機能を実行することもできる。ジェスチャ操作とは、従来の単純なタッチ操作ではなく、指などによって軌跡を描いたり、複数の位置を同時に指定したり、或いはこれらを組み合わせて、複数の位置から少なくとも1つについて軌跡を描く操作を意味する。
カメラ部141は、CMOSなどの撮像素子を用いて電子撮影するデジタルカメラである。また、カメラ部141は、主制御部100の制御により、撮像によって得た画像データを例えばJPEGなどの圧縮した画像データに変換し、記憶部150に記憶し、外部入出力部160や無線通信部110を通じて出力することができる。図30に示すようにスマートフォン101において、カメラ部141は表示入力部120と同じ面に搭載されているが、カメラ部141の搭載位置はこれに限らず、表示入力部120の背面に搭載されてもよいし、或いは、複数のカメラ部141が搭載されてもよい。なお、複数のカメラ部141が搭載されている場合には、撮影に供するカメラ部141を切り換えて単独にて撮影してもよいし、或いは、複数のカメラ部141を同時に使用して撮影してもよい。
また、カメラ部141はスマートフォン101の各種機能に利用することができる。例えば、表示パネル121にカメラ部141で取得した画像を表示することや、操作パネル122の操作入力の1つとして、カメラ部141の画像を利用することができる。また、GPS受信部170が位置を検出する際に、カメラ部141からの画像を参照して位置を検出することもできる。さらには、カメラ部141からの画像を参照して、3軸の加速度センサを用いずに、或いは、3軸の加速度センサと併用して、スマートフォン101のカメラ部141の光軸方向を判断することや、現在の使用環境を判断することもできる。勿論、カメラ部141からの画像をアプリケーションソフトウェア内で利用することもできる。
その他、静止画又は動画の画像データにGPS受信部170により取得した位置情報、マイクロホン132により取得した音声情報(主制御部等により、音声テキスト変換を行ってテキスト情報となっていてもよい)、モーションセンサ部180により取得した姿勢情報等などを付加して記憶部150に記憶し、外部入出力部160や無線通信部110を通じて出力することもできる。
上述の画像処理装置31は、例えば主制御部100によって実現可能である。
2…デジタルカメラ、3…カメラ本体、4…レンズ鏡筒、5…フラッシュ発光部、6…シャッタボタン、7…電源スイッチ、8…表示部、9…操作部、10…メインメモリ、12…レンズ部、14…画素、16…カラーフィルタ、20…メカニカルシャッタ、21…撮像素子、22…プロセス処理部、23…AD変換部、24…バッファメモリ、25…システム制御部、26…シャッタ駆動部、27…レンズ駆動部、28…電源制御部、29…電源、30…制御メモリ、31…画像処理装置、32…圧縮伸張部、33…記憶制御部、34…クロックデバイス、35…表示制御部、36…ユーザインタフェース、40…フラッシュ画像成分取得部、42…フラッシュ補正データ取得部、44…フラッシュ明度補正部、46…ホワイトバランス処理部、47…第1の画像データ抽出部、48…減算器、49…第1の抽出データ調整部、50…第1のホワイトバランス調整部、51…フラッシュ光用WBゲイン記憶部、53…第1の色比データ取得部、54…第1の補正データ算出部、56…第1のデモザイク処理部、57…第1の色比算出部、59…第1の明度指標データ取得部、60…第1の補正データ演算処理部、62…第1の明度データ取得部、63…第1の補正算出部、66…環境光画像成分取得部、68…環境光補正データ取得部、70…環境光明度補正部、72…第2の画像データ抽出部、73…第2の抽出データ調整部、74…第1の減算器、75…第2の減算器、76…基礎データ色比取得部、77…ホワイトバランスゲイン取得部、78…第2のホワイトバランス調整部、80…第2の色比データ取得部、81…第2の補正データ算出部、82…第2のデモザイク処理部、83…第2の色比算出部、84…第2の明度指標データ取得部、85…第2の補正データ演算処理部、86…第2の明度データ取得部、87…第2の補正算出部、88…光源比データ取得部、89…ホワイトバランス演算処理部、100…主制御部、101…スマートフォン、102…筐体、110…無線通信部、120…表示入力部、121…表示パネル、122…操作パネル、130…通話部、131…スピーカ、132…マイクロホン、140…操作部、141…カメラ部、150…記憶部、151…内部記憶部、152…外部記憶部、160…外部入出力部、170…GPS受信部、180…モーションセンサ部、190…電源部

Claims (31)

  1. フラッシュ光の発光下で被写体を撮影することにより取得された第1の画像データに基づき、前記フラッシュ光による前記被写体の画像成分を示すフラッシュ画像成分データを取得するフラッシュ画像成分取得部と、
    前記フラッシュ画像成分データに基づき、前記被写体の色に応じてもたらされる前記フラッシュ画像成分データの明度の相違を反映したフラッシュ補正データを取得するフラッシュ補正データ取得部と、
    前記フラッシュ画像成分データ及び前記フラッシュ補正データに基づき、前記被写体の色に応じてもたらされる前記フラッシュ画像成分データの明度の相違が補償されたフラッシュ画像補正成分データを取得するフラッシュ明度補正部と、を備える画像処理装置。
  2. 前記フラッシュ画像成分取得部は、前記第1の画像データと、フラッシュ光の非発光下で前記被写体を撮影することにより取得された第2の画像データとの差分を表す第1の差分データから、前記フラッシュ画像成分データを取得する請求項1に記載の画像処理装置。
  3. 前記フラッシュ画像成分取得部は、第1の発光量のフラッシュ光の発光下で前記被写体を撮影することにより取得された前記第1の画像データと、前記第1の発光量とは異なる第2の発光量のフラッシュ光の発光下で前記被写体を撮影することにより取得された第2の画像データとの差分を表す第1の差分データから、前記フラッシュ画像成分データを取得する請求項1に記載の画像処理装置。
  4. 前記フラッシュ画像成分取得部は、前記第1の差分データにフラッシュ光用ホワイトバランスゲインを適用することで前記フラッシュ画像成分データを取得する請求項2又は3に記載の画像処理装置。
  5. 前記フラッシュ補正データ取得部は、
    複数の処理ブロックに区分された前記フラッシュ画像成分データの当該複数の処理ブロックの各々における前記フラッシュ画像成分データの色成分比を表す色比データを取得し、
    前記フラッシュ画像成分データの前記色比データに基づいて、前記被写体の色に応じてもたらされる前記フラッシュ画像成分データの前記複数の処理ブロック間における明度の相違を反映した前記フラッシュ補正データを取得する請求項1〜4のいずれか一項に記載の画像処理装置。
  6. 前記フラッシュ補正データは、前記フラッシュ画像成分データの明度を示す第1の明度データに適用されることで、前記被写体の色に応じてもたらされる前記フラッシュ画像成分データの明度の相違を補償するデータであり、
    前記フラッシュ補正データ取得部は、前記フラッシュ画像成分データの前記複数の処理ブロックの各々に関して前記フラッシュ補正データを取得する請求項5に記載の画像処理装置。
  7. 前記フラッシュ補正データ取得部は、無彩色の前記色比データを基準に、前記複数の処理ブロックの各々に関する前記フラッシュ補正データを取得する請求項5又は6に記載の画像処理装置。
  8. 前記第1の画像データは、複数色のカラーフィルタを含む撮像素子によって取得され、前記フラッシュ画像成分データは当該複数色の各々に関する色成分データを含み、
    前記フラッシュ補正データ取得部は、前記色成分データに基づいて、前記複数の処理ブロックの各々における前記フラッシュ画像成分データの前記色比データを取得する請求項5〜7のいずれか一項に記載の画像処理装置。
  9. 前記フラッシュ画像成分データの前記色比データは、前記複数の処理ブロックの各々における前記フラッシュ画像成分データの前記複数色の前記色成分データの合計に対する、前記複数色の各々に関する前記フラッシュ画像成分データの前記色成分データの比に基づいている請求項8に記載の画像処理装置。
  10. 前記フラッシュ補正データ取得部は、
    前記被写体の色に応じた前記フラッシュ画像成分データの明度を示す明度指標データを前記フラッシュ画像成分データの前記色比データから導き出す演算処理に基づいて、前記複数の処理ブロックの各々における前記フラッシュ画像成分データの前記色比データから、前記複数の処理ブロックの各々における前記フラッシュ画像成分データの前記明度指標データを取得し、
    前記複数の処理ブロックの各々における前記複数色の前記色成分データの合計に対する前記複数色の各々に関する前記色成分データの比が相互に等しい無彩色の前記色比データから、当該無彩色に関する前記明度指標データを前記演算処理に基づいて取得し、
    前記無彩色に関する前記明度指標データに対する前記複数の処理ブロックの各々における前記フラッシュ画像成分データの前記明度指標データの比に基づいて、前記フラッシュ画像成分データの前記複数の処理ブロックの各々に関する前記フラッシュ補正データを取得する請求項9に記載の画像処理装置。
  11. 前記複数の処理ブロックの各々は、単一の画素によって構成される請求項5〜10のいずれか一項に記載の画像処理装置。
  12. 前記複数の処理ブロックの各々は、複数の画素によって構成される請求項5〜10のいずれか一項に記載の画像処理装置。
  13. 前記第1の画像データの撮影に使用された撮像素子は複数色のカラーフィルタを含む単板式の撮像素子であり、当該複数色のカラーフィルタは、特定の色パターンの基本配列が繰り返し配置されることで構成され、
    前記複数の処理ブロックの各々を構成する前記複数の画素は、前記基本配列を構成する画素に対応する請求項12に記載の画像処理装置。
  14. 環境光による前記被写体の画像成分を示す環境光画像成分データを取得する環境光画像成分取得部と、
    前記環境光画像成分データに基づき、前記被写体の色に応じてもたらされる前記環境光画像成分データの明度の相違を反映した環境光補正データを取得する環境光補正データ取得部と、
    前記環境光画像成分データ及び前記環境光補正データに基づき、前記被写体の色に応じてもたらされる前記環境光画像成分データの明度の相違が補償された環境光画像補正成分データを取得する環境光明度補正部と、を更に備える請求項5〜13のいずれか一項に記載の画像処理装置。
  15. 前記環境光画像成分取得部は、フラッシュ光の非発光下で前記被写体を撮影することにより取得された第2の画像データを基礎データとして前記環境光画像成分データを取得する請求項14に記載の画像処理装置。
  16. 前記環境光画像成分取得部は、前記第1の画像データと、前記第1の画像データとフラッシュ光の非発光下で前記被写体を撮影することにより取得された第2の画像データとの差分を表す第1の差分データと、の差分を表す第2の差分データを基礎データとして、前記環境光画像成分データを取得する請求項14に記載の画像処理装置。
  17. 前記環境光画像成分取得部は、
    前記複数の処理ブロックの各々における前記基礎データの色成分比を表す色比データを取得し、
    前記複数の処理ブロックの各々における前記フラッシュ画像成分データの前記色比データと前記基礎データの前記色比データとに基づいて環境光用ホワイトバランスゲインを取得し、
    前記基礎データに前記環境光用ホワイトバランスゲインを適用することで前記環境光画像成分データを取得する請求項15又は16に記載の画像処理装置。
  18. 前記環境光用ホワイトバランスゲインは、前記複数の処理ブロックの各々における前記基礎データの前記色比データに適用されると、前記複数の処理ブロックの各々における前記環境光画像成分データの前記色比データが導き出される請求項17に記載の画像処理装置。
  19. 前記環境光補正データ取得部は、
    前記複数の処理ブロックの各々における前記環境光画像成分データの色成分比を表す色比データを取得し、
    前記環境光画像成分データの前記色比データに基づいて、前記被写体の色に応じてもたらされる前記環境光画像成分データの前記複数の処理ブロック間における明度の相違を反映した前記環境光補正データを取得する請求項14〜18のいずれか一項に記載の画像処理装置。
  20. 前記環境光補正データは、前記環境光画像成分データの明度を示す第2の明度データに適用されることで、前記被写体の色に応じてもたらされる前記環境光画像成分データの明度の相違を補償するデータであり、
    前記環境光補正データ取得部は、前記環境光画像成分データの前記複数の処理ブロックの各々に関して前記環境光補正データを取得する請求項19に記載の画像処理装置。
  21. 前記環境光補正データ取得部は、無彩色の前記色比データを基準に、前記複数の処理ブロックの各々に関する前記環境光補正データを取得する請求項19又は20に記載の画像処理装置。
  22. 前記第1の画像データは、複数色のカラーフィルタを含む撮像素子によって撮影され、前記環境光画像成分データは当該複数色の各々に関する色成分データを含み、
    前記環境光補正データ取得部は、前記色成分データに基づいて、前記複数の処理ブロックの各々における前記環境光画像成分データの前記色比データを取得する請求項19〜21のいずれか一項に記載の画像処理装置。
  23. 前記環境光画像成分データの前記色比データは、前記複数の処理ブロックの各々における前記環境光画像成分データの前記複数色の前記色成分データの合計に対する、前記複数色の各々に関する前記環境光画像成分データの前記色成分データの比に基づいている請求項22に記載の画像処理装置。
  24. 前記環境光補正データ取得部は、
    前記被写体の色に応じた前記環境光画像成分データの明度を示す明度指標データを前記環境光画像成分データの前記色比データから導き出す演算処理に基づいて、前記複数の処理ブロックの各々における前記環境光画像成分データの前記色比データから、前記複数の処理ブロックの各々における前記環境光画像成分データの前記明度指標データを取得し、
    前記複数の処理ブロックの各々における前記複数色の前記色成分データの合計に対する前記複数色の各々に関する前記色成分データの比が相互に等しい無彩色の前記色比データから、当該無彩色に関する前記明度指標データを前記演算処理に基づいて取得し、
    前記無彩色に関する前記明度指標データに対する前記複数の処理ブロックの各々における前記環境光画像成分データの前記明度指標データの比に基づいて、前記環境光画像成分データの前記複数の処理ブロックの各々に関する前記環境光補正データを取得する請求項23に記載の画像処理装置。
  25. 前記フラッシュ画像補正成分データに基づいて、前記第1の画像データのホワイトバランスを調整するホワイトバランス処理部を更に備える請求項1〜24のいずれか一項に記載の画像処理装置。
  26. 前記フラッシュ画像補正成分データ及び前記環境光画像補正成分データに基づいて、前記第1の画像データのホワイトバランスを調整するホワイトバランス処理部を更に備える請求項14〜24のいずれか一項に記載の画像処理装置。
  27. 前記明度は輝度である請求項1〜26のいずれか一項に記載の画像処理装置。
  28. 撮像素子と、
    請求項1〜27のいずれか一項に記載の画像処理装置と、を備える撮像装置。
  29. フラッシュ光の発光下で被写体を撮影することにより取得された第1の画像データから、前記フラッシュ光による前記被写体の画像成分を示すフラッシュ画像成分データを取得するステップと、
    前記フラッシュ画像成分データに基づき、前記被写体の色に応じてもたらされる前記フラッシュ画像成分データの明度の相違を反映したフラッシュ補正データを取得するステップと、
    前記フラッシュ画像成分データ及び前記フラッシュ補正データに基づき、前記被写体の色に応じてもたらされる前記フラッシュ画像成分データの明度の相違が補償されたフラッシュ画像補正成分データを取得するステップと、を備える画像処理方法。
  30. フラッシュ光の発光下で被写体を撮影することにより取得された第1の画像データから、前記フラッシュ光による前記被写体の画像成分を示すフラッシュ画像成分データを取得する手順と、
    前記フラッシュ画像成分データに基づき、前記被写体の色に応じてもたらされる前記フラッシュ画像成分データの明度の相違を反映したフラッシュ補正データを取得する手順と、
    前記フラッシュ画像成分データ及び前記フラッシュ補正データに基づき、前記被写体の色に応じてもたらされる前記フラッシュ画像成分データの明度の相違が補償されたフラッシュ画像補正成分データを取得する手順と、をコンピュータに実行させるためのプログラム。
  31. 請求項30に記載のプログラムを記録したコンピュータ読み取り可能な非一時的記録媒体。
JP2016532469A 2014-07-08 2015-04-27 画像処理装置、撮像装置、画像処理方法及びプログラム Active JP6302555B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2014140430 2014-07-08
JP2014140430 2014-07-08
PCT/JP2015/062696 WO2016006305A1 (ja) 2014-07-08 2015-04-27 画像処理装置、撮像装置、画像処理方法及びプログラム

Publications (2)

Publication Number Publication Date
JPWO2016006305A1 true JPWO2016006305A1 (ja) 2017-04-27
JP6302555B2 JP6302555B2 (ja) 2018-03-28

Family

ID=55063950

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016532469A Active JP6302555B2 (ja) 2014-07-08 2015-04-27 画像処理装置、撮像装置、画像処理方法及びプログラム

Country Status (4)

Country Link
US (1) US10200663B2 (ja)
JP (1) JP6302555B2 (ja)
CN (1) CN106576155B (ja)
WO (1) WO2016006305A1 (ja)

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10129511B2 (en) * 2016-08-01 2018-11-13 Ricoh Company, Ltd. Image processing apparatus, image projection apparatus, and image processing method
JP6778602B2 (ja) * 2016-12-14 2020-11-04 三星電子株式会社Samsung Electronics Co.,Ltd. 撮像装置、画像データ生成方法および画像データ生成プログラム
US11436858B2 (en) * 2017-07-09 2022-09-06 Ringo Ai, Inc. Characterizing reflectance, illuminance, and sensor response for electromagnetic radiation
TWI660633B (zh) * 2018-04-13 2019-05-21 瑞昱半導體股份有限公司 基於膚色資訊的白平衡校正方法及其影像處理裝置
US10386701B1 (en) * 2018-05-29 2019-08-20 Nanning Fugui Precision Industrial Co., Ltd. Mobile device enabling collaboration with flashes of other devices and method thereof
US10447942B1 (en) 2018-06-07 2019-10-15 Qualcomm Incorporated Flash control for video capture
CN108965845B (zh) * 2018-08-16 2019-10-01 Oppo广东移动通信有限公司 图像白平衡校准方法、装置、存储介质及终端
EP3850425A4 (en) 2018-09-11 2022-06-08 Profoto Aktiebolag COMPUTER-IMPLEMENTED METHOD AND SYSTEM FOR COORDINATING THE CAPTURE OF AN IMAGE USING A CAMERA AND TRIGGERING A FLASH PULSE FROM AT LEAST ONE FLASH UNIT
EP3850424A4 (en) * 2018-09-11 2022-05-25 Profoto Aktiebolag METHOD, SOFTWARE PRODUCT, CAMERA DEVICE AND SYSTEM FOR DETERMINING ARTIFICIAL LIGHTING AND CAMERA SETTINGS
US11863866B2 (en) 2019-02-01 2024-01-02 Profoto Aktiebolag Housing for an intermediate signal transmission unit and an intermediate signal transmission unit
JP7321772B2 (ja) * 2019-05-22 2023-08-07 キヤノン株式会社 画像処理装置、画像処理方法、およびプログラム
CN113259556B (zh) * 2021-05-06 2023-04-18 深圳市中诺通讯有限公司 分区域消除亮度差与色差的方法、装置、设备及存储介质

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003296720A (ja) * 2002-04-02 2003-10-17 Nikon Corp 画像処理装置および画像処理方法
WO2009139154A1 (ja) * 2008-05-14 2009-11-19 パナソニック株式会社 撮像装置及び撮像方法
JP2012100170A (ja) * 2010-11-04 2012-05-24 Casio Comput Co Ltd 撮像装置、ホワイトバランス調整方法及びホワイトバランス調整プログラム

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4832899B2 (ja) * 2006-01-05 2011-12-07 イーストマン コダック カンパニー ゲイン算出装置
JP5225137B2 (ja) 2009-02-16 2013-07-03 キヤノン株式会社 撮像装置、画像処理方法及びプログラム
JP5313037B2 (ja) * 2009-05-11 2013-10-09 パナソニック株式会社 電子カメラ、画像処理装置および画像処理方法
US8717454B2 (en) * 2009-12-24 2014-05-06 Samsung Electronics Co., Ltd. Image pickup apparatus and image pickup method for adjusting white balance to account for flash and external light sources
JP2012019293A (ja) * 2010-07-06 2012-01-26 Sony Corp 画像処理装置、撮影方法、撮影プログラム、画像処理方法及び画像処理プログラム
JP5687464B2 (ja) * 2010-09-29 2015-03-18 オリンパスイメージング株式会社 撮像装置および画像処理方法
CN102469243B (zh) * 2010-11-04 2014-12-17 卡西欧计算机株式会社 能白平衡调整的摄像装置
CN103167293B (zh) * 2011-12-09 2015-07-22 夏普株式会社 显示系统
JP5730439B2 (ja) * 2012-03-21 2015-06-10 富士フイルム株式会社 画像表示装置、撮影装置、画像表示システム及び方法
JP6049343B2 (ja) * 2012-08-01 2016-12-21 キヤノン株式会社 画像処理装置、画像処理方法及びプログラム
JP2014044345A (ja) * 2012-08-28 2014-03-13 Ricoh Co Ltd 撮像装置

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003296720A (ja) * 2002-04-02 2003-10-17 Nikon Corp 画像処理装置および画像処理方法
WO2009139154A1 (ja) * 2008-05-14 2009-11-19 パナソニック株式会社 撮像装置及び撮像方法
JP2012100170A (ja) * 2010-11-04 2012-05-24 Casio Comput Co Ltd 撮像装置、ホワイトバランス調整方法及びホワイトバランス調整プログラム

Also Published As

Publication number Publication date
US10200663B2 (en) 2019-02-05
CN106576155B (zh) 2019-04-16
JP6302555B2 (ja) 2018-03-28
WO2016006305A1 (ja) 2016-01-14
CN106576155A (zh) 2017-04-19
US20170094240A1 (en) 2017-03-30

Similar Documents

Publication Publication Date Title
JP6302555B2 (ja) 画像処理装置、撮像装置、画像処理方法及びプログラム
US10027938B2 (en) Image processing device, imaging device, image processing method, and image processing program
JP5683745B2 (ja) 画像表示装置及び方法
JP6063093B2 (ja) 画像処理装置、撮像装置、画像処理方法及びプログラム
JP6063092B2 (ja) 画像処理装置、撮像装置、画像処理方法及びプログラム
US10165243B2 (en) Image processing device, imaging device, image processing method, and program
US20160239946A1 (en) Image processing device, imaging apparatus, parameter generating method, image processing method, and program
US10070112B2 (en) Image processing device, imaging device, image processing method, program, and recording medium
JP5897769B2 (ja) 撮像装置、キャリブレーションシステム、及びプログラム
JP5768193B2 (ja) 画像処理装置、撮像装置、画像処理方法、画像処理プログラム
JP6911135B2 (ja) 撮像装置、撮像方法、およびプログラム
US11501412B2 (en) Image processing apparatus, imaging apparatus, image processing method, and image processing program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20161206

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180222

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180302

R150 Certificate of patent or registration of utility model

Ref document number: 6302555

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250