JP6272486B2 - 画像処理装置、撮像装置、画像処理方法、及びプログラム - Google Patents

画像処理装置、撮像装置、画像処理方法、及びプログラム Download PDF

Info

Publication number
JP6272486B2
JP6272486B2 JP2016534303A JP2016534303A JP6272486B2 JP 6272486 B2 JP6272486 B2 JP 6272486B2 JP 2016534303 A JP2016534303 A JP 2016534303A JP 2016534303 A JP2016534303 A JP 2016534303A JP 6272486 B2 JP6272486 B2 JP 6272486B2
Authority
JP
Japan
Prior art keywords
image
flash emission
flash
emission image
signal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016534303A
Other languages
English (en)
Other versions
JPWO2016009699A1 (ja
Inventor
太郎 斎藤
太郎 斎藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Corp
Original Assignee
Fujifilm Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujifilm Corp filed Critical Fujifilm Corp
Publication of JPWO2016009699A1 publication Critical patent/JPWO2016009699A1/ja
Application granted granted Critical
Publication of JP6272486B2 publication Critical patent/JP6272486B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/56Cameras or camera modules comprising electronic image sensors; Control thereof provided with illuminating means
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/71Circuitry for evaluating the brightness variation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/74Circuitry for compensating brightness variation in the scene by influencing the scene brightness using illuminating means
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • H04N23/84Camera processing pipelines; Components thereof for processing colour signals
    • H04N23/88Camera processing pipelines; Components thereof for processing colour signals for colour balance, e.g. white-balance circuits or colour temperature control
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B15/00Special procedures for taking photographs; Apparatus therefor
    • G03B15/02Illuminating scene
    • G03B15/03Combinations of cameras with lighting apparatus; Flash units
    • G03B15/05Combinations of cameras with electronic flash apparatus; Electronic flash units
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/667Camera operation mode switching, e.g. between still and video, sport and normal or high- and low-resolution modes

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Studio Devices (AREA)
  • Stroboscope Apparatuses (AREA)

Description

本発明は、画像処理装置、撮像装置、画像処理方法、及びプログラムに係り、特に画像データにおいて主要被写体領域と背景領域とを分離する技術に関する。
フラッシュ光を発光させて撮影を行う場合に、被写体距離が近い主要被写体と被写体距離が遠い背景とでは、主に影響を受ける光源が異なる。すなわち、被写体距離が近くフラッシュ光の届きやすい主要被写体は主にフラッシュ光からの影響を受けて撮影され、被写体距離が遠くフラッシュ光が届きにくい背景は主に環境光からの影響を受けて撮影される。
主要被写体と背景とで影響を受ける光源が異なる場合には、主要被写体が写っている画像の領域(以下、「主要被写体領域」と称する)と背景が写っている画像の領域(以下、「背景領域」と称する)とに対して、各領域に適した画像処理を行うことが求められる。
具体的には、ホワイトバランス処理(以下、「WB処理」と称する)によって主要被写体領域の色相(カラーバランス)を良好にする場合には、フラッシュ光の影響をキャンセルするホワイトバランスゲイン(以下、「WBゲイン」と称する)を主要被写体領域に適用することが求められる。一方で、WB処理によって背景領域の色相(カラーバランス)を良好にする場合には、環境光の影響をキャンセルするWBゲインを背景領域に適用することが求められる。したがって、画像を構成する全領域に関して共通のWBゲインを適用することにより、主要被写体領域の色相(カラーバランス)と背景領域の色相(カラーバランス)とを両立させることは困難な場合がある。
そこで、マルチエリアホワイトバランス処理(以下、「マルチエリアWB処理」と称する)により、主要被写体領域と背景領域とに異なるホワイトバランスゲイン(以下、「WBゲイン」と称する)を適用する手法が知られている。マルチエリアWB処理によれば、複数の光源からの光が領域毎に異なる比率で被写体に照射されている画像であっても、各領域の色相(カラーバランス)を適正に補正することができる。
しかし、マルチエリアWB処理を行う場合には、主要被写体領域と背景領域とを正確に判定する必要があり、主要被写体領域と背景領域との判定が不正確であるとかえって不自然な画像となってしまう。そこで、主要被写体領域と背景領域との判定に関して、従来より、様々な方法が考えられてきた。
例えば、特許文献1では、主要被写体領域と背景領域とを分離する技術として、同一シーンに対してフラッシュ光を発光させて撮影した画像とフラッシュ光を発光させないで撮影した画像とを取得し、取得した2枚の画像の差分から主要被写体領域と背景領域とを分離する方法が開示されている。
特許文献2では、同一シーンに対してフラッシュ光の発光強度を強くして撮影した画像とフラッシュ光の発光強度を弱くして撮影した画像とを取得し、その取得した2枚の画像の差分から主要被写体領域と背景領域とを分離する方法が開示されている。
特開2000−308068号公報 特開2009−200924号公報
しかしながら、特許文献1に記載された技術は、フラッシュ光を発光させないで暗いシーンを撮影する場合には、シャッタスピードを遅くして十分な光量を得て黒つぶれが生じないようにする必要がある。シャッタスピードを遅くして撮影された画像には、主要被写体が動くことによる画像のブレ又は手振れによる画像のブレが生じる可能性が高くなる。ブレを有する画像は、主要被写体領域と背景領域との境界が曖昧になってしまい、主要被写体領域と背景領域との分離を正確に行うことができない。
このような主要被写体領域と背景領域との分離が正確に行われていない画像は、マルチエリアWB処理が行われるとかえって不自然な画像となってしまう。
一方で、フラッシュ光を発光しない場合であってもブレの発生を抑えるためにシャッタスピードを高速に維持すると、光量(例えば輝度値で表される)が不十分な領域は、画像の撮像信号とノイズとの判別ができなくなる。なお、シャッタスピードを1/4秒から1/64秒に速めると、環境光による輝度は1/16になってしまう。具体的には、8bitで70あった輝度は、輝度が1/16になると4.375まで下がって、輝度が4.375まで下がった領域はノイズと見分けがつきにくい。
さらに、特許文献1に記載された技術は、室内灯に近い主要被写体領域を正しく判定できない場合がある。すなわち、複数の人物が主要被写体である場合に、室内灯に近くフラッシュ光も当たる人物の明るさはダイナミックレンジの上限により正しく表されず、主要被写体領域であってもフラッシュ光の発光画像と非発光画像との差分が閾値以下となってしまい、正確に主要被写体領域と背景領域とを判定できない場合がある。
また、特許文献2に記載された技術では、本撮影(適正露出の撮影)により取得した画像は、主要被写体領域と背景領域とを分離するために使用されない。すなわち、特許文献2に記載された技術は、本撮影された画像、フラッシュ光の発光強度が強い画像、及びフラッシュ光の発光強度が弱い画像を取得する必要があり、同一シーンに対して少なくとも3回の撮影が必要になってしまう。
本発明はこのような事情に鑑みてなされたもので、その目的は、本撮影を含めた2回の撮影で得られる画像であって、ノイズの影響、被写体の移動によるブレ、及び手振れの影響が抑えられた画像を使用して、主要被写体領域と背景領域との判定を正確に行うことができる画像処理装置、撮像装置、画像処理方法、及びプログラムを提供することである。
本発明の一の態様である画像処理装置は、フラッシュ光を発光して本撮影された第1のフラッシュ発光画像を示す第1の撮像信号と、第1のフラッシュ発光画像の露光時間とは異なる露光時間で、第1のフラッシュ発光画像と同一シーンがフラッシュ光を発光して参照撮影された第2のフラッシュ発光画像を示す第2の撮像信号とを取得する画像取得部と、第1の撮像信号の各領域に対応する第2の撮像信号の各領域における、第1の撮像信号と第2の撮像信号との信号割合を算出する割合算出部と、第1のフラッシュ発光画像において、信号割合と閾値に応じて、主要被写体領域と背景領域とを判定する判定部と、を備える。
本態様によれば、同一シーンに対してフラッシュ光を発光させて得た2枚のフラッシュ発光画像の信号割合により主要被写体領域と背景領域とを判定するので、画像においてノイズの影響、被写体のブレの影響、及び手振れの影響が抑制され、主要被写体領域と背景領域との判定を正確に行うことができる。特に、本態様によれば、主要被写体領域と背景領域との境界において、適切な判定がされる。また、本態様によれば、本撮影で得た画像も主要被写体領域と背景領域との判定に使用するので、本撮影を含めた少なくとも2回の撮影で得られる画像で判定を行うことができる。
望ましくは、割合算出部は、第1の撮像信号の各領域に対応する第2の撮像信号の各領域における、第1の撮像信号と第2の撮像信号との信号変化量を取得し、各領域の第1の撮像信号又は第2の撮像信号に基づく値に対する信号変化量の割合である信号割合を算出し、判定部は、第1のフラッシュ発光画像において、信号割合が閾値以下の領域を主要被写体領域とし、信号割合が閾値より大きい領域を背景領域と判定する。
本態様によれば、第1のフラッシュ発光画像と第2のフラッシュ発光画像との信号変化量が算出され、信号変化量に基づく信号割合により、主要被写体領域と背景領域との判定が行われる。これにより、本態様は、第1のフラッシュ発光画像と第2のフラッシュ発光画像との差分に基づいて正確に、主要被写体領域と背景領域との判定を行うことができる。
望ましくは、判定部は、第1のフラッシュ発光画像において、信号割合が閾値以上の領域を主要被写体領域とし、信号割合が閾値より小さい領域を背景領域と判定する。
本態様によれば、閾値に基づいて主要被写体領域と背景領域との判定を行うので、より正確な判定を行うことができる。
望ましくは、第1のフラッシュ発光画像の露光時間は、フラッシュ光の発光時間よりも長い。
本態様によれば、本撮影で得られる第1のフラッシュ発光画像の露光時間がフラッシュ光の発光時間よりも長いので、本撮影により得られた十分な明るさが確保された画像を使用して、判定を行うことができる。
望ましくは、第2のフラッシュ発光画像の露光時間は、第1のフラッシュ発光画像の露光時間よりも短い。
本態様によれば、参照撮影で撮影される第2のフラッシュ発光画像の露光時間は本撮影で撮影される第1のフラッシュ発光画像の露光時間より短いので、本撮影では十分な露光時間を確保しつつ、第1のフラッシュ発光画像及び第2のフラッシュ発光画像の取得は短時間で取得可能である。
望ましくは、第1のフラッシュ発光画像の露光時間は、第1のフラッシュ発光画像の適正露出から決定される。
本態様によれば、第1のフラッシュ発光画像が適正露出により撮影されているので、良質な画質を有する第1のフラッシュ発光画像により判定を行うことができる。
望ましくは、判定部で判定された主要被写体領域と背景領域とに対して異なる信号処理を行う信号処理部、を備える。
本態様によれば、判定された主要被写体領域と背景領域とに対して異なる信号処理を行うので、主要被写体領域及び背景領域に応じて適切な画像処理を行うことができる。
望ましくは、信号処理部は、主要被写体領域と背景領域とに対して異なるホワイトバランス処理を行う。
本態様によれば、主要被写体領域に行われるホワイトバランス処理と背景領域に行われるホワイトバランス処理とは異なるので、主要被写体領域及び背景領域の光源に適したホワイトバランス処理を行うことができる。
望ましくは、第1のフラッシュ発光画像の輝度情報と第2のフラッシュ発光画像の輝度情報とを取得する輝度情報取得部と、第1のフラッシュ発光画像の輝度情報と第2のフラッシュ発光画像の輝度情報とを比較する輝度情報比較部と、を備え、信号処理部は、輝度情報比較部の比較結果に応じて、信号処理を行わない。
本態様によれば、第1のフラッシュ発光画像の輝度情報と第2のフラッシュ発光画像の輝度情報の比較結果に応じて、主要被写体領域と背景領域とで異なる信号処理を行わない。したがって、本態様は、第1のフラッシュ発光画像と第2のフラッシュ発光画像との間で被写体が動いた場合など判定が適切に行えない場合に、信号処理による画質の劣化を防ぐことができる。
望ましくは、輝度情報比較部は、第1のフラッシュ発光画像の輝度情報と第2のフラッシュ発光画像の輝度情報との重なりを算出することにより比較を行う。
本態様によれば、第1のフラッシュ発光画像の輝度情報と第2のフラッシュ発光画像の輝度情報との重なりにより比較を行うので、第1のフラッシュ発光画像と第2のフラッシュ発光画像との間での主要被写体の移動の有無を把握することができる。
望ましくは、信号処理部は、第1のフラッシュ発光画像及び第2のフラッシュ発光画像の撮影されたシャッタスピードがフラッシュ光の発光時間よりも短い場合は、信号処理を行わない。
本態様によれば、第1のフラッシュ発光画像と第2のフラッシュ発光画像とのシャッタスピードがフラッシュ光の発光時間よりも短い場合は、主要被写体領域と背景領域に対する信号処理部の異なる信号処理は行われない。例えば、高速のシャッタスピードでフォーカルプレーンシャッタを使用した場合に、1枚目の幕が降り始めて直ぐに2枚目の幕が降り始め、撮像面の全体にフラッシュ光が均一に当たらないため、フラッシュ発光画像には輝度ムラが発生してしまう。よって、本態様は、主要被写体領域と背景領域とに異なる信号処理を行わないので、信号処理による画質の劣化を抑制することができる。
望ましくは、第1のフラッシュ発光画像が撮影され、続いて第2のフラッシュ発光画像が撮影される場合において、第1のフラッシュ発光画像は後幕シンクロのフラッシュ発光タイミングで撮影され、第2のフラッシュ発光画像は先幕シンクロのフラッシュ発光タイミングで撮影される。
本態様によれば、第1のフラッシュ発光画像が撮影され続いて第2のフラッシュ発光画像が撮影される場合に、第1のフラッシュ発光画像は後幕シンクロで、第2のフラッシュ発光画像は先幕シンクロで撮影されているので、主要被写体やシーンの変動を抑えられ、正確に主要被写体領域と背景領域との判定を行うことができる。
望ましくは、第2のフラッシュ発光画像が撮影され、続いて第1のフラッシュ発光画像が撮影される場合において、第1のフラッシュ発光画像は先幕シンクロのフラッシュ発光タイミングで撮影され、第2のフラッシュ発光画像は後幕シンクロのフラッシュ発光タイミングで撮影される。
本態様によれば、第2のフラッシュ発光画像が撮影され続いて第1のフラッシュ発光画像が撮影される場合に、第2のフラッシュ発光画像は後幕シンクロで、第1のフラッシュ発光画像は先幕シンクロで撮影されているので、主要被写体やシーンの変動を抑えられ、正確に主要被写体領域と背景領域との判定を行うことができる。
望ましくは、第2のフラッシュ発光画像が撮影され、続いて第1のフラッシュ発光画像が撮影され、第1のフラッシュ発光画像が先幕シンクロのフラッシュ発光タイミングで撮影される場合には、第2のフラッシュ発光画像の露光時間は、第1のフラッシュ発光画像の露光時間よりも短い。
本態様によれば、第2のフラッシュ発光画像、続いて先幕シンクロにより第1のフラッシュ発光画像が撮影される場合には、第2のフラッシュ発光画像の露光時間は、第1のフラッシュ発光画像の露光時間よりも短い。これにより、本態様は、本撮影である第1のフラッシュ発光画像までの時間がより短くなるので、ユーザが意図した本撮影画像を取得することができる。
望ましくは、第2のフラッシュ発光画像は、後幕シンクロのフラッシュ発光タイミングで撮影される。
本態様によれば、後幕シンクロにより第2のフラッシュ発光画像、続いて先幕シンクロで第1のフラッシュ発光画像が撮影される場合には、第2のフラッシュ発光画像の露光時間は、第1のフラッシュ発光画像の露光時間よりも短い。これにより、本態様は、主要被写体やシーンの変動を抑えられ、正確に主要被写体領域と背景領域との判定を行うことができる。
望ましくは、第1のフラッシュ発光画像が撮影され、続いて第2のフラッシュ発光画像が撮影され、第1のフラッシュ発光画像が後幕シンクロのフラッシュ発光タイミングで撮影される場合には、第2のフラッシュ発光画像の露光時間は、第1のフラッシュ発光画像の露光時間よりも短い。
本態様によれば、第1のフラッシュ発光画像が撮影され、続いて後幕シンクロにより第2のフラッシュ発光画像が撮影される場合には、第2のフラッシュ発光画像の露光時間は第1のフラッシュ発光画像の露光時間よりも短い。これにより、本態様は、本撮影である第1のフラッシュ発光画像を撮影した後により早く参照撮影が終了するので、ユーザの利便性が向上する。
望ましくは、第2のフラッシュ発光画像は、先幕シンクロのフラッシュ発光タイミングで撮影される。
本態様によれば、後幕シンクロにより第1のフラッシュ発光画像が撮影された後に先幕シンクロにより第2のフラッシュ発光画像が撮影される場合には、第2のフラッシュ発光画像の露光時間は第1の露光時間よりも短い。これにより、本態様は、主要被写体及びシーンの変動が抑えられた画像により判定を行うことができるので、正確な主要被写体領域と背景領域との判定を行うことができる。
望ましくは、第1のフラッシュ発光画像及び第2のフラッシュ発光画像は、フラッシュ光の発光量の設定が同じである。
本態様によれば、第1のフラッシュ発光画像と第2のフラッシュ発光画像は、フラッシュ光の発光量の設定が同じであるので、正確に主要被写体領域と背景領域とを判定することができる。
望ましくは、第1の撮像信号及び第2の撮像信号の領域は1画素である。
本態様によれば、1画素毎に主要被写体領域及び背景領域の判定を行うので、より精度が良い判定を行うことができる。
本発明の他の態様である撮像装置は、上述の画像処理装置を備える。
望ましくは、上述の撮像装置は、手振れを検知する手振れセンサ、を備え、第1のフラッシュ発光画像及び第2のフラッシュ発光画像の少なくとも一方の撮影において、手振れセンサが手振れを検知した場合には、判定部は主要被写体領域及び背景領域の判定を行わない。
本態様によれば、手振れセンサが手振れを検知した場合には、判定部は判定を行わない。これにより、本態様は、判定部が行う判定の精度を確保することができる。
本発明の他の態様である画像処理方法は、フラッシュ光を発光して本撮影された第1のフラッシュ発光画像を示す第1の撮像信号と、第1のフラッシュ発光画像の露光時間とは異なる露光時間で、第1のフラッシュ発光画像と同一シーンがフラッシュ光を発光して参照撮影された第2のフラッシュ発光画像を示す第2の撮像信号とを取得する画像取得ステップと、第1の撮像信号の各領域に対応する第2の撮像信号の各領域における、第1の撮像信号と第2の撮像信号との信号割合を算出する割合算出ステップと、第1のフラッシュ発光画像において、信号割合と閾値に応じて、主要被写体領域と背景領域とを判定する判定ステップと、を含む。
本発明の他の態様であるプログラムは、フラッシュ光を発光して本撮影された第1のフラッシュ発光画像を示す第1の撮像信号と、第1のフラッシュ発光画像の露光時間とは異なる露光時間で、第1のフラッシュ発光画像と同一シーンがフラッシュ光を発光して参照撮影された第2のフラッシュ発光画像を示す第2の撮像信号とを取得する画像取得ステップと、第1の撮像信号の各領域に対応する第2の撮像信号の各領域における、第1の撮像信号と第2の撮像信号との信号割合を算出する割合算出ステップと、第1のフラッシュ発光画像において、信号割合と閾値に応じて、主要被写体領域と背景領域とを判定する判定ステップと、をコンピュータに実行させる。
本発明によれば、同一シーンの本撮影を含む少なくとも2枚のフラッシュ発光画像により主要被写体領域と背景領域とを判定するので、画像におけるノイズの影響、被写体のブレの影響、及び手振れの影響が抑制され、主要被写体領域と背景領域との判定を正確に行うことができる。
デジタルカメラの正面斜視図である。 デジタルカメラの背面斜視図である。 デジタルカメラの制御処理系を示すブロック図である。 第1実施形態の画像処理部のブロック図である。 信号割合の算出に関して説明する図である。 信号割合の算出に関して説明する図である。 第1のフラッシュ発光画像と第2のフラッシュ発光画像の明るさ比を示す図である。 第1のフラッシュ発光画像と第2のフラッシュ発光画像の明るさ比を示す図である。 第1のフラッシュ発光画像と第2のフラッシュ発光画像の明るさ比を示す図である。 第1のフラッシュ発光画像と第2のフラッシュ発光画像の明るさ比を示す図である。 第1のフラッシュ発光画像と第2のフラッシュ発光画像の明るさ比を示す図である。 第1のフラッシュ発光画像と第2のフラッシュ発光画像の明るさ比を示す図である。 閾値とシャッタスピードの倍率に関して説明する図である。 フラッシュ光の発光強度と発光時間に関して説明する概念図である。 露光時間とフラッシュ光の発光時間とのタイミングチャートである。 第1実施形態の画像処理部のフロー図である。 第2実施形態の画像処理部のブロック図である。 第3実施形態の画像処理部のブロック図である。 輝度情報の一例を示す概念図である。 スマートフォンの外観を示す図である。 図20に示すスマートフォンの構成を示すブロック図である。
添付図面を参照して本発明の実施形態について説明する。以下の実施形態では、デジタルカメラ(撮像装置)に本発明を適用する例について説明する。ただし、デジタルカメラ以外の画像処理装置、撮像装置、画像処理方法及びプログラムにも本発明を適用することが可能である。
図1は、デジタルカメラ2の正面斜視図である。図2は、デジタルカメラ2の背面斜視図である。
デジタルカメラ2は、カメラ本体3と、カメラ本体3の前面に取り付けられるレンズ鏡筒4とを備える。レンズ鏡筒4及びカメラ本体3は、一体的に設けられてもよいし、レンズ交換式カメラとして着脱自在に設けられてもよい。
カメラ本体3の前面には、レンズ鏡筒4に加えてフラッシュ発光部5が設けられ、カメラ本体3の上面にはシャッタボタン6及び電源スイッチ7が設けられている。シャッタボタン6は、ユーザからの撮影指示を受け付ける撮影指示部であり、電源スイッチ7は、デジタルカメラ2の電源のオン及びオフの切り換え指示をユーザから受け付ける電源切換部である。
カメラ本体3の背面には、液晶パネル等によって構成される表示部8と、ユーザによって直接的に操作される操作部9とが設けられている。表示部8は、撮影待機状態ではライブビュー画像(スルー画像)を表示して電子ビューファインダとして機能し、撮影画像やメモリ記憶画像の再生時には再生画像表示部として機能する。
操作部9は、モード切換スイッチ、十字キー、実行キーなどの任意の操作デバイスによって構成される。例えばモード切換スイッチは、デジタルカメラ2の動作モードを切り換える際にユーザによって操作される。デジタルカメラ2の動作モードとして、被写体を撮像して撮影画像を得るための撮影モード、画像を再生表示する再生モード、等がある。また他の撮影モードとして、オートフォーカスを行うAF(Auto Focus)モード及びマニュアルフォーカス操作を行うMF(Manual Focus)モードがある。一方、十字キー及び実行キーは、表示部8にメニュー画面や設定画面を表示したり、メニュー画面や設定画面内に表示されるカーソルを移動したり、デジタルカメラ2の各種設定を確定したりする場合に、ユーザによって操作される。
カメラ本体3の底部(図示省略)には、メインメモリ10が装填されるメモリスロットと、このメモリスロットの開口を開閉する装填蓋とが設けられている。メインメモリ10は、カメラ本体3に着脱自在に設けられており、カメラ本体3に装着されると、カメラ本体3に設けられる記憶制御部33と電気的に接続される。メインメモリ10は、一般にカード型フラッシュメモリ等の半導体メモリにより構成可能であるが、特に限定されるものではなく、磁気媒体等の任意の記憶方式の記憶媒体をメインメモリ10として用いることが可能である。
図3は、デジタルカメラ2の制御処理系を示すブロック図である。
被写体光は、レンズ鏡筒4に設けられるレンズ部12とカメラ本体3に設けられるメカニカルシャッタ20とを通過し、撮像素子21によって受光される。レンズ部12は、撮影レンズ(レンズ群)及び絞りを含む撮影光学系によって構成される。撮像素子21は、被写体像を受光して撮像信号を生成する素子であり、RGB(赤緑青)等のカラーフィルタと、光学像を電気信号に変換するCCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)等のイメージセンサとを有する。撮像素子21から出力される撮像信号は、プロセス処理部22でAGC(Automatic Gain Control)回路等によってプロセス処理が施され、その後AD変換部23によってアナログ形式の撮像信号がデジタル形式の撮像信号に変換される。デジタル化された撮像信号はバッファメモリ24に保存される。
バッファメモリ24は、撮像信号を一時的に記憶する領域であり、DRAM(Dynamic Random Access Memory)等によって構成される。AD変換部23から送られてきてバッファメモリ24に蓄えられた撮像信号は、システム制御部25により制御される画像処理部(画像処理装置)31によって読み出される。画像処理部31は、撮像素子21が生成する撮像信号を入力撮像信号として使用し、ガンマ補正処理及びデモザイク処理等の各種の画像処理を行い、画像処理後の撮像信号を再びバッファメモリ24に保存する。
画像処理部31において画像処理が施されてバッファメモリ24に保存された撮像信号は、表示制御部35及び圧縮伸張部32によって読み出される。表示制御部35は表示部8を制御し、バッファメモリ24から読み出した撮像信号を表示部8に表示させる。このように、撮像素子21から出力され画像処理部31において画像処理を受けた撮像信号は、撮影確認画像(ポストビュー画像)として表示部8に表示される。
一方、圧縮伸張部32は、バッファメモリ24から読み出した撮像信号の圧縮処理を行って、JPEG(Joint Photographic Experts Group)やTIFF(Tagged Image File Format)等の任意の圧縮形式の撮像信号を作成する。圧縮処理後の撮像信号は、メインメモリ10への撮像信号の記憶処理及びメインメモリ10からの撮像信号の読み出し処理をコントロールする記憶制御部33によって、メインメモリ10に記憶される。なおメインメモリ10に撮像信号等のデータ類を記憶する場合、記憶制御部33は、システム制御部25から取得される撮影条件に基づいて、撮影条件の情報を撮像信号に付加する。この撮影条件の情報は任意のフォーマットで撮像信号に付加され、例えばExif(Exchangeable image file format)形式を採用可能である。
メインメモリ10に保存されている撮像信号を再生する再生モードにおいて、メインメモリ10に保存されている撮像信号は、システム制御部25により制御される記憶制御部33によって読み出され、圧縮伸張部32によって伸張処理が施された後にバッファメモリ24に保存される。そして撮影画像の確認表示と同様の手順で、表示制御部35によってバッファメモリ24から撮像信号が読み出され、表示部8において撮像信号が再生表示される。
システム制御部25は、上述のようにバッファメモリ24、画像処理部31及び記憶制御部33をコントロールするが、デジタルカメラ2における他の各部もコントロールする。例えば、システム制御部25は、レンズ駆動部27を制御してレンズ部12の駆動をコントロールし、シャッタ駆動部26を制御してメカニカルシャッタ20の駆動をコントロールし、撮像素子21を制御して撮像信号の出力をコントロールする。またシステム制御部25は、フラッシュ発光部5を制御してフラッシュ光の発光及び非発光をコントロールし、電源制御部28を制御して電源29における電池装着の有無、電池の種類、電池残量の検出等を行う。なお、図示はしていないが、電源制御部28が行う電池残量の検知は、電池残量センサにより行われる。また、システム制御部25は、クロックデバイス34においてカウントされる日時情報を取得して各種の処理に利用する。さらに、システム制御部25は、画像処理部31を構成する各種の処理部を制御し、手振れセンサ70を制御して手振れセンサ70の検知結果に基づいて各部をコントロールする。
さらにまた、システム制御部25は、シャッタボタン6、電源スイッチ7及び操作部9を含むユーザインタフェース36からの操作信号を取得し、操作信号に応じた各種の処理及びデバイス制御を行う。例えば、システム制御部25は、シャッタボタン6から受信したレリーズ信号に応じてシャッタ駆動部26を制御し、メカニカルシャッタ20の開閉をコントロールする。また、システム制御部25は、電源スイッチ7から受信した電源オンオフ信号に応じて電源制御部28を制御し、電源29のオン及びオフをコントロールする。
システム制御部25で行われる各種の処理及びデバイス制御に必要なプログラムやデータ類は、制御メモリ30に記憶されている。システム制御部25は、必要に応じて、制御メモリ30に記憶されているプログラムやデータ類を読み出すことができ、また新たなプログラムやデータ類を制御メモリ30に保存することができる。例えば設定されたホワイトバランスモード(以下、「WBモード」と称する)の種類やホワイトバランスゲイン(以下、「WBゲイン」と称する)等の条件データを、システム制御部25は制御メモリ30に書き込むことができる。またシステム制御部25は、表示制御部35を制御して、各部から取得した各種情報を表示部8に表示させることができる。なおシステム制御部25は、ユーザがユーザインタフェース36を介して入力する操作信号に応じて、表示部8に表示させる各種情報を変更することができる。
(第1実施形態)
次に、第1実施形態の画像処理部31に関して説明をする。本実施形態の画像処理部31は、同一シーンに対してフラッシュ光を発光させて撮影した2枚の画像により、主要被写体領域と背景領域とを判定する。
図4は、第1実施形態の画像処理部31のブロック図である。画像処理部31は、画像取得部41、割合算出部43、及び判定部45を備える。
画像取得部41は、第1の撮像信号と第2の撮像信号とをバッファメモリ24から取得する。ここで、第1の撮像信号は、フラッシュ発光部5からのフラッシュ光を伴い本撮影された第1のフラッシュ発光画像を示す信号である。なお、本撮影とは、メインメモリ10に撮影画像として記録することを意図する画像の撮影であり、適正な撮影条件により行われる撮影のことである。また、第2の撮像信号は、フラッシュ発光部5からのフラッシュ光を伴い、第1の撮像信号とは異なる露光時間で参照撮影された第2のフラッシュ発光画像を示す信号である。なお、参照撮影とは、本撮影ではない撮影であり、必ずしも適正な撮影条件で行われなくてもよい。また、露光時間とは、撮像素子21において受光した光に応じて電荷が蓄積される時間のことであり、シャッタスピードに対応する。
画像取得部41が取得する第1の撮像信号及び第2の撮像信号は、上述したように、撮影条件等の情報がExif形式等により付与されている。ここで、撮影条件とは、画像を撮影する際に考慮される様々な条件を意味し、一般に知られているExif形式等により撮像信号に付与される情報を含む意味である。例えば、撮影条件として、絞り値(F値)、ISO感度、シャッタスピード、フラッシュ光の有り無し、フラッシュ光の発光強度の設定、フラッシュ光の発光タイミング、及びフラッシュ光の発光量の設定等がある。
割合算出部43は、各領域における第1の撮像信号と第2の撮像信号との信号割合を算出する。割合算出部43が行う具体的な信号割合の算出に関しては後で説明する。
判定部45は、割合算出部43により算出された信号割合及び閾値に基づいて、第1のフラッシュ発光画像における主要被写体領域と背景領域とを判定する。例えば、判定部45は、領域の信号割合が閾値以上の領域を主要被写体領域とし、領域の信号割合が閾値より小さい領域を背景領域と判定する。また、信号割合の算出方法によっては、判定部45は、領域の信号割合が閾値以下の領域を主要被写体領域とし、領域の信号割合が閾値より大きい領域を背景として判定してもよい。なお、閾値の具体的な決定方法に関しては後で説明をする。
<信号割合>
次に、割合算出部43が行う信号割合の算出について説明する。先ず、図5及び図6に沿って、第1のフラッシュ発光画像と第2のフラッシュ発光画像との間の光量の変化の関係に関して説明する。
図5は、第1のフラッシュ発光画像及び第2のフラッシュ発光画像を示す概念図である。図5(A)に示された第1のフラッシュ発光画像は、被写体距離が近い場所に位置する人の顔の主要被写体47、被写体距離が比較的遠い場所に位置する建物の中間被写体49、及び被写体距離が非常に遠い場所に位置する山の背景51が撮影されている。図5(A)に示す第1のフラッシュ発光画像は、本撮影されているので、十分な露光時間により撮影されている。すなわち、第1のフラッシュ発光画像は、フラッシュ光が届かない環境光のみの領域(例えば、山の背景51が写っている領域)においても黒つぶれしないように十分な光量で撮影されている。例えば、第1のフラッシュ発光画像は、適正露出が得られる露光時間により撮影されている。ここで、適正露出とは、オーバーやアンダーとならない露出のことをいう。しかし、第1のフラッシュ発光画像がマニュアル露出で撮影される場合は、第1のフラッシュ発光画像の露出は、アンダーやオーバーであってもよい。また、中間被写体49とは、例えばユーザの意図やシーンにより、主要被写体又は背景と見なされる被写体のことである。
図5(B)には、第1のフラッシュ発光画像の露光時間よりも短い露光時間で撮影された第2のフラッシュ発光画像が示されている。第2のフラッシュ発光画像は、露光時間が短いので第1のフラッシュ発光画像よりも光量が少ない画像となる。特に、環境光の影響が大きい背景51では、露光時間の長さに応じて得られる光量が減少する。なお、本発明は、第1のフラッシュ発光画像と第2のフラッシュ発光画像とにおける光量の相違によって、主要被写体領域53と背景領域57とを判定するので、第1のフラッシュ発光画像の露光時間と第2のフラッシュ発光画像の露光時間とは異なることが必要となる。しかし、第1のフラッシュ発光画像の露光時間と第2のフラッシュ発光画像の露光時間は異なればよく、それぞれの露光時間は特に限定されるものではない。例えば、第2のフラッシュ発光画像の露光時間が第1のフラッシュ発光画像の露光時間よりも短くてもよい。本撮影である第1のフラッシュ発光画像は十分な露光時間を確保することができ、参照撮影である第2のフラッシュ発光画像の撮影は短時間で終わらすことができる。
図6は、図5に示した第1のフラッシュ発光画像と第2のフラッシュ発光画像の領域毎の光量を示した概念図である。図6(A)は図5(A)に示した第1のフラッシュ発光画像における領域毎の光量が示されており、図6(B)は図5(B)に示した第2のフラッシュ発光画像における領域毎の光量が示されている。また、図6(A)及び図6(B)は、人の顔の主要被写体47が写っている領域である主要被写体領域53と、建物の中間被写体49が写っている中間被写体領域55と、山の背景51が写っている背景領域57とを有する。
図6(A)及び図6(B)に示されるように、第1のフラッシュ発光画像及び第2のフラッシュ発光画像は、A1〜A5、B1〜B5、C1〜C5、D1〜D5、及びE1〜E5の5×5の領域に分割されており、この5×5の領域毎に信号割合が算出される。各領域においてはフラッシュ光からの光量はFで環境光からの光量はLで表されており、例えば、領域A1は、フラッシュ光からの光量「1」(図6(A)ではF(1)と表現されている)、環境光からの光量「9」(図6(A)ではL(9)と表現されている)、及び総光量「10」(図6(A)ではA1(10)と表現されている)を有する。なお、光量は様々な数値によって表され、例えば、光量は領域における平均の輝度値で表される。
なお、図5及び図6の説明では、画像を5×5に分割したものを領域としたが、これに限定されるものではない。例えば、領域は、画像をm×n(m及びnは1以上の整数)に分割したものでもよいし、各領域を複数の画素や1画素で構成してもよい。
背景領域57を構成するA1〜A5及びB1〜B5の各領域は、フラッシュ光からの光量は「1」であり、環境光からの光量は「9」であり、総光量は「10」である。背景領域57を構成する各領域は、山の背景51の被写体距離が遠いので、フラッシュ光があまり届かなくフラッシュ光からの影響をあまり受けない。中間被写体領域55を構成するC1〜C2、D1〜D2、及びE1〜E2の各領域は、フラッシュ光からの光量は「25」であり、環境光からの光量は「25」であり、総光量は「50」である。中間被写体領域55を構成する各領域は、建物の中間被写体49の被写体距離が比較的遠くなるので、フラッシュ光からの光量は「25」となる。主要被写体領域53を構成するC3〜C5、D3〜D5、及びE3〜E5の各領域は、フラッシュ光からの光量は「90」であり、環境光からの光量は「10」であり、総光量は「100」である。主要被写体領域53を構成する各領域は、主要被写体47の被写体距離が近いためにフラッシュ光からの光量は「90」となる。
図6(B)では、シャッタスピードが第1のフラッシュ発光画像よりも16倍の速さで撮影された第2のフラッシュ発光画像の光量が示されている。第2のフラッシュ発光画像は、シャッタスピードが第1のフラッシュ発光画像を撮影した際のシャッタスピードよりも16倍の速さなので、環境光による光量が第1のフラッシュ発光画像(図6(A))に比べて1/16となっている。具体的には、背景領域57では環境光からの光量は「9」から「0.56」となり、中間被写体領域55では環境光からの光量は「25」から「1.56」となり、主要被写体領域53では環境光からの光量は「10」から「0.63」となる。一方、フラッシュ光からの光量は、第1のフラッシュ発光画像及び第2のフラッシュ発光画像のシャッタスピードがフラッシュ光の発光時間よりも長いので、第1のフラッシュ発光画像と第2のフラッシュ発光画像との間で変化はない。したがって、第2のフラッシュ発光画像の各領域では、シャッタスピードが短くなった分の環境光の減少分だけ光量が減少する。すなわち、背景領域57の各領域では、第1のフラッシュ発光画像において総光量「10」であったのが第2のフラッシュ発光画像において総光量「1.56」となり、中間被写体領域55の各領域では、第1のフラッシュ発光画像において総光量「25」であったのが第2のフラッシュ発光画像において総光量「26.56」となり、主要被写体領域53の各領域では、第1のフラッシュ発光画像において総光量「100」であったのが第2のフラッシュ発光画像において総光量「96.3」となる。
以上で説明したように、第1のフラッシュ発光画像と第2のフラッシュ発光画像との間では、シャッタスピードの倍率又は露光時間の差異に応じて環境光からの光量が変化する。本発明は、この光量の変化を利用して、主要被写体領域53と背景領域57とを判定する。なお、図5及び図6では説明の都合上主要被写体領域53は主要被写体47が写っている領域としたが、判定部45が判定する主要被写体領域は、これに限定されるものではない。すなわち、判定部45は、閾値に応じて、中間被写体領域55を主要被写体領域として判定することができる。同じく、判定部45は、閾値に応じて中間被写体領域55を背景領域57と判定することができる。
次に、割合算出部43が行う第1のフラッシュ発光画像と第2のフラッシュ発光画像との間の信号割合の算出に関して説明する。ここで、信号割合とは、第1のフラッシュ発光画像及び第2のフラッシュ発光画像間の撮像信号の割合である。例えば、信号割合は、光量に関する信号の変化割合とすることができる。
割合算出部43は、図6(A)に示された第1の撮像信号及び図6(B)に示された第2の撮像信号間の光量に関する信号の割合(信号割合)を算出する。割合算出部43は、様々な方法で、第1のフラッシュ発光画像と第2のフラッシュ発光画像との間の信号割合を算出することができる。例えば、割合算出部43は、第1のフラッシュ発光画像の光量と第2のフラッシュ発光画像の光量との信号割合を以下の(式1)により算出することができる。
信号割合=(第2のフラッシュ発光画像の光量/第1のフラッシュ発光画像の光量)×100…(式1)
(式1)により、信号割合を算出すると、背景領域57の信号割合は15.6(=1.56/10×100)%となり、中間被写体領域55の信号割合は53.12(=26.56/50×100)%となり、主要被写体領域53の信号割合は96.3(=96.3/100×100)%となる。
また、割合算出部43は、領域における第1の撮像信号と第2の撮像信号との信号変化量を取得し、各領域の第1の撮像信号又は第2の撮像信号に基づく値に対する信号変化量の割合である信号割合を算出してもよい。この場合には、第1のフラッシュ発光画像と第2のフラッシュ発光画像との差分に基づいて正確な、主要被写体領域と背景領域との判定を行うことができる。
例えば、図6に示した場合では、割合算出部43は、背景領域57の信号変化量を8.44(10−1.56)、中間被写体領域55の信号変化量を23.44(50−26.56)、主要被写体領域53の信号変化量を3.7(100−96.3)と算出する。さらに、割合算出部43は、例えば、第1のフラッシュ発光画像の各領域の総光量に対する信号変化量の割合を信号割合として、以下に示す(式2)により算出する。
信号割合=(信号変化量/第1のフラッシュ発光画像の光量)×100…(式2)
(式2)により、信号割合を算出すると、背景領域57の信号割合は84.44(8.44/10×100)%、中間被写体領域55の信号割合は46.88(23.44/50×100)%、主要被写体領域53の信号割合は3.7(3.7/100×100)%となる。
上述のように求められた信号割合は割合算出部43から判定部45に送られ、判定部45は、信号割合と閾値に応じて、主要被写体領域53と背景領域57との判定を行う。なお、判定部45により判定される主要被写体領域53は、例えばユーザが主要被写体用の画像処理を行いたい領域のことを意味し、判定部45により判定される背景領域57は、例えばユーザが背景用の画像処理を行いたい領域のことを意味する。ユーザは、閾値の設定により、所望の領域を判定部45に判定させることが可能である。
<閾値について>
次に、判定部45が主要被写体領域53か背景領域57かを判定する際に使用する閾値に関して説明する。閾値の決定の方法は、特に限定されず、ユーザが意図する主要被写体領域53と背景領域57との判定が行える範囲で様々な方法を採用することができる。なお、閾値は、予めデジタルカメラ2の制御メモリ30等に記憶されていてもよいし、ユーザが直接入力を行ってもよい。
例えば、閾値は、第1のフラッシュ発光画像と第2のフラッシュ発光画像との間でフラッシュ光の影響が一定であり、第1のフラッシュ発光画像の露光時間と第2のフラッシュ発光画像の露光時間との割合により環境光からの光量が変わること、及び任意に設定されるフラッシュ光からの光量の割合に基づいて算出される。
図7〜図12で示された第1のフラッシュ発光画像と第2のフラッシュ発光画像との明るさ比を示す図を使用して具体例を説明する。図7〜図12の縦軸は明るさを表しており、横軸はシャッタスピードの倍率(図中では「SS倍率」と表記)を表している。なお、明るさは、公知の様々な指標で表され、例えば、明るさは輝度値により表される。また、図中に示される明るさ比とは、第1のフラッシュ発光画像の領域の明るさに対する第2のフラッシュ発光画像の領域の明るさを示すものである。
図7は、フラッシュ光からの光量の割合が40%以上ある領域を主要被写体領域53として判定する場合の閾値の決め方を説明する図である。図7は、第2のフラッシュ発光画像のシャッタスピードを第1のフラッシュ発光画像のシャッタスピードの1/16倍とした場合について説明する。ここで、シャッタスピードが1/16倍とは、第1のフラッシュ発光画像がシャッタスピード1/4秒で撮影され、第2のフラッシュ発光画像がシャッタスピード1/64秒で撮影されている場合のことである。
シャッタスピードが第1のフラッシュ発光画像の1/16で撮影された第2のフラッシュ発光画像では、フラッシュ光からの光量は、露光時間の影響を受けずに変わらないので第1のフラッシュ発光画像の40%の光量が維持される。一方、環境光からの光量は、露光時間の影響を受けるので第1のフラッシュ発光画像の3.75%(第1のフラッシュ発光画像の60%の1/16)となる。したがって、第1のフラッシュ発光画像においてフラッシュ光の光量と環境光の光量とが40%と60%である領域は、第2のフラッシュ発光画像の対応する領域では、第1のフラッシュ発光画像の光量の43.75%(明るさ比43.75%)の光量を有する。
したがって、閾値を43.75%とすると、判定部45は、第1のフラッシュ発光画像においてフラッシュ光の光量の明るさ比が40%以上の領域を主要被写体領域53として判定することができる。
図8は、図7と同様の方法で、フラッシュ光からの光量の割合が80%以上ある領域を主要被写体として判定する場合の閾値の決め方を説明する。図8においても、第2のフラッシュ発光画像は、第1のフラッシュ発光画像の1/16のシャッタスピードにより撮影されている。第2のフラッシュ発光画像において、フラッシュ光からの光量は、露光時間に影響されないため第1のフラッシュ発光画像の80%の光量を維持する。一方、第2のフラッシュ発光画像において、環境光からの光量は、露光時間に影響を受けるので第1のフラッシュ発光画像の1.25%と(第1のフラッシュ発光画像の20%の1/16)となる。したがって、第1のフラッシュ発光画像においてフラッシュ光の光量と環境光の光量とが80%と20%である領域は、第2のフラッシュ発光画像では、第1のフラッシュ発光画像の光量の81.25%(明るさ比81.25%)の光量を有する。そして、閾値を81.25%とすると、判定部45は、第1のフラッシュ発光画像においてフラッシュ光の光量の明るさ比が80%以上の領域を主要被写体領域53として判定することができる。
図9は、図7及び図8と同様の方法で、フラッシュ光からの光量の割合が20%以上ある領域を主要被写体領域53として判定する場合の閾値の決め方を説明する。第2のフラッシュ発光画像において、環境光からの光量は、露光時間に影響を受けるので第1のフラッシュ発光画像の5%と(第1のフラッシュ発光画像の80%の1/16)となる。したがって、閾値を25%とすると、判定部45は、第1のフラッシュ発光画像においてフラッシュ光の光量の明るさ比が20%以上の領域を主要被写体領域53として判定することができる。
図10は、図7で説明したフラッシュ光からの光量が40%以上の領域を判定する閾値(明るさ比43.75%)、第1のフラッシュ発光画像においてフラッシュ光からの光量が80%の領域の第2の発光画像における明るさ比(81.25%)(図8を参照)、及び第1のフラッシュ発光画像においてフラッシュ光からの光量が20%の領域の第2の発光画像における明るさ比(25%)(図9を参照)を示す。
判定部45が閾値以上の明るさ比を有する領域を主要被写体領域53と判定し、閾値より小さい明るさ比を有する領域を背景領域57と判定する場合、第1のフラッシュ発光画像においてフラッシュ光からの光量が80%の領域は、81.25%の明るさ比を有するので主要被写体領域53として判定される。一方、第1のフラッシュ発光画像においてフラッシュ光からの光量が20%の領域は、25%の明るさ比を有するので背景領域57として判定される。
図11は、図10の場合において、閾値を明るさ比90.625%とした場合を示す。この閾値は、第2のフラッシュ発光画像のシャッタスピードが1/16である場合に、第1のフラッシュ発光画像においてフラッシュ光からの光量が90%以上の領域を判定することができる。判定部45がこの閾値で判定を行うと、フラッシュ光からの光量が80%の領域(第2のフラッシュ発光画像では81.25%)及びフラッシュ光からの光量が20%の領域(第2のフラッシュ発光画像では25%)は、背景領域57として判定される。
図12は、図10の場合において、閾値を明るさ比15.625%とした場合を示す。この閾値は、第2のフラッシュ発光画像のシャッタスピードが1/16である場合に、第1のフラッシュ発光画像においてフラッシュ光からの光量が10%以上の領域を判定することができる。判定部45がこの閾値に判定を行うと、フラッシュ光からの光量が80%の領域(第2のフラッシュ発光画像では81.25%)及びフラッシュ光からの光量が20%の領域(第2のフラッシュ発光画像では25%)は、主要被写体領域53として判定される。
図10から図12で説明をしたように、ユーザが第1のフラッシュ発光画像における任意のフラッシュ光からの光量の比率を選択し、その比率より閾値が算出され、判定部45により閾値を使用して主要被写体領域53及び背景領域57の判定が行われる。これにより、ユーザは、例えば、フラッシュ光からの光量に応じて領域を選択し、各領域において異なる画像処理を行わせることができる。
図13は、第1のフラッシュ発光画像においてフラッシュ光からの光量が40%の領域を主要被写体領域53として判定する場合の閾値を、第2のフラッシュ発光画像を撮影するシャッタスピードに応じて示した図である。第1のフラッシュ発光画像と第2のフラッシュ発光画像とのシャッタスピードの倍率が1/2、1/4、1/8、1/16、1/32、1/64、及び1/128と変化するにしたがって、閾値(明るさ比)は、70%、55%、47.5%、43.75%、41.85%、40.9375%、及び40.46875%となる。これは、フラッシュ光からの光量は露光時間に影響されずに第1のフラッシュ発光画像の40%で一定であるのに対して、環境光からの光量は露光時間によって変化するからである。
次に、図14及び図15を使用して、フラッシュ光の発光量、フラッシュ光の発光時間、露光時間とに関して説明する。
図14は、フラッシュ光の発光強度と発光時間に関して説明する概念図である。図14では、縦軸はフラッシュ光の発光強度を示しており、横軸は時間を示している。図14に示した図は、キセノンランプの一般的な発光強度と時間の関係を示している。一般的に1/1000秒の露光時間があれば、フラッシュ光からの光量を十分に受光することが可能である。なお、図14はキセノンランプに関しての図であるが、フラッシュ光を発光するものであれば特にキセノンランプに限定されない。例えば、LED(Light Emitting Diode)を利用したフラッシュ装置を使用することも可能である。
図15は、露光時間とフラッシュ光の発光時間とのタイミングチャートである。第1のフラッシュ発光画像は露光時間T1及びフラッシュ光の発光時間TF1により撮影され、第2のフラッシュ発光画像は露光時間T2及びフラッシュ光の発光時間TF2により撮影されている。
露光時間T2が露光時間T1よりも短い場合には、第1のフラッシュ発光画像(本撮影画像)において十分な露光時間を確保することができる。また、露光時間T1はフラッシュ光の発光時間TF1よりも長く設定され、露光時間T2はフラッシュ光の発光時間TF2よりも長く設定されているので、フラッシュ光からの光量を十分に取得でき且つ環境光からの光量もより多く取得することができる。さらに、露光時間T1は、特に限定されるものではないが、第1のフラッシュ発光画像が本撮影の画像であることを考慮すると、適正露出を得られる露光時間であることが好ましい。
図15に示した場合では、第1のフラッシュ発光画像の撮影では後幕シンクロの発光タイミング(フラッシュ発光タイミング)でフラッシュ光が発光され、第2のフラッシュ発光画像の撮影では先幕シンクロの発光タイミングでフラッシュ光が発光される。このようなフラッシュ光の発光タイミングにより第1のフラッシュ発光画像及び第2のフラッシュ発光画像が撮影されると、1回目のフラッシュ光の発光と2回目のフラッシュ光の発光の間隔が短くなり、主要被写体やシーンの変動がより抑えられる。したがって、図15に示したフラッシュ発光タイミングに撮影された第1のフラッシュ発光画像と第2のフラッシュ発光画像を使用することにより、より正確に主要被写体領域53と背景領域57とを判定することができる。
なお、第1のフラッシュ発光画像のフラッシュ光の発光タイミングは、後幕シンクロに限定されるものではなく先幕シンクロ(先幕シンクロ設定)であってもよい。また、第2のフラッシュ発光画像のフラッシュ光の発光タイミングは、先幕シンクロに限定されるものではなく後幕シンクロ(後幕シンクロ設定)であってもよい。例えば、第2のフラッシュ発光画像、続いて第1のフラッシュ発光画像が撮影される場合には、第1のフラッシュ発光画像が先幕シンクロのフラッシュ発光タイミングで撮影され、第2のフラッシュ発光画像が後幕シンクロのフラッシュ発光タイミングで撮影されてもよい。さらに、第2のフラッシュ発光画像の露光時間は、第1のフラッシュ発光画像の露光時間よりも短く、フラッシュ光の発光時間よりも長いことが好ましい。これにより、本撮影である第1のフラッシュ発光画像までの時間がより短くなるので、ユーザが意図した本撮影画像を取得することができる。さらに、第1のフラッシュ発光画像が後幕シンクロのフラッシュ発光タイミングで撮影され、第1のフラッシュ発光画像、続いて第2のフラッシュ発光画像が撮影される場合には、第2のフラッシュ発光画像の露光時間は、第1のフラッシュ発光画像の露光時間よりも短く、フラッシュ光の発光時間よりも長いことが好ましい。これにより、本撮影である第1のフラッシュ発光画像を撮影した後により早く参照撮影が終了するので、ユーザの利便性が向上する。
また、例えば、第1のフラッシュ発光画像及び第2のフラッシュ発光画像が先幕シンクロのフラッシュ光の発光タイミングで撮影される場合には、参照撮影である第2のフラッシュ発光画像が先に撮影され、本撮影である第1のフラッシュ発光画像が後に撮影される。そして、第2のフラッシュ発光画像の露光時間を第1のフラッシュ発光画像の露光時間よりも短くすると、1回目のフラッシュ光の発光と2回目のフラッシュ光の発光との間隔が短くなり、主要被写体やシーンの変動を抑えることができる。また、例えば、第1のフラッシュ発光画像及び第2のフラッシュ発光画像が後幕シンクロのフラッシュ光の発光タイミングで撮影される場合には、本撮影である第1のフラッシュ発光画像を先に撮影して、参照撮影である第2のフラッシュ発光画像を後に撮影する。そして、第2のフラッシュ発光画像の露光時間を第1のフラッシュ発光画像の露光時間よりも短くすると、1回目のフラッシュ光の発光と2回目のフラッシュ光の発光との間隔が短くなり、主要被写体やシーンの変動を抑えることができる。
また、LEDを利用したフラッシュ装置を使用した場合には、第1のフラッシュ発光画像のフラッシュ光の発光タイミングが後幕シンクロであって、第2のフラッシュ発光画像のフラッシュ光の発光タイミングが先幕シンクロで設定されていると、フラッシュ光を発光時間TF1の開始からフラッシュ光の発光時間TF2の終了まで発光させつづけてもよい。
さらに、発光時間TF1及び発光時間TF2は、等しく設定されていることが好ましい。発光時間TF1及び発光時間TF2が等しい場合には、同じフラッシュ光(装置)を使用していれば、第1のフラッシュ発光画像と第2のフラッシュ発光画像とのフラッシュ光からの発光量が等しくなる。これにより、第1のフラッシュ発光画像と第2のフラッシュ発光画像のシャッタスピードがフラッシュ光の発光時間よりも十分長く、第1のシャッタスピードが第2のシャッタスピードと比べて遅い場合には、主要被写体の明るさは同じになるが、背景の明るさには差分がでるため、より正確な主要被写体領域53と背景領域57との判定が行われる。なお、第1のフラッシュ発光画像と第2のフラッシュ発光画像のフラッシュ光からの発光量は等しい場合に限定されない。例えば、ノイズが少ない撮像素子21やノイズの影響が抑制されるISO感度で撮影される場合には、第2のフラッシュ発光画像は、フラッシュ光からの発光量を第1のフラッシュ発光画像の半分に設定され、ISO感度を第1のフラッシュ発光画像から1段上げて撮影されてもよい。これにより、第1のフラッシュ発光画像及び第2のフラッシュ発光画像が同じフラッシュ光からの発光量により撮影されなくても、正確な主要被写体領域53と背景領域57との判定を行うことができる。さらに、このような態様では、電池の消費が抑えられ、コンデンサの充電時間の短縮も可能である。
また、図15では、露光時間T1と露光時間T2は時間的に間隔があるが、ローリングシャッタ方式のCMOSセンサの場合であって、グローバルシャッタが可能なセンサ等を使うことにより、この間隔を限りなく0に近づけることが好ましい。例えば、撮影開始時にメカシャッタが開かれ、1枚目の露光終了はセンサのグローバルシャッタで行われ、2枚目の露光終了でメカシャッタが閉じられれば、1枚目と2枚目の露光時間の時間的間隔はほぼ0となる。
図16は、第1実施形態の画像処理装置のフロー図である。先ず、画像取得部41は、互いに露光時間が異なる第1のフラッシュ発光画像と第2のフラッシュ発光画像とを取得する(ステップS1:画像取得ステップ)。そして、割合算出部43は、第1のフラッシュ発光画像の各領域における光量及び第2のフラッシュ発光画像の各領域における総光量(フラッシュ光からの光量及び環境光からの光量)から信号割合を算出する(ステップS2:割合算出ステップ)。例えば、信号割合は、第1のフラッシュ発光画像の各領域における明るさに対する第2のフラッシュ発光画像の各領域における明るさ、すなわち明るさ比であってもよい。そして、ユーザによりフラッシュ光からの光量の任意の割合が決定され、第1のフラッシュ発光画像と第2のフラッシュ発光画像とのシャッタスピードの倍率に応じて、閾値が決定される(ステップS3)。その後、閾値を使用して、判定部45は、第1のフラッシュ発光画像の各領域を主要被写体領域53又は背景領域57と判定する(ステップS4:判定ステップ)。
以上、説明したように本発明の画像処理装置は、同一シーンに対してフラッシュ光を発光させて得た2枚のフラッシュ発光画像における変化割合により主要被写体領域53と背景領域57とを判定する。したがって、ノイズの影響、被写体のブレの影響、及び手振れの影響が抑制され、主要被写体領域53と背景領域57との判定を適切に行うことができる。また、本体態様によれば、本撮影で得た画像も主要被写体領域と背景領域との領域判定に使用するので、領域判定を本撮影を含めた2回の撮影で行うことができる。
(第2実施形態)
本発明の第2実施形態に関して説明する。本発明の第2実施形態は、判定部45で判定された主要被写体領域53と背景領域57とに対して異なる信号処理を行う。
図17は、第2実施形態の画像処理部31のブロック図である。第2実施形態の画像処理部31は、画像取得部41、割合算出部43、判定部45、及び信号処理部61を備える。なお、図4で既に説明したブロックは、同じ符号を付して説明は省略する。
信号処理部61は、判定部45で判定された主要被写体領域53及び背景領域57に別々の信号処理を行う。主要被写体領域53と背景領域57とでは画像の特性が異なる場合があるので、主要被写体領域53と背景領域57とで異なる信号処理を行うことにより、より適切な信号処理を行うことができる。
信号処理部61は、例えば、主要被写体領域53と背景領域57とで異なるWB処理を行う。すなわち、信号処理部61は、第1のフラッシュ発光画像に対してマルチエリアWB処理を行い、主要被写体領域53と背景領域57とに対して異なるWBゲインを適用するWB処理を行う。主要被写体領域53と背景領域57とに対して異なるWBゲインのWB処理を行うことにより、主要被写体領域53ではフラッシュ光の影響をキャンセルすることができ、背景領域57では環境光の影響をキャンセルすることができる。
上述したように、第2実施形態は、信号処理部61により判定部45の主要被写体領域53及び背景領域57の判定結果に応じて信号処理を変えるので、画像の特性に応じた信号処理を行うことができる。
(第3実施形態)
本発明の第3実施形態に関して説明する。本発明の第3実施形態では、条件に応じて、第2実施形態で説明した信号処理部61の信号処理が行われない、又は、条件に応じて、第1のフラッシュ発光画像及び第2のフラッシュ発光画像を使用しての主要被写体領域53と背景領域57との判定が行われない。
例えば、主要被写体の動きが速くて正確な判定が行えない場合、又はシャッタスピードを十分高速にすることができ本発明の判定を行う必要がない場合では、信号処理部61は主要被写体領域53と背景領域57とで異なる信号処理を行わない。また、例えば、手振れが起こり正確な判定が行えない場合、又は電池残量が少ない場合では、判定部45は判定を行わない。なお、判定部45が上述した判定を行わない場合には、公知の手法により主要被写体領域53と背景領域57との判定を行ってもよい。主要被写体領域53と背景領域57との判定の公知の手法とは、例えば本願の従来技術として説明を行った手法である。
信号処理部61が主要被写体領域53と背景領域57とで異なる信号処理を行うか否かの決定は、信号処理部61、又はシステム制御部25(図3参照)により行われる。また、判定部45が第1のフラッシュ発光画像及び第2のフラッシュ発光画像から主要被写体領域53と背景領域57の判定を行うか否かの決定は、判定部45、又はシステム制御部25(図3参照)により行われる。
<主要被写体の動きが速い場合>
主要被写体の動きが速い場合には、第1のフラッシュ発光画像及び第2のフラッシュ発光画像での主要被写体の位置がズレてしまう場合があり、第1のフラッシュ発光画像の光量と第2のフラッシュ発光画像の光量との変化割合が正確に算出されない場合がある。したがって、信号処理部61は、主要被写体の動きが速い場合には、主要被写体領域53と背景領域57とに異なる信号処理を行わない。
主要被写体の速度(移動速度)は、様々な方法で検知することができる。例えば、第1のフラッシュ発光画像と第2のフラッシュ発光画像の輝度情報が比較されることにより、主要被写体の移動速度が検知されてもよい。
図18は、図17で説明した画像処理部31が、輝度情報取得部62と輝度情報比較部63とをさらに有する場合を示す。なお、図4及び図17と同じブロックは、同じ符号を付し説明は省略する。
輝度情報取得部62は、画像取得部41で取得された第1のフラッシュ発光画像と第2のフラッシュ発光画像の輝度情報を取得する。輝度情報取得部62は、様々な方法により、第1のフラッシュ発光画像及び第2のフラッシュ発光画像から輝度情報を取得することができる。ここで、輝度情報とは輝度に関する様々な情報を意味し、例えば輝度情報は輝度値やヒストグラムである。
図19は、輝度情報取得部62が取得する輝度情報の一例を示す図である。図19(A)に示された輝度情報は、第1のフラッシュ発光画像に関する輝度情報65である。図19(B)に示された輝度情報は、第2のフラッシュ発光画像に関する輝度情報67である。図19(A)の輝度情報65では、ある値(閾値)以上輝度値を有する領域69が抽出され、図19(B)の輝度情報67では図19(A)の場合と同じ値以上の輝度値を有する領域73が抽出されている。フラッシュ光を発光させて撮影した場合、主要被写体が主にフラッシュ光を反射するので、ある値以上の輝度値を有する領域69及び領域73は、主要被写体が写っている画像領域と考えることができる。したがって、第1のフラッシュ発光画像のある値以上の輝度値を有する領域69と第2のフラッシュ発光画像のある値以上の輝度値を有する領域73の重なりを調べることにより、主要被写体の移動の有無を知ることができる。なお、ある値(閾値)は、主要被写体の輝度情報を抽出する観点で決められる。また、ここで重なりとは、ある値以上の領域どうしが位置的に重なることを意味する。
輝度情報比較部63は、輝度情報取得部62で取得した輝度情報の比較を行い、比較結果を判定部45に送る。具体的には、図19(A)の領域69と図19(B)の領域73との位置を比較して重なりの割合を算出する。図19に示す場合では、領域69と領域73とは重なりが0%である。
領域69と領域73との比較結果は重なり0%となり、輝度情報比較部63は、その比較結果を信号処理部61に送る。信号処理部61は、輝度情報比較部63から取得した比較結果に基づいて、信号処理を行うか否かを決定する。例えば、信号処理部61は、重なり部分が0%以上から50%以下である場合には、主要被写体の移動速度が速いので、第1のフラッシュ発光画像及び第2のフラッシュ発光画像を使用しての主要被写体領域53及び背景領域57の判定を行わない。
<シャッタスピードを高速にすることが可能な場合>
撮影環境が十分に明るく、シャッタスピードを速くしても十分な光量を有する画像を取得できる場合には、フラッシュ光を発光させなくても撮影した2枚の画像において、ブレが発生しにくい。したがって、信号処理部61は、2枚のフラッシュ光の発光画像(第1のフラッシュ発光画像及び第2のフラッシュ発光画像)から得た主要被写体領域53及び背景領域57に対して、異なる信号処理を行わなくてもよい。また、フラッシュ光を発光させて、フォーカルプレーンシャッタで速いシャッタスピードで撮影した場合には、1枚目の画像を取得する際に幕が下り始めて、直ぐに、2枚目が降り始めるので撮像面全体にフラッシュ光が均一に当たらないため、フラッシュ光を発光すると輝度ムラが発生してしまう。よって、シャッタスピードを速くしても十分な光量を有する画像を取得できる場合には、信号処理部61は、主要被写体領域53と背景領域57とに対して異なる信号処理を行わない。
<カメラが手振れしている場合>
第1のフラッシュ発光画像及び第2のフラッシュ発光画像に手振れによるブレが生じている場合には、割合算出部43は変化割合を不正確に算出してしまう。したがって、判定部45は、デジタルカメラ2の手振れセンサ70(図3参照)が手振れを検知した結果に基づいて、上述した主要被写体領域53と背景領域57との判定を行わない。これにより、本態様は、不正確な変化割合が算出されてしまうことを防ぐことができる。
<電池残量が不足している場合>
デジタルカメラ2の電池残量が不足している場合には、判定部45は、上述した主要被写体領域53と背景領域57との判定を行わない。デジタルカメラ2は、判定部45での判定が行われないことにより電池消費を抑えることができ、電池を長持ちさせることができる。これにより、デジタルカメラ2のユーザの利便性が向上する。
上述したように、第3実施形態では、信号処理部61が主要被写体領域53と背景領域57とに対して異なる信号処理を行わない場合や、判定部45が主要被写体領域53と背景領域57との判定を行わない場合がある。これにより、信号処理部61が行う信号処理の質が高められ、判定部45が判定を行った際の判定の正確性を向上させることができる。
上述の各機能構成は、任意のハードウェア、ソフトウェア、或いは両者の組み合わせによって実現可能である。例えば、上述の各装置及び処理部(画像処理部31等)における画像処理方法(画像処理手順)をコンピュータに実行させるプログラム、そのプログラムを記憶したコンピュータ読み取り可能な記憶媒体(非一時的記憶媒体)、或いはそのプログラムをインストール可能なコンピュータに対しても本発明を適用することができる。
また、本発明を適用可能な態様はデジタルカメラ2には限定されず、撮像を主たる機能とするカメラ類の他に、撮像機能に加えて撮像以外の他の機能(通話機能、通信機能、その他のコンピュータ機能)を備えるモバイル機器類に対しても本発明を適用することが可能である。本発明を適用可能な他の態様としては、例えば、カメラ機能を有する携帯電話機やスマートフォン、PDA(Personal Digital Assistants)、携帯型ゲーム機が挙げられる。以下、本発明を適用可能なスマートフォンの一例について説明する。
<スマートフォンの構成>
図20は、スマートフォン101の外観を示す図である。図20に示すスマートフォン101は、平板状の筐体102を有し、筐体102の一方の面に表示部としての表示パネル121と、入力部としての操作パネル122とが一体となった表示入力部120を備える。また、かかる筐体102は、スピーカ131と、マイクロホン132、操作部140と、カメラ部141とを備える。なお、筐体102の構成はこれに限定されず、例えば、表示部と入力部とが独立した構成が採用されてもよいし、折り畳み構造やスライド機構を有する構成が採用されてもよい。
図21は、図20に示すスマートフォン101の構成を示すブロック図である。図21に示すように、スマートフォンの主たる構成要素として、無線通信部110と、表示入力部120と、通話部130と、操作部140と、カメラ部141と、記憶部150と、外部入出力部160と、GPS(Global Positioning System)受信部170と、モーションセンサ部180と、電源部190と、主制御部100とを備える。また、スマートフォン101の主たる機能として、基地局装置BSと移動通信網NWとを介した移動無線通信を行う無線通信機能を備える。
無線通信部110は、主制御部100の指示に従って、移動通信網NWに収容された基地局装置BSに対し無線通信を行うものである。かかる無線通信を使用して、音声データ、画像データ等の各種ファイルデータ、電子メールデータなどの送受信や、Webデータやストリーミングデータなどの受信を行う。
表示入力部120は、主制御部100の制御により、画像(静止画像及び動画像)や文字情報などを表示して視覚的にユーザに情報を伝達し、表示した情報に対するユーザ操作を検出する、いわゆるタッチパネルであって、表示パネル121と、操作パネル122とを備える。
表示パネル121は、LCD(Liquid Crystal Display)、OELD(Organic Electro−Luminescence Display)などを表示デバイスとして用いたものである。操作パネル122は、表示パネル121の表示面上に表示される画像を視認可能に載置され、ユーザの指や尖筆によって操作される座標を検出するデバイスである。かかるデバイスをユーザの指や尖筆によって操作すると、操作に起因して発生する検出信号を主制御部100に出力する。次いで、主制御部100は、受信した検出信号に基づいて、表示パネル121上の操作位置(座標)を検出する。
図20に示すように、本発明の撮像装置の一実施形態として例示しているスマートフォン101の表示パネル121と操作パネル122とは一体となって表示入力部120を構成しているが、操作パネル122が表示パネル121を完全に覆うような配置となっている。かかる配置を採用した場合、操作パネル122は、表示パネル121外の領域についても、ユーザ操作を検出する機能を備えてもよい。換言すると、操作パネル122は、表示パネル121に重なる重畳部分についての検出領域(以下、「表示領域」と称する)と、それ以外の表示パネル121に重ならない外縁部分についての検出領域(以下、「非表示領域」と称する)とを備えていてもよい。
なお、表示領域の大きさと表示パネル121の大きさとを完全に一致させてもよいが、両者を必ずしも一致させる必要はない。また、操作パネル122が、外縁部分と、それ以外の内側部分の2つの感応領域を備えていてもよい。さらに、外縁部分の幅は、筐体102の大きさなどに応じて適宜設計されるものである。更にまた、操作パネル122で採用される位置検出方式としては、マトリクススイッチ方式、抵抗膜方式、表面弾性波方式、赤外線方式、電磁誘導方式、静電容量方式などが挙げられ、いずれの方式を採用することもできる。
通話部130は、スピーカ131やマイクロホン132を備え、マイクロホン132を通じて入力されたユーザの音声を主制御部100にて処理可能な音声データに変換して主制御部100に出力し、無線通信部110或いは外部入出力部160により受信された音声データを復号してスピーカ131から出力するものである。また、図20に示すように、例えば、スピーカ131を表示入力部120が設けられた面と同じ面に搭載し、マイクロホン132を筐体102の側面に搭載することができる。
操作部140は、キースイッチなどを用いたハードウェアキーであって、ユーザからの指示を受け付けるものである。例えば、図20に示すように、操作部140は、スマートフォン101の筐体102の側面に搭載され、指などで押下されるとオンとなり、指を離すとバネなどの復元力によってオフ状態となる押しボタン式のスイッチである。
記憶部150は、主制御部100の制御プログラムや制御データ、アプリケーションソフトウェア、通信相手の名称や電話番号などを対応付けたアドレスデータ、送受信した電子メールのデータ、WebブラウジングによりダウンロードしたWebデータや、ダウンロードしたコンテンツデータを記憶し、またストリーミングデータなどを一時的に記憶するものである。また、記憶部150は、スマートフォン内蔵の内部記憶部151と着脱自在な外部メモリスロットを有する外部記憶部152により構成される。なお、記憶部150を構成するそれぞれの内部記憶部151と外部記憶部152は、フラッシュメモリタイプ(flash memory type)、ハードディスクタイプ(hard disk type)、マルチメディアカードマイクロタイプ(multimedia card micro type)、カードタイプのメモリ(例えば、MicroSD(登録商標)メモリ等)、RAM(Random Access Memory)、ROM(Read Only Memory)などの格納媒体を用いて実現される。
外部入出力部160は、スマートフォン101に連結されるすべての外部機器とのインタフェースの役割を果たすものであり、他の外部機器に通信等(例えば、ユニバーサルシリアルバス(USB)、IEEE1394など)又はネットワーク(例えば、インターネット、無線LAN、ブルートゥース(Bluetooth)(登録商標)、RFID(Radio Frequency Identification)、赤外線通信(Infrared Data Association:IrDA)(登録商標)、UWB(Ultra Wideband)(登録商標)、ジグビー(ZigBee)(登録商標)など)により直接的又は間接的に接続するためのものである。
スマートフォン101に連結される外部機器としては、例えば、有/無線ヘッドセット、有/無線外部充電器、有/無線データポート、カードソケットを介して接続されるメモリカード(Memory card)やSIM(Subscriber Identity Module Card)/UIM(User Identity Module Card)カード、オーディオ・ビデオI/O(Input/Output)端子を介して接続される外部オーディオ・ビデオ機器、無線接続される外部オーディオ・ビデオ機器、有/無線接続されるスマートフォン、有/無線接続されるパーソナルコンピュータ、有/無線接続されるPDA、有/無線接続されるイヤホンなどがある。外部入出力部は、このような外部機器から伝送を受けたデータをスマートフォン101の内部の各構成要素に伝達することや、スマートフォン101の内部のデータが外部機器に伝送されるようにしてもよい。
GPS受信部170は、主制御部100の指示に従って、GPS衛星ST1〜STnから送信されるGPS信号を受信し、受信した複数のGPS信号に基づく測位演算処理を実行し、スマートフォン101の緯度、経度、高度からなる位置を検出する。GPS受信部170は、無線通信部110や外部入出力部160(例えば、無線LAN)から位置情報を取得できる場合には、その位置情報を用いて位置を検出することもできる。
モーションセンサ部180は、例えば、3軸の加速度センサなどを備え、主制御部100の指示に従って、スマートフォン101の物理的な動きを検出する。スマートフォン101の物理的な動きを検出することにより、スマートフォン101の動く方向や加速度が検出される。かかる検出結果は、主制御部100に出力されるものである。
電源部190は、主制御部100の指示に従って、スマートフォン101の各部に、バッテリ(図示しない)に蓄えられる電力を供給するものである。
主制御部100は、マイクロプロセッサを備え、記憶部150が記憶する制御プログラムや制御データに従って動作し、スマートフォン101の各部を統括して制御するものである。また、主制御部100は、無線通信部110を通じて、音声通信やデータ通信を行うために、通信系の各部を制御する移動通信制御機能と、アプリケーション処理機能を備える。
アプリケーション処理機能は、記憶部150が記憶するアプリケーションソフトウェアに従って主制御部100が動作することにより実現するものである。アプリケーション処理機能としては、例えば、外部入出力部160を制御して対向機器とデータ通信を行う赤外線通信機能や、電子メールの送受信を行う電子メール機能、Webページを閲覧するWebブラウジング機能などがある。
また、主制御部100は、受信データやダウンロードしたストリーミングデータなどの画像データ(静止画像や動画像のデータ)に基づいて、映像を表示入力部120に表示する等の画像処理機能を備える。画像処理機能とは、主制御部100が、上記画像データを復号し、かかる復号結果に画像処理を施して、画像を表示入力部120に表示する機能のことをいう。
さらに、主制御部100は、表示パネル121に対する表示制御と、操作部140、操作パネル122を通じたユーザ操作を検出する操作検出制御を実行する。
表示制御の実行により、主制御部100は、アプリケーションソフトウェアを起動するためのアイコンや、スクロールバーなどのソフトウェアキーを表示し、或いは電子メールを作成するためのウィンドウを表示する。なお、スクロールバーとは、表示パネル121の表示領域に収まりきれない大きな画像などについて、画像の表示部分を移動する指示を受け付けるためのソフトウェアキーのことをいう。
また、操作検出制御の実行により、主制御部100は、操作部140を通じたユーザ操作を検出したり、操作パネル122を通じて、上記アイコンに対する操作や、上記ウィンドウの入力欄に対する文字列の入力を受け付けたり、或いは、スクロールバーを通じた表示画像のスクロール要求を受け付ける。
さらに、操作検出制御の実行により主制御部100は、操作パネル122に対する操作位置が、表示パネル121に重なる重畳部分(表示領域)か、それ以外の表示パネル121に重ならない外縁部分(非表示領域)かを判定し、操作パネル122の感応領域や、ソフトウェアキーの表示位置を制御するタッチパネル制御機能を備える。
また、主制御部100は、操作パネル122に対するジェスチャ操作を検出し、検出したジェスチャ操作に応じて、予め設定された機能を実行することもできる。ジェスチャ操作とは、従来の単純なタッチ操作ではなく、指などによって軌跡を描いたり、複数の位置を同時に指定したり、或いはこれらを組み合わせて、複数の位置から少なくとも1つについて軌跡を描く操作を意味する。
カメラ部141は、CMOSなどの撮像素子を用いて電子撮影するデジタルカメラである。また、カメラ部141は、主制御部100の制御により、撮像によって得た画像データを例えばJPEGなどの圧縮した画像データに変換し、記憶部150に記憶し、外部入出力部160や無線通信部110を通じて出力することができる。図20に示すようにスマートフォン101において、カメラ部141は表示入力部120と同じ面に搭載されているが、カメラ部141の搭載位置はこれに限らず、表示入力部120の背面に搭載されてもよいし、或いは、複数のカメラ部141が搭載されてもよい。なお、複数のカメラ部141が搭載されている場合には、撮影に供するカメラ部141を切り換えて単独にて撮影してもよいし、或いは、複数のカメラ部141を同時に使用して撮影してもよい。
また、カメラ部141はスマートフォン101の各種機能に利用することができる。例えば、表示パネル121にカメラ部141で取得した画像を表示することや、操作パネル122の操作入力の1つとして、カメラ部141の画像を利用することができる。また、GPS受信部170が位置を検出する際に、カメラ部141からの画像を参照して位置を検出することもできる。さらには、カメラ部141からの画像を参照して、3軸の加速度センサを用いずに、或いは、3軸の加速度センサと併用して、スマートフォン101のカメラ部141の光軸方向を判断することや、現在の使用環境を判断することもできる。勿論、カメラ部141からの画像をアプリケーションソフトウェア内で利用することもできる。
その他、静止画又は動画の画像データにGPS受信部170により取得した位置情報、マイクロホン132により取得した音声情報(主制御部等により、音声テキスト変換を行ってテキスト情報となっていてもよい)、モーションセンサ部180により取得した姿勢情報等などを付加して記憶部150に記憶し、外部入出力部160や無線通信部110を通じて出力することもできる。
上述の画像処理部31(図4、17、及び18参照)は、例えば主制御部100によって実現可能である。
2…デジタルカメラ、3…カメラ本体、4…レンズ鏡筒、5…フラッシュ発光部、6…シャッタボタン、7…電源スイッチ、8…表示部、9…操作部、10…メインメモリ、12…レンズ部、20…メカニカルシャッタ、21…撮像素子、22…プロセス処理部、23…AD変換部、24…バッファメモリ、25…システム制御部、26…シャッタ駆動部、27…レンズ駆動部、28…電源制御部、29…電源、30…制御メモリ、31…画像処理部、32…圧縮伸張部、33…記憶制御部、34…クロックデバイス、35…表示制御部、36…ユーザインタフェース、41…画像取得部、43…割合算出部、45…判定部、61…信号処理部、62…輝度情報取得部、63…輝度情報比較部、100…主制御部、101…スマートフォン、102…筐体、110…無線通信部、120…表示入力部、121…表示パネル、122…操作パネル、130…通話部、131…スピーカ、132…マイクロホン、140…操作部、141…カメラ部、150…記憶部、151…内部記憶部、152…外部記憶部、160…外部入出力部、170…受信部、170…GPS受信部、180…モーションセンサ部、190…電源部

Claims (24)

  1. フラッシュ光を発光して本撮影された第1のフラッシュ発光画像を示す第1の撮像信号と、前記第1のフラッシュ発光画像の露光時間とは異なる露光時間で、前記第1のフラッシュ発光画像と同一シーンがフラッシュ光を発光して参照撮影された第2のフラッシュ発光画像を示す第2の撮像信号とを取得する画像取得部と、
    前記第1の撮像信号の各領域に対応する前記第2の撮像信号の各領域における、前記第1の撮像信号と前記第2の撮像信号との信号割合を算出する割合算出部と、
    前記第1のフラッシュ発光画像において、前記信号割合と閾値に応じて、主要被写体領域と背景領域とを判定する判定部と、
    を備える画像処理装置。
  2. 前記割合算出部は、前記第1の撮像信号の各領域に対応する前記第2の撮像信号の各領域における、前記第1の撮像信号と前記第2の撮像信号との信号変化量を取得し、各領域の前記第1の撮像信号又は前記第2の撮像信号に基づく値に対する前記信号変化量の割合である前記信号割合を算出し、
    前記判定部は、前記第1のフラッシュ発光画像において、前記信号割合が閾値以下の領域を主要被写体領域とし、前記信号割合が前記閾値より大きい領域を背景領域と判定する請求項1に記載の画像処理装置。
  3. 前記判定部は、前記第1のフラッシュ発光画像において、前記信号割合が閾値以上の領域を主要被写体領域とし、前記信号割合が前記閾値より小さい領域を背景領域と判定する請求項1に記載の画像処理装置。
  4. 前記第1のフラッシュ発光画像の前記露光時間は、フラッシュ光の発光時間よりも長い請求項1から3のいずれか1項に記載の画像処理装置。
  5. 前記第2のフラッシュ発光画像の前記露光時間は、前記第1のフラッシュ発光画像の前記露光時間よりも短い請求項1から4のいずれか1項に記載の画像処理装置。
  6. 前記第1のフラッシュ発光画像の前記露光時間は、前記第1のフラッシュ発光画像の適正露出から決定される請求項1から5のいずれか1項に記載の画像処理装置。
  7. 前記判定部で判定された前記主要被写体領域と前記背景領域とに対して異なる信号処理を行う信号処理部、を備える請求項1から6のいずれか1項に記載の画像処理装置。
  8. 前記信号処理部は、前記主要被写体領域と前記背景領域とに対して異なるホワイトバランス処理を行う請求項7に記載の画像処理装置。
  9. 前記第1のフラッシュ発光画像の輝度情報と前記第2のフラッシュ発光画像の輝度情報とを取得する輝度情報取得部と、
    前記第1のフラッシュ発光画像の前記輝度情報と前記第2のフラッシュ発光画像の前記輝度情報とを比較する輝度情報比較部と、を備え、
    前記信号処理部は、前記輝度情報比較部の比較結果に応じて、前記信号処理を行わない請求項7または8に記載の画像処理装置。
  10. 前記輝度情報比較部は、前記第1のフラッシュ発光画像の前記輝度情報と前記第2のフラッシュ発光画像の前記輝度情報との重なりを算出することにより比較を行う、請求項9に記載の画像処理装置。
  11. 前記信号処理部は、前記第1のフラッシュ発光画像及び前記第2のフラッシュ発光画像の撮影されるシャッタスピードを速くしても十分な光量を有する画像を取得できる場合には、前記信号処理を行わない請求項7または8に記載の画像処理装置。
  12. 前記第1のフラッシュ発光画像が撮影され、続いて前記第2のフラッシュ発光画像が撮影される場合において、
    前記第1のフラッシュ発光画像は後幕シンクロのフラッシュ発光タイミングで撮影され、前記第2のフラッシュ発光画像は先幕シンクロのフラッシュ発光タイミングで撮影される請求項1から11のいずれか1項に記載の画像処理装置。
  13. 前記第2のフラッシュ発光画像が撮影され、続いて前記第1のフラッシュ発光画像が撮影される場合において、
    前記第1のフラッシュ発光画像は先幕シンクロのフラッシュ発光タイミングで撮影され、前記第2のフラッシュ発光画像は後幕シンクロのフラッシュ発光タイミングで撮影される請求項1から11のいずれか1項に記載の画像処理装置。
  14. 前記第2のフラッシュ発光画像が撮影され、続いて前記第1のフラッシュ発光画像が撮影され、前記第1のフラッシュ発光画像が先幕シンクロのフラッシュ発光タイミングで撮影される場合には、
    前記第2のフラッシュ発光画像の前記露光時間は、前記第1のフラッシュ発光画像の前記露光時間よりも短い請求項1から11のいずれか1項に記載の画像処理装置。
  15. 前記第2のフラッシュ発光画像は、後幕シンクロのフラッシュ発光タイミングで撮影される請求項14に記載の画像処理装置。
  16. 前記第1のフラッシュ発光画像が撮影され、続いて前記第2のフラッシュ発光画像が撮影され、前記第1のフラッシュ発光画像が後幕シンクロのフラッシュ発光タイミングで撮影される場合には、
    前記第2のフラッシュ発光画像の前記露光時間は、前記第1のフラッシュ発光画像の前記露光時間よりも短い請求項1から11のいずれか1項に記載の画像処理装置。
  17. 前記第2のフラッシュ発光画像は、先幕シンクロのフラッシュ発光タイミングで撮影される請求項16に記載の画像処理装置。
  18. 前記第1のフラッシュ発光画像及び前記第2のフラッシュ発光画像は、フラッシュ光の発光量の設定が同じである請求項1から17のいずれか1項に記載の画像処理装置。
  19. 前記第1の撮像信号及び前記第2の撮像信号の前記領域は1画素である請求項1から18のいずれか1項に記載の画像処理装置。
  20. 請求項1から19のいずれか1項に記載の画像処理装置を備える撮像装置。
  21. 手振れを検知する手振れセンサ、を備え、
    前記第1のフラッシュ発光画像及び前記第2のフラッシュ発光画像の少なくとも一方の撮影において、
    前記手振れセンサが手振れを検知した場合には、前記判定部は前記主要被写体領域及び前記背景領域の判定を行わない請求項20に記載の撮像装置。
  22. フラッシュ光を発光して本撮影された第1のフラッシュ発光画像を示す第1の撮像信号と、前記第1のフラッシュ発光画像の露光時間とは異なる露光時間で、前記第1のフラッシュ発光画像と同一シーンがフラッシュ光を発光して参照撮影された第2のフラッシュ発光画像を示す第2の撮像信号とを取得する画像取得ステップと、
    前記第1の撮像信号の各領域に対応する前記第2の撮像信号の各領域における、前記第1の撮像信号と前記第2の撮像信号との信号割合を算出する割合算出ステップと、
    前記第1のフラッシュ発光画像において、前記信号割合と閾値に応じて、主要被写体領域と背景領域とを判定する判定ステップと、
    を含む画像処理方法。
  23. フラッシュ光を発光して本撮影された第1のフラッシュ発光画像を示す第1の撮像信号と、前記第1のフラッシュ発光画像の露光時間とは異なる露光時間で、前記第1のフラッシュ発光画像と同一シーンがフラッシュ光を発光して参照撮影された第2のフラッシュ発光画像を示す第2の撮像信号とを取得する画像取得ステップと、
    前記第1の撮像信号の各領域に対応する前記第2の撮像信号の各領域における、前記第1の撮像信号と前記第2の撮像信号との信号割合を算出する割合算出ステップと、
    前記第1のフラッシュ発光画像において、前記信号割合と閾値に応じて、主要被写体領域と背景領域とを判定する判定ステップと、
    をコンピュータに実行させるためのプログラム。
  24. 請求項23に記載のプログラムを記録したコンピュータ読み取り可能な非一時的記録媒体。
JP2016534303A 2014-07-16 2015-04-27 画像処理装置、撮像装置、画像処理方法、及びプログラム Active JP6272486B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2014145794 2014-07-16
JP2014145794 2014-07-16
PCT/JP2015/062697 WO2016009699A1 (ja) 2014-07-16 2015-04-27 画像処理装置、撮像装置、画像処理方法、及びプログラム

Publications (2)

Publication Number Publication Date
JPWO2016009699A1 JPWO2016009699A1 (ja) 2017-05-25
JP6272486B2 true JP6272486B2 (ja) 2018-01-31

Family

ID=55078203

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016534303A Active JP6272486B2 (ja) 2014-07-16 2015-04-27 画像処理装置、撮像装置、画像処理方法、及びプログラム

Country Status (4)

Country Link
US (1) US10165243B2 (ja)
JP (1) JP6272486B2 (ja)
CN (1) CN106664366B (ja)
WO (1) WO2016009699A1 (ja)

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6274931B2 (ja) * 2014-03-19 2018-02-07 オリンパス株式会社 マルチエリアホワイトバランス制御装置、マルチエリアホワイトバランス制御方法、マルチエリアホワイトバランス制御プログラム、マルチエリアホワイトバランス制御プログラムを記録したコンピュータ、マルチエリアホワイトバランス画像処理装置、マルチエリアホワイトバランス画像処理方法、マルチエリアホワイトバランス画像処理プログラム、マルチエリアホワイトバランス画像処理プログラムを記録したコンピュータ及びマルチエリアホワイトバランス画像処理装置を備えた撮像装置
US10070111B2 (en) * 2015-12-22 2018-09-04 Adobe Systems Incorporated Local white balance under mixed illumination using flash photography
CN105744116A (zh) * 2016-02-25 2016-07-06 广东欧珀移动通信有限公司 检测方法、控制方法、检测装置、控制装置及电子装置
JP6711715B2 (ja) 2016-07-19 2020-06-17 キヤノン株式会社 画像処理装置および画像処理方法
CN106161906B (zh) * 2016-08-31 2019-03-01 维沃移动通信有限公司 一种拍照方法及移动终端
JP2018074445A (ja) * 2016-10-31 2018-05-10 ソニーセミコンダクタソリューションズ株式会社 固体撮像装置およびその信号処理方法、並びに電子機器
JP2018152777A (ja) * 2017-03-14 2018-09-27 ソニーセミコンダクタソリューションズ株式会社 情報処理装置、撮像装置および電子機器
WO2019088295A1 (ja) * 2017-11-06 2019-05-09 株式会社ニコン プログラムおよび電子機器
CN111742620B (zh) * 2018-02-26 2023-08-01 昕诺飞控股有限公司 根据效果类型和/或用户偏好重新开始动态灯光效果
CN110569632A (zh) * 2018-06-06 2019-12-13 南昌欧菲生物识别技术有限公司 解锁方法及电子装置
CN109274791B (zh) * 2018-09-30 2021-06-15 联想(北京)有限公司 一种处理方法、装置及电子设备
EP4013037B1 (en) * 2020-12-11 2023-05-03 Axis AB Space mapping illumination in image system

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3540485B2 (ja) * 1995-04-13 2004-07-07 株式会社リコー 電子スチルカメラ
JP2000308068A (ja) * 1999-04-16 2000-11-02 Olympus Optical Co Ltd 撮像装置
JP2000307940A (ja) * 1999-04-19 2000-11-02 Olympus Optical Co Ltd 撮像装置
US7148922B2 (en) * 2001-08-02 2006-12-12 Olympus Optical Co., Ltd. Electronic camera which detects flash influence on an image and controls white balance in accordance with the flash influence
US7262798B2 (en) * 2001-09-17 2007-08-28 Hewlett-Packard Development Company, L.P. System and method for simulating fill flash in photography
JP2005130268A (ja) * 2003-10-24 2005-05-19 Nikon Corp 画像抽出装置
JP4778852B2 (ja) * 2006-07-13 2011-09-21 Hoya株式会社 像ブレ補正装置
JP2008209900A (ja) * 2007-02-02 2008-09-11 Canon Inc カメラシステム及びレンズ装置
JP2009200924A (ja) 2008-02-22 2009-09-03 Nikon Corp 撮像装置
US8174611B2 (en) * 2009-03-26 2012-05-08 Texas Instruments Incorporated Digital image segmentation using flash
JP2012074962A (ja) * 2010-09-29 2012-04-12 Nikon Corp 撮像装置
JP2012194269A (ja) * 2011-03-15 2012-10-11 Olympus Corp 撮像方法およびプログラム
US8676937B2 (en) * 2011-05-12 2014-03-18 Jeffrey Alan Rapaport Social-topical adaptive networking (STAN) system allowing for group based contextual transaction offers and acceptances and hot topic watchdogging

Also Published As

Publication number Publication date
CN106664366A (zh) 2017-05-10
WO2016009699A1 (ja) 2016-01-21
US20170142387A1 (en) 2017-05-18
CN106664366B (zh) 2019-07-16
JPWO2016009699A1 (ja) 2017-05-25
US10165243B2 (en) 2018-12-25

Similar Documents

Publication Publication Date Title
JP6272486B2 (ja) 画像処理装置、撮像装置、画像処理方法、及びプログラム
JP6302554B2 (ja) 画像処理装置、撮像装置、画像処理方法及び画像処理プログラム
US10298899B2 (en) Image processing device, imaging device, image processing method, and program
US10021361B2 (en) Image processing device, imaging device, image processing method, and program
JP6195633B2 (ja) 画像処理装置及び画像処理方法
JP5730439B2 (ja) 画像表示装置、撮影装置、画像表示システム及び方法
JPWO2016006305A1 (ja) 画像処理装置、撮像装置、画像処理方法及びプログラム
US11438521B2 (en) Image capturing device, image capturing method, and program
JP6921972B2 (ja) 画像処理装置、撮像装置、画像処理方法、撮像方法、およびプログラム
US11032483B2 (en) Imaging apparatus, imaging method, and program
WO2018066454A1 (ja) 撮像装置、撮像方法、およびプログラム
JP2021192544A (ja) 画像処理装置、撮影装置、画像処理方法及び画像処理プログラム
WO2020110710A1 (ja) 撮像装置、撮像方法、及びプログラム
JPWO2020116102A1 (ja) 撮像装置、撮像方法、及びプログラム

Legal Events

Date Code Title Description
A529 Written submission of copy of amendment under article 34 pct

Free format text: JAPANESE INTERMEDIATE CODE: A5211

Effective date: 20161208

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20161209

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20171207

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20171228

R150 Certificate of patent or registration of utility model

Ref document number: 6272486

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250