JP5185027B2 - 画像表示装置、撮像装置、画像表示方法、および、撮像方法 - Google Patents

画像表示装置、撮像装置、画像表示方法、および、撮像方法 Download PDF

Info

Publication number
JP5185027B2
JP5185027B2 JP2008223478A JP2008223478A JP5185027B2 JP 5185027 B2 JP5185027 B2 JP 5185027B2 JP 2008223478 A JP2008223478 A JP 2008223478A JP 2008223478 A JP2008223478 A JP 2008223478A JP 5185027 B2 JP5185027 B2 JP 5185027B2
Authority
JP
Japan
Prior art keywords
shading
image
image data
live view
view display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2008223478A
Other languages
English (en)
Other versions
JP2010062628A5 (ja
JP2010062628A (ja
Inventor
学 市川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Imaging Corp
Original Assignee
Olympus Imaging Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Imaging Corp filed Critical Olympus Imaging Corp
Priority to JP2008223478A priority Critical patent/JP5185027B2/ja
Publication of JP2010062628A publication Critical patent/JP2010062628A/ja
Publication of JP2010062628A5 publication Critical patent/JP2010062628A5/ja
Application granted granted Critical
Publication of JP5185027B2 publication Critical patent/JP5185027B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Description

本発明は、画像にシェーディングを付加する技術に関する。
デジタルカメラにおいて、撮影時に用いられるレンズなどの光学系の特性により、撮影された画像の周辺部が中心部に比べて暗くなるシェーディングが生じることがある。近年のデジタルカメラの中には、特許文献1のように、暗くなった部分を修正して、シェーディングを補正する機能や、光学系の改良により、シェーディングの発生が抑えられたレンズを搭載するものがある。そのようなデジタルカメラを用いると、見た目ではシェーディングが生じていることがわからないような画像を撮影することができる。
一方で、シェーディングには、画像に立体感を生じさせる効果や、主要被写体を強調するような効果も生じさせる。そのため、同様な被写体を撮影した場合であっても、シェーディングが生じた画像には、シェーディングが生じていない画像とは異なる印象を見る人に対して与える場合がある。
特開2005−277618号公報
一般的にシェーディングは、レンズなどの光学系の特性により生じる。そのため、シェーディングがあまり生じない光学系を有するデジタルカメラにおいては、シェーディングがあまり生じていない画像を撮影することはできる。しかしながら、印象的な画像を撮影するためにシェーディングを生じさせるためには、撮影時にレンズの前面にフィルターを配置するなど、光学系の変更を行わなければならず、また、光学系の変更を行わなければ、シェーディングが存在する画像を撮影前に確認することができなかった。
本発明は、光学系の変更を行うことなく、シェーディングが付加された画像を撮影前に確認することができる技術を提供することを目的とする。
本発明のある態様に係る画像表示装置は、撮影レンズを通して撮像素子で受光した被写体光を光電変換することにより得られる画像データに基づいて、ライブビュー表示画像を生成する画像処理部と、前記ライブビュー表示画像に付加するシェーディングの特性を決定するシェーディング特性決定部と、決定された前記シェーディングの特性に応じたシェーディングを前記ライブビュー表示画像に付加するシェーディング付加部と、前記シェーディングが付加されたライブビュー表示画像を表示する表示部と、を備え、前記シェーディング特性決定部は、前記ライブビュー表示画像のアスペクト比に応じて、前記シェーディングの特性を決定することを特徴とする。
本発明の別の態様に係る画像表示方法は、撮影レンズを通して撮像素子で受光した被写体光を光電変換することにより得られる画像データに基づいて、ライブビュー表示画像を生成するステップと、前記ライブビュー表示画像に付加するシェーディングの特性を決定するステップと、決定された前記シェーディングの特性に応じたシェーディングを前記ライブビュー表示画像に付加するステップと、前記シェーディングが付加されたライブビュー表示画像を表示するステップと、を備え、前記シェーディングの特性を決定するステップでは、前記ライブビュー表示画像のアスペクト比に応じて、前記シェーディングの特性を決定することを特徴とする。
本発明のさらに別の態様に係る撮像装置は、撮影レンズを通して受光した被写体光を光電変換して画像データを得る撮像部と、前記画像データに対して画像処理を施す画像処理部と、前記画像データに基づいて、人物の顔を検出する顔検出部と、前記顔検出部によって検出された人物の顔の位置に基づいて、前記画像処理された画像データにシェーディングを付加するシェーディング付加部と、前記シェーディングを付加された画像データを動画データとして記録する記録部と、前記画像処理された画像データに基づいて生成されるライブビュー表示画像を表示する表示部と、前記ライブビュー表示画像のアスペクト比に応じて、前記シェーディングの特性を決定するシェーディング特性決定部と、を備えることを特徴とする。
本発明のさらに別の態様に係る撮像方法は、撮影レンズを通して受光した被写体光を光電変換して画像データを得るステップと、前記画像データに対して画像処理を施すステップと、前記画像データに基づいて、人物の顔を検出するステップと、前記検出された人物の顔の位置に基づいて、前記画像処理を施された画像データにシェーディングを付加するステップと、前記シェーディングを付加された画像データを動画データとして記録するステップと、前記画像処理を施された画像データに基づいて生成されるライブビュー表示画像を表示するステップと、前記ライブビュー表示画像のアスペクト比に応じて、前記シェーディングの特性を決定するステップと、を備えることを特徴とする。
本発明によれば、ライブビュー表示画像にシェーディングを付加する処理を行うので、光学系の変更を行うことなく、シェーディングが付加された画像を撮影前に確認することができる。
−第1の実施形態−
図1は、第1の実施形態に係る画像表示装置を適用したデジタルスチルカメラの構成を示すブロック図である。図1に示すデジタルスチルカメラは、カメラ本体1と交換式レンズ2から構成される。
交換式レンズ2は、レンズ1010と、Flashメモリ1011と、マイクロコンピュータ1012と、ドライバ1013と、絞り1014と、を有している。交換式レンズ2は、I/F999を介して、カメラ本体1と通信可能に接続されている。
カメラ本体1は、メカシャッター101と、撮像素子102と、アナログ処理部103と、アナログ/デジタル変換部104(以下、A/D変換部104)と、バス105と、SDRAM106と、画像処理部107と、AE処理部108と、AF処理部109と、JPEG処理部110と、メモリインターフェース111(以下、メモリI/F111)と、記録媒体112と、LCDドライバ113と、LCD114と、マイクロコンピュータ115と、操作部116と、Flashメモリ117と、シェーディング処理部118と、MPEG処理部119と、顔検出部120と、OSD処理部121とを有している。なお、第1の実施形態では、顔検出部120およびOSD処理部121は、必須の構成要素ではない。
レンズ1010は、被写体の光学像を撮像素子102に集光させる。レンズ1010は、単焦点レンズであってもよいし、ズームレンズであってもよい。Flashメモリ1011には、レンズ1010に関するシェーディング特性の情報が記憶されている。
マイクロコンピュータ1012は、I/F999、Flashメモリ1011、および、ドライバ1013と接続されていて、Flashメモリ1011に記憶されている情報の読み込み・書き込みを行うとともに、ドライバ1013を制御する。マイクロコンピュータ1012は、さらに、I/F999を介して、マイクロコンピュータ115と通信することができ、シェーディング特性やレンズの焦点距離情報などをマイクロコンピュータ115へ送信し、また、マイクロコンピュータ115から絞り値等の情報を受信する。
ドライバ1013は、マイクロコンピュータ1012の指示を受けて、レンズ1010を駆動させて、焦点距離やフォーカス位置の変更を行うとともに、絞り1014を駆動する。絞り1014は、レンズ1010の近傍に設けられ、被写体の光量を調節する。
メカシャッター101は、マイクロコンピュータ115の指示を受けて駆動し、撮像素子102に被写体を露光する時間を制御する。
撮像素子102は、各画素を構成するフォトダイオードの前面に、ベイヤー配列のカラーフィルタが配置された撮像素子である。ベイヤー配列は、水平方向にR画素とG(Gr)画素が交互に配置されたラインと、G(Gb)画素とB画素が交互に配置されたラインとを有し、さらにその2つのラインを垂直方向にも交互に配置することで構成されている。この撮像素子102は、レンズ1010により集光された光を、画素を構成するフォトダイオードで受光して光電変換することで、光の量を電荷量としてアナログ処理部103へ出力する。なお、撮像素子102は、CMOS方式のものでもCCD方式のものでも良い。
アナログ処理部103は、撮像素子102から読み出された電気信号(アナログ画像信号)に対し、リセットノイズ等を低減した上で波形整形を行い、さらに目的の明るさとなるように、ゲインアップを行う。A/D変換部104は、アナログ処理部103から出力されたアナログ画像信号をデジタル画像信号(以後、画像データという)に変換する。
バス105は、デジタルカメラ内部で発生した各種データをデジタルカメラ内の各部に転送するための転送路である。バス105は、A/D変換部104と、SDRAM106と、画像処理部107と、AE処理部108と、AF処理部109と、JPEG処理部110と、メモリI/F111と、マイクロコンピュータ115と、シェーディング処理部118と、MPEG処理部119と、顔検出部120と、OSD処理部121に接続されている。
A/D変換部104から出力される画像データは、バス105を介して一旦SDRAM106に記憶される。SDRAM106は、A/D変換部104において得られた画像データや、画像処理部107、JPEG処理部110、MPEG処理部119において処理された画像データ等の各種データが一時的に記憶される記憶部である。
画像処理部107は、ホワイトバランス補正部1071(以下、WB補正部1071)、同時化処理部1072、色再現処理部1073、および、ノイズ低減処理部1074(以下、NR処理部1074)を含み、SDRAM106から読み出した画像データに対して様々な画像処理を施す。WB補正部1071は、画像データのホワイトバランスを補正する処理を行う。同時化処理部1072は、ベイヤー配列による画像データから、1画素あたりR、G、Bの情報からなる画像データへ同時化する処理を行う。色再現処理部1073は、画像の色味を変化させる色再現処理を行い、NR処理部1074は、ノイズを低減する処理を行う。ノイズ低減処理後の画像データは、SDRAM106に記憶される。
デジタルスチルカメラによる撮影時には、メカシャッター101を開放した状態で繰り返し撮像を行い、撮像結果を動画像として逐次LCD114に表示して、LCD上で構図等の確認を可能とした、いわゆるライブビュー表示(スルー画表示とも呼ばれる)が可能である。このライブビュー表示時には、画像処理部107は、画像データに基づいて、ライブビュー表示を行うためのライブビュー表示画像を生成する処理を行っていると言える。
シェーディング処理部118は、画像処理部107によって様々な画像処理が行われて、SDRAM106に一旦記憶された画像データを読み出して、画像の中心部に対して周辺部が暗くなるようにシェーディングを付加する処理を行う。
AE処理部108は、画像データから被写体輝度を算出する。被写体輝度を算出するためのデータは、専用の測光センサの出力であってもよい。AF処理部109は、画像データから高周波成分の信号を取り出し、AF(Auto Focus)積算処理により、合焦評価値を取得する。
JPEG処理部110は、画像データの記録時には、SDRAM106から画像データを読み出し、読み出した画像データをJPEG圧縮方式に従って圧縮して、圧縮したJPEG画像データを、SDRAM106に一旦記憶する。マイクロコンピュータ115は、SDRAM106に記憶されたJPEG画像データに対して、JPEGファイルを構成するために必要なJPEGヘッダを付加してJPEGファイルを作成し、作成したJPEGファイルを、メモリI/F111を介して記録媒体112に記録する。記録媒体112は、例えばカメラ本体1に着脱可能なメモリカードからなる記録媒体であるが、これに限定されるものではない。
MPEG処理部119は、SDRAM106から画像データを読み出し、読み出した画像データをMPEG圧縮方式に従って時系列的に多重化して、圧縮動画データを生成する。生成された圧縮動画ファイルは、メモリI/F111を介して記録媒体112に記録される。
OSD処理部121は、撮影時の各種情報やデータ記録時の情報等を表示するためのオンスクリーンディスプレイ(OSD)データを生成する。LCDドライバ113は、画像データおよびOSDデータを合成してLCD114に表示させる。記録媒体112に記録されたJPEGファイルを再生する場合、JPEG処理部110は、記録媒体112に記録されているJPEGファイルを読み出して伸張処理を施した上で、伸張した画像データを一旦SDRAM106に記憶させる。LCDドライバ113は、伸張された画像データをSDRAM106から読み出し、読み出した画像データをOSDデータと合成して、映像信号へ変換した後でLCD114へ出力して、画像の表示を行う。画像の表示には、静止画の表示だけでなく、ライブビュー表示画等の動画の表示も含まれる。
制御部としての機能を有するマイクロコンピュータ115は、デジタルカメラ本体1の各種シーケンスを統括的に制御する。マイクロコンピュータ115には、操作部116およびFlashメモリ117が接続されている。
操作部116は、電源ボタン、レリーズボタン、各種入力キー等の操作部材である。ユーザによって、操作部116の何れかの操作部材が操作されることにより、マイクロコンピュータ115は、ユーザの操作に応じた各種シーケンスを実行する。電源ボタンは、当該デジタルカメラの電源のオン/オフ指示を行うための操作部材である。電源ボタンが押されたときに、マイクロコンピュータ115は、当該デジタルカメラの電源をオン又はオフする。レリーズボタンは、ファーストレリーズスイッチとセカンドレリーズスイッチの2段スイッチを有して構成されている。レリーズボタンが半押しされて、ファーストレリーズスイッチがオンされた場合に、マイクロコンピュータ115は、AE処理やAF処理等の撮影準備シーケンスを行う。また、レリーズボタンが全押しされて、セカンドレリーズスイッチがオンされた場合に、マイクロコンピュータ115は、撮影シーケンスを実行して撮影を行う。
Flashメモリ117は、ホワイトバランス補正値やローパスフィルタ係数、シェーディングの特性を決めるシェーディングテーブル等のデジタルカメラの動作に必要な各種パラメータや、デジタルスチルカメラを特定するための製造番号などを記憶している。また、Flashメモリ117は、マイクロコンピュータ115にて実行する各種プログラムも記憶している。マイクロコンピュータ115は、Flashメモリ117に記憶されているプログラムに従い、またFlashメモリ117から各種シーケンスに必要なパラメータを読み込み、各処理を実行する。
顔検出部120は、SDRAM106から画像データを読み出し、既知の方法により、人物の顔を検出する処理を行う。
図2は、第1の実施形態に係る画像表示装置を適用したデジタルスチルカメラでライブビュー表示を行う際の処理フローを示すフローチャートである。
ステップS201では、撮影を行う。この撮影は、ライブビュー表示を行うための撮影のため、いわゆる電子シャッターによる撮影を行う。ライブビュー表示を行うための撮影については、従来から用いられている手法と同様であるため、ここでは詳しい説明を省略する。
ステップS202では、ステップS201で得られた画像データに対して、画像処理部107にて、ホワイトバランス補正処理、色変換処理および色再現処理や、ノイズ低減処理等の画像処理などを行い、同時化された画像データを得る。
ステップS203では、シェーディングを付加する必要があるか否かの判定を行う。この判定は、ユーザによる操作部116の操作結果に基づいて行う。すなわち、ユーザは、操作部116の操作によって、画像にシェーディングを付加するか否かを予め設定することができ、その設定結果はFlashメモリ117に記録される。Flashメモリ117に記録されている、シェーディング付加に関する設定結果に基づいて、シェーディングを付加する必要があると判定するとステップS204に進み、付加しないと判定すると、ステップS205に進む。
ステップS204において、シェーディング処理部118は、ステップS202において同時化された画像データに対して、画像の中心部に対して周辺部が暗くなるようにシェーディング付加の処理を行い、シェーディングが付加された画像データを作成する。シェーディング付加の処理に関する詳細については、後述する。
ステップS205では、LCDドライバ113を制御して、画像データをLCD114に表示させる。この処理は、ライブビュー表示画像をユーザに見せるための処理である。ステップS204でシェーディングを付加する処理が行われた場合には、シェーディングが付加された状態の動画像がLCD114に表示される。以後、ライブビュー表示が終了するまで、ステップS201からステップS205の処理が繰り返し行われる。
<第1の実施形態におけるシェーディング付加の処理フロー>
図3は、第1の実施形態におけるシェーディング付加の処理フロー、すなわち、図2に示すフローチャートのステップS204における処理の内容を示すフローチャートである。ステップS301から始まる処理は、シェーディング処理部118によって行われる。
ステップS301では、後述する補正係数をシェーディング処理部118が算出して、保持しているか否かを判定する。後述するように、シェーディング処理部118は、Flashメモリ117からシェーディングの特性を決めるシェーディングテーブルを読み込んで(ステップS302)、補正係数を算出して(ステップS303)、シェーディングを付加する処理を行う(ステップS304)。ライブビュー表示時には、連続的に撮影される画像データに対して、一度算出した補正係数を用いて、シェーディングを付加する処理を繰り返し行うが、ステップS301では、後述するステップS303の補正係数算出処理を一度行ったか否かを判定する。補正係数の算出処理を行っておらず、補正係数を保持していないと判定すると、ステップS302に進む。
ステップS302では、予めFlashメモリ117に記憶されている、シェーディングの特性を決めるシェーディングテーブルを読み込む。
シェーディングテーブルは、例えば、図4に示すように、基準点からの距離に応じて、補正係数が1から徐々に減少するような特性の連続データを、一定間隔でサンプリングしたものである。基準点は、例えば、画像データにおける光軸中心に対応する位置とし、ここでは、画像の中心位置とする。なお、図4では、画像の中心位置から最も遠い位置における距離が1となるように正規化している。
上述したように、シェーディング処理部118によるシェーディングの付加は、WB補正部1071によるホワイトバランス補正処理が行われた後に行われる。一般的に、撮影された画像データは、適切な明るさであることが多いので、画像の基準となる中心は、適切な明るさとしたまま、周辺部を徐々に暗くするのが好ましい。よって、補正係数を1以下としている。補正係数は、撮影レンズ1010の光学特性よりも劣化したシェーディングが付加されるような値とする。
なお、シェーディングテーブルにおいて、サンプリング間隔を大きくすると、データ量は小さくなるが、図4に示すような特性の再現性が悪くなる。逆に、サンプリング間隔を小さくすると、図4に示すような特性の再現性は良くなるが、データ量は大きくなる。
ここで、画像中心からの距離を算出するためには、平方根を求める必要がある。一般に、平方根を求めると演算量が増加してしまうため、シェーディングテーブルを、基準点からの距離の2乗に応じた補正係数を格納したデータテーブルとしてもよい。図5は、横軸を基準点からの距離の2乗とした場合の補正係数の特性の一例を示す図である。ただし、図4と同様に、画像の中心位置から最も遠い位置における距離が1となるように正規化している。この場合のシェーディングテーブルは、基準点からの距離の2乗に応じて、補正係数が1から徐々に減少するような特性の連続データを、一定間隔でサンプリングしたものとなる。図5に示すような特性のシェーディングテーブルを用いることにより、図4に示すような特性のシェーディングテーブルを用いる場合に比べて、少ない演算量で高速に、補正係数を求めることができる。
ステップS303では、ステップS302で取得したシェーディングテーブルに基づいて、基準点である画像の中心位置が1であり、画像の中心位置からの距離に応じて値が小さくなる補正係数を求める。すなわち、画像の中心からの距離に基づいて、シェーディングテーブルを参照することにより、画像の各画素位置における補正係数を算出する。
このとき、シェーディングを付加する画像データのサイズ情報に基づいて、画像の中心位置からの距離が最大になる点(中心位置から最も遠い点)が、シェーディングテーブルにおける最も遠い位置の補正係数となるように正規化する。一般的には、画像の四隅の位置が中心位置から最も遠いため、四隅の位置の補正係数がシェーディングテーブルにおける最も小さい補正係数となる。これにより、記録する画像データのアスペクト比が異なる場合でも、画像の四隅は常に同じような輝度になる補正係数を算出することができる。すなわち、画像データのアスペクト比に応じたシェーディング特性とすることができる。
ここで、シェーディングテーブルにおけるデータのサンプリング間隔が大きい場合には、線形補完などの補完手法を用いて補完することで、画像の中心位置からの距離に応じてなめらかに補正係数を変化させることができる。
ステップS304では、画像を構成する画素の値に、その画素位置に対応する補正係数を乗じることによって、シェーディングを付加する処理を行う。補正係数は、ステップS303の処理を行った後にステップS304に進んだ場合には、ステップS303で算出した補正係数を用い、ステップS301の判定を否定してステップS304に進んだ場合には、既に算出済みの補正係数を用いる。既に算出済みの補正係数を用いてシェーディングを付加する処理を行うことにより、シェーディングテーブルを読み込んで補正係数を算出する処理を省略し、演算負荷を低減することができる。
シェーディングの付加処理では、例えば、画像データがRGB形式のデータであった場合、RGB全てに同じ補正係数を乗算することで輝度を変更できる。ただし、RGB形式の画像データを輝度成分(例えば、Y)と色差成分(例えば、CbとCr)に分離した画像データに変換することがある。その場合には、輝度成分のデータのみに補正係数を乗算することで、輝度を変更することができる。例えば、画像処理部107において、RGB形式の画像データを輝度成分および色差成分のデータに変換し、変換後のデータを一旦SDRAM106に記憶させる。シェーディング処理部118は、SDRAM106に記憶されている輝度成分および色差成分のデータを読み出して、輝度成分のデータのみに対して、補正係数を乗算することにより、シェーディングを付加する処理を行う。輝度成分のデータのみに補正係数を乗算する方法によれば、R、G、Bのそれぞれに補正係数を乗算する場合に比べて、乗算量が3分の1になるため、演算処理を高速化することができる。
図6(a)は、シェーディングを付加する前の画像の一例を示す図であり、図6(b)は、シェーディング処理部118によってシェーディングが付加された画像の一例を示す図である。図6(b)に示すように、シェーディングが付加された画像では、画像の中心から遠い位置になるほど、暗くなっている。なお、図6(a)および図6(b)において、符号61で示されている被写体は、模式的に表された人物の上半身である。
<第1の実施形態におけるシェーディング付加の変形処理フロー>
図7は、第1の実施形態におけるシェーディング付加の変形処理の内容を示すフローチャートである。図3に示すフローチャートの処理と同じ処理を行うステップについては、同じステップ番号を付して、詳しい説明は省略する。
ステップS301の判定を否定した後に進むステップS701では、撮影時のレンズの焦点距離が変更されたか否かを判定する。焦点距離が変更されたか否かの情報は、I/F999およびマイクロコンピュータ115を介して、マイクロコンピュータ1012から取得する。撮影時のレンズの焦点距離が変更されていないと判定するとステップS304に進み、焦点距離が変更されたと判定すると、ステップS702に進む。
ステップS702では、I/F999およびマイクロコンピュータ115を介して、撮影時のレンズの焦点距離をマイクロコンピュータ1012から取得する。続くステップS703では、I/F999およびマイクロコンピュータ115を介して、予めFlashメモリ1011に記憶されている焦点距離に対するシェーディング特性の中から、ステップS702で取得した焦点距離に最も近い焦点距離に対するシェーディング特性を取得する。
図8は、レンズ1010の異なる焦点距離に応じたシェーディング特性の一例を示す図である。横軸は、基準点(画像の中心位置)からの距離であり、縦軸は、基準点の光量を1とした場合の光量比である。ここでも、図4等と同様に、画像の中心位置から最も遠い位置における距離が1となるように正規化している。
一般的に、焦点距離が短いほど、シェーディングの影響は大きくなる。すなわち、図8に示すように、基準点である画像の中心位置からの距離が同じであれば、焦点距離が短いほど、光量比が小さくなり、焦点距離が長いほど、光量比が大きくなる。図8では、最長焦点、中間焦点、最短焦点の3つの焦点距離に応じたシェーディング特性しか示していないが、異なる焦点距離に応じて、Flashメモリ1011に記憶しておくシェーディング特性データの数を4つ以上としてもよい。
なお、ステップS1001で取得した焦点距離と一致する焦点距離に対するシェーディング特性がFlashメモリ1011に記憶されていなかった場合には、線形補完などの補完手法を使用して、撮影時の焦点距離に応じたシェーディング特性を算出するようにしてもよい。
ステップS704では補正係数を算出する。基準とする位置を画像データにおける光軸中心(一般的には画像中心)として、基準とする位置からの距離と、ステップS703で取得したシェーディング特性を使用して、画像データの各画素に対する補正係数を算出する。ここでは、画像上のある点において、基準である画像の中心位置からの距離を算出し、シェーディング特性よりその距離に応じた光量比を得る。そして、光量比を2乗した値をその点の補正係数とする。
撮影した画像データには、レンズ1010の撮影時の焦点距離におけるシェーディングの特性により、シェーディングがかかった状態であるが、さらに2乗した補正係数を用いてシェーディングを付加することで、レンズ1010の撮影時の焦点距離におけるシェーディングの特性の3乗に相当するシェーディングが付加されることになる。
なお、レンズの焦点距離に応じた光量比をそのまま補正係数として用いてもよい。また、レンズの焦点距離と補正係数とを対応付けたテーブルを予め用意して用いるようにしてもよい。
図9(a)は、シェーディングを付加する前の画像の一例を示す図であり、図9(b)および図9(c)は、シェーディング処理部118によってシェーディングが付加された画像の一例を示す図である。ただし、図9(b)は、短焦点側でシェーディングを付加した例であり、図9(c)は、長焦点側でシェーディングを付加した例である。上述したように、基準点である画像の中心位置からの距離が同じであれば、焦点距離が短いほど、光量比が小さくなるため、補正係数も小さくなる。すなわち、焦点距離が長い場合(図9(c)参照)に比べて、焦点距離が短い場合(図9(b)参照)の方がシェーディングの変化量が大きくなり、シェーディング付加の効果が視覚的に分かりやすくなる。
第1の実施形態における画像表示装置によれば、ライブビュー表示画像にシェーディングを付加して表示するので、ユーザは、光学系の変更を行うことなく、シェーディングが付加された画像を撮影前に確認することができる。
特に、ライブビュー表示画像のアスペクト比に応じたシェーディング特性とするので、ライブビュー表示画像のアスペクト比が異なる場合でも、適切なシェーディングを付加することができる。
また、撮影レンズの撮影時における焦点距離に基づいて、シェーディング特性を決定するので、焦点距離に応じた適切なシェーディングを付加することができる。
さらに、シェーディング付加処理で用いる補正係数を一度算出した場合に、算出済みの補正係数を用いてシェーディングを付加する処理を行うので、全てのライブビュー表示画像に対して、補正係数を算出する必要がなくなる。また、撮影時の焦点距離に応じたシェーディングを付加する場合に、補正係数を一度算出し、かつ、撮影時の焦点距離が変化しない場合に、算出済みの補正係数を用いてシェーディングを付加する処理を行うので、全てのライブビュー表示画像に対して、補正係数を算出する必要がなくなる。これにより、シェーディングを付加する際の演算負荷を低減することができるので、タイムラグの無いライブビュー表示が可能となる。
−第2の実施形態−
第2の実施形態における画像処理装置の構成は、第1の実施形態における画像処理装置の構成と同じである。ただし、第1の実施形態で必須の構成要素ではなかったOSD処理部121は、第2の実施形態では必須の構成要素である。
図10は、第2の実施形態に係る画像表示装置を適用したデジタルスチルカメラでライブビュー表示を行う際の処理フローを示すフローチャートである。図2に示すフローチャートの処理と同じ処理を行うステップについては、同じステップ番号を付して、詳しい説明は省略する。
ステップS203の判定を否定した後に進むステップS1001では、OSD処理部121において、画像データと合成するOSDデータ、すなわち、ライブビュー表示画像と重ねて表示するためのOSDデータを生成し、生成したOSDデータを画像データに合成する処理を行う。図11(a)は、ステップS1001で生成されるOSDデータの一例を示す図である。ここでは、撮影モード、シャッター速、F値(絞り値)、記録モード、現在の記録モードにおける撮影可能残り枚数を含む文字情報をOSDデータとして生成する。図11(a)を参照すると、「P」は、撮影モードでプログラムモードを示しており、「200」は、シャッター速が1/200(秒)であることを示している。また、「F2.8」はF値を、「RAW+JPG」は、RAW形式およびJPEG形式で画像データを記録するモードであることを、「90」は、現在の記録モードにおける撮影可能残り枚数が90枚であることをそれぞれ示している。
図11(a)に示されているOSDデータは、シェーディングを付加しない画像データと合成するデータであり、黒縁に白字の文字とする。
一方、ステップS204に続くステップS1002では、OSD処理部121において、シェーディングが付加された画像データと合成するOSDデータを生成し、生成したOSDデータを画像データに合成する処理を行う。図11(b)は、ステップS1002で生成されるOSDデータの一例を示す図である。図11(b)に示されるOSDデータは、シェーディングが付加された画像データと合成するデータであり、視認性を良くするために、白縁に黒字の文字とする。すなわち、シェーディング付加の有無に応じて、OSDデータの文字情報の表示形態を変更し、または、シェーディング付加の有無に応じて表示形態の異なるOSDデータを選択することによって、適するOSDデータを生成する。
なお、シェーディングが付加された画像データと合成するOSDデータの文字の配色は、白縁に黒字に限定されることはなく、視認性が良いものであれば別の配色としてもよい。また、文字の書式も、図11(b)に示されるものに限定されることはない。
ステップS205では、LCDドライバ113を制御して、ステップS1001またはステップS1002でOSDデータを合成した画像データをLCD114に表示させる。
図12(a)は、図11(a)に示すOSDデータを合成した画像を示す図である。また、図12(b)は、図11(b)に示すOSDデータを合成した画像を示す図である。
第2の実施形態における画像表示装置によれば、シェーディングの状態に応じて、画像データと合成するOSDデータの文字情報の表示形態を変更するので、視認性の良い文字情報を表示させることができる。
−第3の実施形態−
第1および第2の実施形態における画像表示装置では、シェーディング処理部118が画像データにシェーディングを付加する画像処理を行った。第3の実施形態における画像表示装置では、OSD処理部121がシェーディング付きのOSDデータを生成し、生成したOSDデータを画像データに合成する処理を行う。なお、第3の実施形態における画像処理装置の構成は、第2の実施形態における画像処理装置の構成に対して、シェーディング処理部118を省略したものとなる。
図13は、第3の実施形態に係る画像表示装置を適用したデジタルスチルカメラでライブビュー表示を行う際の処理フローを示すフローチャートである。図2、図10に示すフローチャートの処理と同じ処理を行うステップについては、同じステップ番号を付して、詳しい説明は省略する。
ステップS203の判定を肯定した後に進むステップS1301では、シェーディング付きのOSDデータを生成し、生成したOSDデータを画像データに合成する処理を行う。図14は、シェーディング付きのOSDデータの一例を示す図である。図14に示すOSDデータは、図11(b)に示すOSDデータにシェーディングを付加したデータである。図14に示すような、画像の中心部に対して周辺部が暗くなるシェーディングデータの作成方法は、第1および第2の実施形態におけるシェーディング処理部118でシェーディングを付加する方法と同じである。
ステップS205では、LCDドライバ113を制御して、ステップS1001またはステップS1301でOSDデータを合成した画像データをLCD114に表示させる。この場合も、ステップS1001でOSDデータを合成された画像は、図12(a)に示すようなものとなり、ステップS1301でOSDデータを合成された画像は、図12(b)に示すようなものとなる。
第3の実施形態における画像表示装置によれば、シェーディング付きのOSDデータを生成して画像データと合成して表示するので、第1の実施形態と同様に、ユーザは、光学系の変更を行うことなく、シェーディングが付加された画像を撮影前に確認することができる。
−第4の実施形態−
第4の実施形態における画像表示装置では、シェーディングを付加しない画像とともに、シェーディングを付加した画像をLCD114に同時に表示する処理を行う。
図15は、第4の実施形態に係る画像表示装置を適用したデジタルスチルカメラでライブビュー表示を行う際の処理フローを示すフローチャートである。図2に示すフローチャートの処理と同じ処理を行うステップについては、同じステップ番号を付して、詳しい説明は省略する。
ステップS1501では、ステップS202で画像処理が行われた画像データを縮小する処理を行う。ここでは、LCD114に、4つの画像を同時に表示できるサイズに縮小する。
ステップS1502では、ステップS1501で縮小した画像データをコピーして、4つの画像データを生成する。図16(a)は、ステップS202で画像処理が行われた画像データの一例を示す図であり、図16(b)は、ステップS1502で生成された4つの画像データを示す図である。なお、4つの画像データのアスペクト比は、4:3とする。
ステップS1503では、シェーディングを付加しないOSDデータと、シェーディングを付加したOSDデータを生成し、ステップS1502で生成された画像データと合成する処理を行う。ここでは、シェーディングを付加しないOSDデータ、短焦点側でシェーディングを付加したOSDデータ、長焦点側でシェーディングを付加したOSDデータ、および、長焦点側でシェーディングを付加して、16:9のアスペクト比にしたOSDデータを生成する。
図16(c)は、生成された4つのOSDデータの一例を示す図である。図16(c)において、161〜164はそれぞれ、シェーディングを付加しないOSDデータ、短焦点側でシェーディングを付加したOSDデータ、長焦点側でシェーディングを付加したOSDデータ、および、長焦点側でシェーディングを付加して、16:9のアスペクト比にしたOSDデータを示している。
図16(d)は、図16(b)に示す4つの画像データに対して、図16(c)に示す4種類のOSDデータをそれぞれ合成して得られる画像データを示す図である。図16(d)において、画像データ165〜168はそれぞれ、図16(c)に示すOSDデータ161〜164に対応している。
ステップS205では、LCDドライバ113を制御して、ステップS1503で合成された画像データをLCD114に表示させる。これにより、LCD114には、図16(d)に示すような4つのライブビュー表示画像が表示される。この後、ユーザは、4つのライブビュー表示画像の中から、所望のシェーディングを付加した画像を選択することにより、選択したシェーディング特性の画像を撮像することができる。
第4の実施形態における画像表示装置によれば、シェーディングを付加しないライブビュー表示画像と、シェーディングを付加したライブビュー表示画像とを同時に表示するので、ユーザは、シェーディング付加の有無に応じた画像を撮影前に確認することができる。
また、シェーディングを付加したライブビュー表示画像を1種類とせずに、異なる特性のシェーディングを付加した数種類のライブビュー表示画像を表示するので、ユーザは、異なる特性のシェーディングを付加した画像の違いを視認することができる。
−第5の実施形態−
第5の実施形態における画像表示装置の構成は、図1に示す構成と同じである。第5の実施形態における画像表示装置では、人物の顔を検出する処理を行い、検出した顔の位置に応じてシェーディングを付加する処理を行う。
図17は、第5の実施形態に係る画像表示装置を適用したデジタルスチルカメラでライブビュー表示を行う際の処理フローを示すフローチャートである。図2および図10に示すフローチャートの処理と同じ処理を行うステップについては、同じステップ番号を付して、詳しい説明は省略する。
ステップS1701では、ステップS202で画像処理が行われた画像から、人物の顔を検出する処理を行う。人物の顔を検出する処理については、公知の方法を用いることができる。
ステップS203の判定を肯定した後に進むステップS1702では、ステップS202において同時化された画像データに対してシェーディングを付加する画像処理を行い、シェーディングが付加された画像データを作成する。第1〜第4の実施形態では、画像の中心を基準として、画像の中心から遠くなるにつれて画像が暗くなるようなシェーディング付加処理を行ったが、本実施形態では、ステップS1701で検出された人物の顔の位置を基準とするシェーディング付加処理を行う。
図18(a)〜図18(c)は、人物の顔の位置を中心としてシェーディングが付加された画像の一例を示す図である。図18(a)は、人物が画像の中心に位置している場合、図18(b)は、人物が画像の中心に対して右寄りに位置している場合、図18(c)は、人物が画像の中心に対して左寄りに位置している場合である。いずれの場合でも、検出された人物の顔を基準として、顔の位置から遠くなるほど暗くなるシェーディング付加処理を行っている。
なお、撮影画像をLCD114に表示し続けるライブビュー表示中は、ステップS201からステップS205までの処理が繰り返し行われる。従って、人物の顔の位置が動けば、動いた位置に応じて、シェーディングを付加する処理を行う。
ステップS1703では、ステップS1001またはステップS1002でOSDデータを合成された画像データに対して、ステップS1701で検出された人物の顔の領域を示す顔領域フレームを描画する。図18(a)〜図18(c)では、顔領域フレーム180を矩形で示している。
ここで、ステップS1701において、複数の人物の顔を検出した場合の処理について、図19を参照しながら説明する。図19(a)は、検出した複数の人物の顔のうち、最も大きい顔を中心としてシェーディングを付加した画像の一例を示している。この場合、顔検出部120は、人物の顔を検出するだけでなく、検出した顔の大きさを検出する処理も行う。
撮像画像では、カメラに近い人物ほど、画像上の顔の大きさも大きくなる。従って、画像上で顔が大きい人物ほど、重要な被写体と判断して、最も大きい顔を中心として、シェーディングを付加する処理を行う。ただし、検出した複数の人物の顔のうち、ユーザがタッチパネルの操作やキー操作を行って、1つの顔を選択し、選択した顔を中心として、シェーディングを付加する処理を行うようにしてもよい。
図19(b)は、検出した複数の人物の顔それぞれを中心として、シェーディングを付加した画像の一例を示している。図19(b)では、2人の人物しか示していないが、3人以上の人物の顔が検出された場合には、ユーザがタッチパネルの操作やキー操作を行って、シェーディング付加の基準となる顔を選択し、選択した顔を中心として、シェーディングを付加する処理を行うようにしてもよい。
人物の顔が複数検出された場合や、人物の顔が検出されなかった場合には、上述した第1〜第4の実施形態と同様に、画像の中心を基準としてシェーディングを付加するようにしてもよい。図19(c)は、複数の人物の顔が検出された場合に、画像の中心を基準としてシェーディングを付加した画像の一例を示している。
また、人物の顔が複数検出された場合に、検出された複数の顔の平均位置を基準としてシェーディングを付加するようにしてもよい。
第5の実施形態における画像表示装置によれば、画像データに基づいて人物の顔を検出し、検出した人物の顔に基づいて、シェーディングの特性を決定する。特に、検出した人物の顔を基準としてシェーディングを付加するので、画像中の主要被写体と考えられる人物の顔を基準とした効果的なシェーディングを付加した画像を表示させることができる。
また、複数の人物の顔を検出した場合に、最も大きい顔を基準としてシェーディングを付加するので、画像中の重要な被写体を基準とした効果的なシェーディングを付加した画像を表示させることができる。
−第6の実施形態−
第6の実施形態における画像表示装置では、シェーディングを付加した動画を記録するとともに、LCD114には、ユーザの指示に応じて、シェーディングを付加したライブビュー表示画像またはシェーディングを付加しないライブビュー表示画像を表示する。
図20は、第6の実施形態に係る画像表示装置を適用したデジタルスチルカメラでライブビュー表示を行う際の処理フローを示すフローチャートである。図2、図10、図13、図17に示すフローチャートの処理と同じ処理を行うステップについては、同じステップ番号を付して、詳しい説明は省略する。
ステップS2001では、ステップS202で画像処理が行われた画像データを、LCD114にライブビュー表示画像として表示するための画像サイズに縮小する。例えば、動画を高画質モードで撮像・記録する場合でも、LCD114に表示する確認用の画像としては、画質を低くしても特に問題はない。ここでは、LCD114にライブビュー表示画像として表示するために、データ量を小さくした画像データとする処理を行う。
ステップS1701では、ステップS2001で縮小された画像データを用いて、公知の方法により、人物の顔を検出する処理を行う。データ量を小さくした画像データを用いて顔検出処理を行うことにより、データ量が大きい画像データを用いて顔検出処理を行う場合に比べて、処理負荷を低減することができ、迅速に人物の顔を検出することができる。
ステップS1702では、ステップS1701で検出された人物の顔の位置に基づいて、画像データにシェーディングを付加する処理を行う。この画像データは、動画データとして記録する画像データであるため、ステップS2001で縮小した画像データとは別の画像データ、すなわち、ステップS202で画像処理が行われた画像データである。
ステップS2002では、ステップS1702でシェーディングが付加されて、MPEG処理部119で圧縮処理された画像データを動画データとして、メモリI/F111を介して記録媒体112に記録する。
ステップS203の判定を肯定した後に進むステップS2003では、ステップS1701で検出された人物の顔の位置に応じたOSDデータを生成し、生成したOSDデータを、ステップS2001で縮小された画像データと合成する処理を行う。一方、ステップS203の判定を否定した後に進むステップS1001では、シェーディングを付加しない場合のOSDデータを生成し、生成したOSDデータを、ステップS2001で縮小された画像データと合成する処理を行う。
ステップS205では、LCDドライバ113を制御して、ステップS1001またはステップS2003で生成された画像データをLCD114に表示させる。
すなわち、第6の実施形態における画像表示装置では、シェーディングを付加した動画を記録媒体112に記録するとともに、LCD114には、ユーザの指示に応じて、シェーディングを付加しないライブビュー表示画像またはシェーディングを付加したライブビュー表示画像を表示する。これにより、例えば、シェーディングを付加した動画の撮影・記録時に、LCD114では、シェーディングを付加しないライブビュー表示画像を表示させることにより、撮影範囲を視認しやすくすることができる。
−第7の実施形態−
図21は、第7の実施形態に係る画像表示装置を適用したデジタルスチルカメラの構成を示すブロック図である。図1に示すブロック図と同じ構成については、同じ番号を付して詳しい説明を省略する。
LCD114に重ねて配置されるタッチパネル132は、透明のスクリーン状であって、ユーザの指や専用のペン(例えば、スタイラスペン)等で触れる、あるいはなぞる等のタッチ操作(タップ操作)により、各種の入力や指示を可能にする。タッチパネル検出部131は、指や専用のペン等によって、タッチパネル132のタッチ操作が行われたことを検出するとともに、タッチ操作が行われた位置(タッチ位置)およびタッチ方法を検出する。
図22は、第7の実施形態に係る画像表示装置を適用したデジタルスチルカメラにおいて、ライブビュー表示画像をLCD114に表示している際に行われる処理フローを示すフローチャートである。ここでは、シェーディングが付加されたライブビュー表示画像がLCD114に表示されているものとする。なお、以下では、ユーザが指を使ってタッチパネル132を操作するものとして説明するが、上述したように、ユーザは、専用のペン等を使って操作することができる。
ステップS2201において、タッチパネル検出部131は、タッチパネル132上を1本の指によってドラッグする操作が行われたか否かを判定する。タッチパネル132上を1本の指によってドラッグする操作が行われたと判定するとステップS2202に進む。
ステップS2202では、1本指によるドラッグの開始点は、付加されたシェーディングの中心付近であるか否かを判定する。ここでは、ドラッグの開始点が、付加されたシェーディングの中心位置から所定の範囲内であるか否かを判定する。ドラッグの開始点は、付加されたシェーディングの中心付近であると判定すると、ステップS2203に進む。
ステップS2203では、1本指によるドラッグ操作に応じて、シェーディングの中心位置を移動させる。すなわち、移動させた指の位置と一致するように、シェーディングの中心位置を移動させる。
図23(a)は、指によるドラッグ操作が行われる前に、LCD114に表示されているライブビュー表示画像の一例を示す図である。図23(b)は、1本の指230にてシェーディングの中心付近の位置をタッチして、ドラッグを開始した状態を示す図である。
図23(c)は、図23(b)に示す状態から、タッチパネル132を触れたまま指230を動かすドラッグ操作を行い、指230を画面左下の位置に動かした状態を示す図である。図23(c)に示すように、移動させた指230の位置と一致するように、シェーディングの中心位置を移動させている。
図23(d)は、図23(b)に示す状態から、タッチパネル132を触れたまま指230を動かすドラッグ操作を行い、指230を画面右上の位置に動かした状態を示す図である。この場合も、図23(d)に示すように、移動させた指230の位置と一致するように、シェーディングの中心位置を移動させている。
一方、ステップS2202において、ドラッグの開始点は、付加されたシェーディングの中心付近ではないと判定すると、特別な処理は行わない。すなわち、シェーディングの中心付近から離れた位置をユーザがタッチしてドラッグ操作した場合、このドラッグ操作は、シェーディングの中心位置を動かすための操作ではないと判断する。
ステップS2201において、タッチパネル132上を1本指によってドラッグする操作が行われていないと判定すると、ステップS2204に進む。ステップS2204において、タッチパネル検出部131は、タッチパネル132上を2本の指によってドラッグする操作が行われたか否かを判定する。タッチパネル132上を2本の指によってドラッグする操作が行われたと判定するとステップS2205に進む。
ステップS2205では、2本の指によるドラッグ操作に応じて、シェーディング特性を変更する。例えば、2本の指でタッチパネル132がタッチされた状態で、2本の指を広げる操作が行われた場合には、シェーディングを付加しない領域を広げる処理を行う。また、2本の指でタッチパネル132がタッチされた状態で、2本の指を狭める操作が行われた場合には、シェーディングを付加しない領域を狭める処理を行う。
図24(a)は、右手の親指241と人差し指242の2本の指にてタッチパネル132をタッチして、ドラッグを開始した状態を示す図である。図24(a)に示す状態から、親指241と人差し指242の間を広げるドラッグ操作が行われると、図24(b)に示すように、シェーディングを付加しない領域を広げる処理が行われる。
また、図24(a)に示す状態から、親指241と人差し指242の間を狭めるドラッグ操作が行われると、図24(c)に示すように、シェーディングを付加しない領域を狭める処理が行われる。従って、図24(c)に示すように、画像上で暗い領域が多くなる。
ステップS2204において、タッチパネル132上を2本の指によってドラッグする操作が行われていないと判定すると、ステップS2206に進む。ステップS2206において、タッチパネル検出部131は、タッチパネル132上を短時間だけタッチするクリック操作が行われたか否かを判定する。タッチパネル132のクリック操作が行われたと判定すると、ステップS2207に進む。
ステップS2207では、変更したシェーディング特性を変更前の状態に戻すリセット処理を行う。例えば、図23(c)や図23(d)に示すように、シェーディングの中心位置を移動させる処理を行った後に、タッチパネル132のクリック操作が行われると、図23(a)に示す状態とするために、シェーディングの中心位置を元に戻す処理を行う。また、図24(b)や図24(c)に示すように、シェーディングを付加しない領域の広さを変更した後に、タッチパネル132のクリック操作が行われると、図23(a)に示す状態とするために、シェーディングを付加しない領域の広さを元に戻す処理を行う。
第7の実施形態における画像表示装置によれば、ユーザは、シェーディングが付加されたライブビュー表示画像を見ながら、シェーディングの特性を変更することができる。特に、シェーディングを付加する基準位置の変更や、シェーディングを付加しない領域を拡大・縮小することができるので、ユーザにとって利便性が高い。
上述した第1〜第4の実施形態では、画像データにおける光軸中心に対応する位置、すなわち、画像の中心位置を基準としてシェーディングを付加する処理を行ったが、シェーディング付加処理を行う際の基準位置は、画像上の任意の位置とすることができる。
なお、上述した各実施形態の説明では、画像表示装置をデジタルスチルカメラに適用した例を挙げて説明したが、各実施形態で説明した処理を実現するためのプログラムをコンピュータが実行する構成とすることもできる。すなわち、CPU、RAM等の主記憶装置、各実施形態で説明した処理の全て或いは一部を実現させるためのプログラムが記憶されたコンピュータ読み取り可能な記憶媒体を備えたコンピュータにおいて、CPUが上記記憶媒体に記憶されているプログラムを読み出して、情報の加工・演算処理を実行することにより、上述の画像表示装置と同様の処理を実現させる。
ここで、コンピュータ読み取り可能な記録媒体とは、磁気ディスク、光磁気ディスク、CD−ROM、DVD−ROM、半導体メモリ等をいう。また、上述したプログラムを通信回線によってコンピュータに配信し、この配信を受けたコンピュータがプログラムを実行するようにしても良い。
本願発明には、以下のような態様の画像表示装置、撮像装置および画像処理プログラムも含まれる。
(1)撮影レンズの撮影時における焦点距離の情報を取得する焦点距離情報取得部をさらに備え、
シェーディング特性決定部は、焦点距離の情報に基づいて、シェーディングの特性を決定することを特徴とする画像表示装置。
(2)シェーディング特性決定部は、焦点距離が短い場合に付加するシェーディングの変化量を、焦点距離が長い場合に付加するシェーディングの変化量よりも大きくすることを特徴とする画像表示装置。
(3)シェーディング特性決定部は、顔検出部によって検出された人物の顔の位置を基準としてシェーディングを付加するためのシェーディング特性とすることを特徴とする画像表示装置。
(4)顔検出部は、人物の顔を検出するとともに、検出した顔の大きさを検出するものであって、
シェーディング特性決定部は、顔検出部によって複数の人物の顔が検出された場合に、最も大きい顔の位置を基準としてシェーディングを付加するためのシェーディング特性とすることを特徴とする画像表示装置。
(5)シェーディング付加部は、シェーディング特性決定部によってシェーディングの特性を変更する処理が行われると、変更されたシェーディングの特性に応じたシェーディングをライブビュー表示画像に付加することを特徴とする画像表示装置。
(6)ライブビュー表示画像に付加されたシェーディングの特性を変更するシェーディング特性変更入力部をさらに備え、
シェーディング付加部は、シェーディング特性変更入力部によって変更されたシェーディング特性に基づいて、ライブビュー表示画像にシェーディングを付加し直すことを特徴とする画像表示装置。
(7)ライブビュー表示画像に重ねて表示するための文字情報を生成する文字情報生成部をさらに備え、
文字情報生成部は、シェーディング処理部によって付加されるシェーディングの状態に応じて、文字情報の表示形態を変更することを特徴とする画像表示装置。
(8)表示部は、シェーディングが付加されたライブビュー表示画像と、シェーディングが付加されていないライブビュー表示画像とを同時に表示することを特徴とする画像表示装置。
(9)顔検出部によって検出された人物の顔の位置に基づいて、表示画像用のシェーディングデータを生成するシェーディングデータ生成部と、
データサイズを縮小された画像データに表示画像用のシェーディングデータを付加する表示用画像データ生成部と、
をさらに備えることを特徴とする撮像装置。
(10)撮影レンズを通して撮像素子で受光した被写体光を光電変換することにより得られる画像データに基づいて、ライブビュー表示画像を生成するステップと、
ライブビュー表示画像に付加するシェーディングの特性を決定するステップと、
決定されたシェーディングの特性に応じたシェーディングをライブビュー表示画像に付加するステップと、
シェーディングが付加されたライブビュー表示画像を表示するステップと、
をコンピュータに実行させるための画像表示プログラム。
本発明は、上述した第1〜第7の実施形態に限定されるものではなく、本発明の要旨を逸脱しない範囲内で様々な変形や応用が可能である。
第1の実施形態に係る画像表示装置を適用したデジタルスチルカメラの構成を示すブロック図である。 第1の実施形態に係る画像表示装置を適用したデジタルスチルカメラで動画を撮影する際の処理フローを示すフローチャートである。 第1の実施形態におけるシェーディング付加の処理フローを示すフローチャートである。 基準点からの距離に応じた補正係数の特性の一例を示す図である。 基準点からの距離の2乗に応じた補正係数の特性の一例を示す図である。 図6(a)は、シェーディングを付加する前の画像の一例を示す図であり、図6(b)は、シェーディングが付加された画像の一例を示す図である。 第1の実施形態におけるシェーディング付加の変形処理の内容を示すフローチャートである。 レンズの異なる焦点距離に応じたシェーディング特性の一例を示す図である。 図9(a)は、シェーディングを付加する前の画像の一例を示す図、図9(b)は、短焦点側でシェーディングが付加された画像の一例を示す図、図9(c)は、長焦点側でシェーディングが付加された画像の一例を示す図である。 第2の実施形態に係る画像表示装置を適用したデジタルスチルカメラでライブビュー表示を行う際の処理フローを示すフローチャートである。 図11(a)は、シェーディングを付加しない画像データと合成するデータの一例を示す図であり、図11(b)は、シェーディングが付加された画像データと合成するデータの一例を示す図である。 図12(a)は、図11(a)に示すOSDデータを合成した画像を示す図であり、図12(b)は、図11(b)に示すOSDデータを合成した画像を示す図である。 第3の実施形態に係る画像表示装置を適用したデジタルスチルカメラでライブビュー表示を行う際の処理フローを示すフローチャートである。 シェーディング付きのOSDデータの一例を示す図である。 第4の実施形態に係る画像表示装置を適用したデジタルスチルカメラでライブビュー表示を行う際の処理フローを示すフローチャートである。 図16(a)は、画像処理後の画像データの一例を示す図であり、図16(b)は、縮小コピーされた4つの画像データを示す図である。また、図16(c)は、生成された4つのOSDデータの一例を示す図であり、図16(d)は、図16(b)に示す4つの画像データに対して、図16(c)に示す4種類のOSDデータをそれぞれ合成して得られる画像データを示す図である。 第5の実施形態に係る画像表示装置を適用したデジタルスチルカメラでライブビュー表示を行う際の処理フローを示すフローチャートである。 図18(a)〜図18(c)はそれぞれ、人物の顔の位置を中心としてシェーディングが付加された画像の一例を示す図である。 図19(a)は、複数の人物の顔を検出した場合に、最も大きい顔を中心としてシェーディングを付加した画像の一例を示す図、図19(b)は、検出した複数の人物の顔それぞれを中心として、シェーディングを付加した画像の一例を示す図、図19(c)は、複数の人物の顔が検出された場合に、画像の中心を基準としてシェーディングを付加した画像の一例を示す図である。 第6の実施形態に係る画像表示装置を適用したデジタルスチルカメラでライブビュー表示を行う際の処理フローを示すフローチャートである。 第7の実施形態に係る画像表示装置を適用したデジタルスチルカメラの構成を示すブロック図である。 第7の実施形態に係る画像表示装置を適用したデジタルスチルカメラにおいて、ライブビュー表示画像をLCDに表示している際に行われる処理フローを示すフローチャートである。 図23(a)は、指によるドラッグ操作が行われる前にLCDに表示されているライブビュー表示画像の一例を示す図であり、図23(b)は、1本の指にてシェーディングの中心付近の位置をタッチして、ドラッグを開始した状態を示す図である。また、図23(c)は、図23(b)に示す状態からドラッグ操作を行い、指を画面左下の位置に動かした状態を示す図であり、図23(d)は、図23(b)に示す状態からドラッグ操作を行い、指を画面右上の位置に動かした状態を示す図である。 図24(a)は、右手の親指と人差し指の2本の指にてタッチパネルをタッチして、ドラッグを開始した状態を示す図、図24(b)は、親指と人差し指との間を広げた状態を示す図、図24(c)は、親指と人差し指との間を狭めた状態を示す図である。
符号の説明
1…カメラ本体、2…交換式レンズ、101…メカシャッター、102…撮像素子、103…アナログ処理部、104…アナログ/デジタル変換部、105…バス、106…SDRAM、107…画像処理部、108…AE処理部、109…AF処理部、110…JPEG処理部、111…メモリインターフェース、112…記録媒体、113…LCDドライバ、114…LCD、115…マイクロコンピュータ、116…操作部、117…Flashメモリ、118…シェーディング処理部、119…MPEG処理部、120…顔検出部、121…OSD処理部、131…タッチパネル検出部、132…タッチパネル、999…I/F、1010…レンズ、1011…Flashメモリ、1012…マイクロコンピュータ、1013…ドライバ、1014…絞り、1071…ホワイトバランス補正部、1072…同時化処理部、1073…色再現処理部、1074…ノイズ低減処理部

Claims (7)

  1. 撮影レンズを通して撮像素子で受光した被写体光を光電変換することにより得られる画像データに基づいて、ライブビュー表示画像を生成する画像処理部と、
    前記ライブビュー表示画像に付加するシェーディングの特性を決定するシェーディング特性決定部と、
    決定された前記シェーディングの特性に応じたシェーディングを前記ライブビュー表示画像に付加するシェーディング付加部と、
    前記シェーディングが付加されたライブビュー表示画像を表示する表示部と、
    を備え
    前記シェーディング特性決定部は、前記ライブビュー表示画像のアスペクト比に応じて、前記シェーディングの特性を決定することを特徴とする画像表示装置。
  2. 前記画像データに基づいて、人物の顔を検出する顔検出部をさらに備え、
    前記シェーディング特性決定部は、前記顔検出部によって人物の顔が検出された場合に、前記ライブビュー表示画像の中心位置を基準として前記シェーディングを付加するためのシェーディング特性とすることを特徴とする請求項1に記載の画像表示装置。
  3. 前記画像データに基づいて、人物の顔を検出する顔検出部をさらに備え、
    前記シェーディング特性決定部は、前記顔検出部によって検出された人物の顔の位置に基づいて、前記シェーディングの特性を決定することを特徴とする請求項1に記載の画像表示装置。
  4. 前記シェーディング特性決定部によって決定された前記シェーディングの特性に応じたシェーディングデータをオンスクリーンディスプレイデータとして生成するオンスクリーンディスプレイデータ生成部をさらに備え、
    前記シェーディング付加部は、前記オンスクリーンディスプレイデータとして生成されたシェーディングデータを前記ライブビュー表示画像と合成することを特徴とする請求項1から請求項のいずれか一項に記載の画像表示装置。
  5. 撮影レンズを通して受光した被写体光を光電変換して画像データを得る撮像部と、
    前記画像データに対して画像処理を施す画像処理部と、
    前記画像データに基づいて、人物の顔を検出する顔検出部と、
    前記顔検出部によって検出された人物の顔の位置に基づいて、前記画像処理された画像データにシェーディングを付加するシェーディング付加部と、
    前記シェーディングを付加された画像データを動画データとして記録する記録部と、
    前記画像処理された画像データに基づいて生成されるライブビュー表示画像を表示する表示部と、
    前記ライブビュー表示画像のアスペクト比に応じて、前記シェーディングの特性を決定するシェーディング特性決定部と、
    を備えることを特徴とする撮像装置。
  6. 撮影レンズを通して撮像素子で受光した被写体光を光電変換することにより得られる画像データに基づいて、ライブビュー表示画像を生成するステップと、
    前記ライブビュー表示画像に付加するシェーディングの特性を決定するステップと、
    決定された前記シェーディングの特性に応じたシェーディングを前記ライブビュー表示画像に付加するステップと、
    前記シェーディングが付加されたライブビュー表示画像を表示するステップと、
    を備え
    前記シェーディングの特性を決定するステップでは、前記ライブビュー表示画像のアスペクト比に応じて、前記シェーディングの特性を決定することを特徴とする画像表示方法。
  7. 撮影レンズを通して受光した被写体光を光電変換して画像データを得るステップと、
    前記画像データに対して画像処理を施すステップと、
    前記画像データに基づいて、人物の顔を検出するステップと、
    前記検出された人物の顔の位置に基づいて、前記画像処理を施された画像データにシェーディングを付加するステップと、
    前記シェーディングを付加された画像データを動画データとして記録するステップと、
    前記画像処理を施された画像データに基づいて生成されるライブビュー表示画像を表示するステップと、
    前記ライブビュー表示画像のアスペクト比に応じて、前記シェーディングの特性を決定するステップと、
    を備えることを特徴とする撮像方法。
JP2008223478A 2008-09-01 2008-09-01 画像表示装置、撮像装置、画像表示方法、および、撮像方法 Active JP5185027B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008223478A JP5185027B2 (ja) 2008-09-01 2008-09-01 画像表示装置、撮像装置、画像表示方法、および、撮像方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008223478A JP5185027B2 (ja) 2008-09-01 2008-09-01 画像表示装置、撮像装置、画像表示方法、および、撮像方法

Publications (3)

Publication Number Publication Date
JP2010062628A JP2010062628A (ja) 2010-03-18
JP2010062628A5 JP2010062628A5 (ja) 2011-09-15
JP5185027B2 true JP5185027B2 (ja) 2013-04-17

Family

ID=42189006

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008223478A Active JP5185027B2 (ja) 2008-09-01 2008-09-01 画像表示装置、撮像装置、画像表示方法、および、撮像方法

Country Status (1)

Country Link
JP (1) JP5185027B2 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2011102406A1 (ja) 2010-02-18 2011-08-25 ローム株式会社 タッチパネル入力装置
JP2011215539A (ja) * 2010-04-02 2011-10-27 Rohm Co Ltd デジタルカメラ

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006115044A (ja) * 2004-10-13 2006-04-27 Sony Corp 撮像装置、レイアウト編集方法およびプログラム
JP4683190B2 (ja) * 2005-01-28 2011-05-11 カシオ計算機株式会社 撮像装置、画像効果付与方法および画像効果付与プログラム
JP2007194917A (ja) * 2006-01-19 2007-08-02 Seiko Epson Corp 画像の撮影シーンに適した効果処理の設定
JP4973098B2 (ja) * 2006-09-28 2012-07-11 ソニー株式会社 画像処理装置、画像処理方法およびプログラム
JP2008176190A (ja) * 2007-01-22 2008-07-31 Matsushita Electric Ind Co Ltd 画像表示装置

Also Published As

Publication number Publication date
JP2010062628A (ja) 2010-03-18

Similar Documents

Publication Publication Date Title
US9019400B2 (en) Imaging apparatus, imaging method and computer-readable storage medium
US20120105590A1 (en) Electronic equipment
KR20130069039A (ko) 디스플레이 장치, 방법, 및 컴퓨터 판독 가능 저장 매체
JP2009147730A (ja) 動画生成装置、動画撮影装置、動画生成方法及びプログラム
JP5132495B2 (ja) 撮像装置、および、画像処理方法
JP5186021B2 (ja) 撮像装置、画像処理装置、及び撮像方法
US20090027487A1 (en) Image display apparatus and image display method
WO2016008359A1 (zh) 物体运动轨迹图像的合成方法、装置及计算机存储介质
JP5642344B2 (ja) 画像処理装置、画像処理方法、および、画像処理プログラム
JP5849389B2 (ja) 撮像装置および撮像方法
EP2648403B1 (en) Digital image processing apparatus and controlling method thereof
JP5185085B2 (ja) 画像処理装置、画像処理方法、および、画像処理プログラム
JPWO2018235382A1 (ja) 撮像装置、撮像装置の制御方法、及び撮像装置の制御プログラム
JP5185027B2 (ja) 画像表示装置、撮像装置、画像表示方法、および、撮像方法
US20100054693A1 (en) Apparatuses for and methods of previewing a moving picture file in digital image processor
JP2011193066A (ja) 撮像装置
JP4918513B2 (ja) マルチ画像ファイル編集方法及びプログラム
JP2007096809A (ja) 撮像装置、動画記憶方法および動画記憶プログラム
JP6592293B2 (ja) 画像処理装置、画像処理方法、および撮像装置
JP5191941B2 (ja) 撮像装置、画像処理装置、画像処理方法、および、画像処理プログラム
JP5836109B2 (ja) 画像処理装置、それを備えた撮像装置、画像処理方法、及び画像処理プログラム
JP5878063B2 (ja) 撮像装置、撮像方法および撮像プログラム
JP5094686B2 (ja) 画像処理装置、画像処理方法、および、画像処理プログラム
JP2006094202A (ja) 撮像装置、合焦処理方法及びプログラム
JP2010098428A (ja) 撮像装置、撮像方法、および、撮像プログラム

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110803

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110803

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120628

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120703

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120808

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20121218

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130117

R151 Written notification of patent or utility model registration

Ref document number: 5185027

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20160125

Year of fee payment: 3

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250