JP2010213105A - 撮像装置 - Google Patents

撮像装置 Download PDF

Info

Publication number
JP2010213105A
JP2010213105A JP2009058468A JP2009058468A JP2010213105A JP 2010213105 A JP2010213105 A JP 2010213105A JP 2009058468 A JP2009058468 A JP 2009058468A JP 2009058468 A JP2009058468 A JP 2009058468A JP 2010213105 A JP2010213105 A JP 2010213105A
Authority
JP
Japan
Prior art keywords
image
image data
evaluation value
unit
focus
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2009058468A
Other languages
English (en)
Inventor
Hironobu Tomita
裕信 冨田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Original Assignee
Olympus Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Corp filed Critical Olympus Corp
Priority to JP2009058468A priority Critical patent/JP2010213105A/ja
Publication of JP2010213105A publication Critical patent/JP2010213105A/ja
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Focusing (AREA)
  • Automatic Focus Adjustment (AREA)
  • Studio Devices (AREA)

Abstract

【課題】撮像装置の表示部に、画像領域内の合焦状態を表示させる撮像装置を提供することにある。
【解決手段】固体撮像素子から出力された画像データから輪郭情報を抽出する輪郭抽出部202と、輪郭情報に基づいて画像データを複数の第1の画像領域に分割する領域分割部203と、画像データのフォーカス評価値を演算する評価値演算部と、フォーカス評価値に基づき第1の画像領域毎に画像データを補正する画像補正部と、撮像素子から出力された画像データと補正された画像データを合成する画像合成部と、を有することを特徴とする撮像装置。
【選択図】図2

Description

本発明は、デジタルカメラ等の撮像装置に係わり、特に、撮像時のフォーカス情報を表示する技術に関する。
従来、デジタルカメラやビデオカメラ等の撮像装置では、画像データを取得する撮像素子としてCCD(Charge Coupled Device)等を利用し、CCDから出力された画像データを、ビューファインダや背面モニター等の表示部に表示するものがある。
このような撮像装置として、被写体のどこにピントがあっているかという合焦状態についての情報が、撮像時の撮像画像とともに表示部に表示されるものがある。
また、このような撮像装置では、撮像装置側で被写体の合焦位置を決定し、この合焦位置において被写体のピント合わせを行うオートフォーカス機構が用いられている。このオートフォーカス機構によってピント合わせが行なわれると、合焦位置がビューファインダや背面モニターに表示されるものがある。
合焦状態を表示部に表示する表示方法としては、例えば、撮像時の被写体が表示されている画面内において、予め設定された複数の測距点に相当する位置にそれぞれ矩形等の模様を配し、これら複数の測距点の中から、合焦位置となった測距点に対応する模様を点灯させる表示方法(以下、第1の表示方法という)がある。
また、別の方法として、例えば、被写体の顔等に対応する画像領域を認識する機能等を用いて、被写体の顔等の画像領域を特定し、この特定された画像領域のうち、合焦位置となった画像領域の1つまたは複数の被写体に矩形図形を付して表示する表示方法(以下、第2の表示方法という)がある。
さらに、例えば、画像データのエッジ抽出を行い、画像データのうち抽出されたエッジ部分を合焦位置として、表示部にハイライト表示させるものがある(特許文献1参照)。
また、画面データを複数の矩形領域に分割して、各矩形領域内の合焦状態に応じて各矩形領域を色分けするなどして表示し、ユーザが画面全体の合焦状態を把握できるようにするものがある(特許文献2、3参照)。
特表平5−500744号公報 特開平6−113183号公報 特開2004−309915号公報
しかしながら、これらの合焦状態の表示方法によると、画面内の合焦位置等を特定して表示することにより、ユーザがこれらを把握することはできるが、合焦位置以外の合焦状態の程度(すなわち、ピントがあっておらず、画像表現がボケているボケ具合の程度)を把握することはできないという問題がある。
また、ビューファインダや背面モニターに表示される画像は、実際に撮像装置で撮影できる画像サイズよりも縮小された小さい画像で表示されるため、ユーザが表示された画像から合焦位置以外の領域のボケ具合を判断することは、非常に難しい。
さらに、特許文献1に記載される装置は、エッジ部分がハイライト表示されることにより合焦状態にある被写体を特定することができるため、上述した第1の表示方法による測距点の矩形模様の点灯や、第2の表示方法による合焦位置付近に矩形図形を付して表示する方法よりも、被写体に応じた合焦状態を表示することはできるが、合焦状態にある被写体以外の領域のボケ具合を表示することはできない。
また、特許文献2、3に記載される装置によると、画面を矩形領域で分割し、各矩形領域内の合焦状態に応じて各矩形領域を色分けするなどして表示しているため、一つの矩形領域内に遠近の異なる複数の被写体が混在している場合には、それぞれどちらの被写体に対しての合焦状態を表しているのか不明であり、ユーザは被写体ごとの合焦状態を把握することができない。
本発明は、このような事情を考慮し、上記の問題を解決すべくなされたものであって、その目的は、撮像装置の表示部に、画像領域内の合焦状態を表示させる撮像装置を提供することにある。
上記問題を解決するために、本発明は、撮像素子から出力された画像データから輪郭情報を抽出する輪郭抽出部と、前記輪郭情報に基づいて前記画像データを複数の第1の画像領域に分割する領域分割部と、前記画像データの合焦状態を表すフォーカス評価値を演算する評価値演算部と、前記フォーカス評価値に基づき前記第1の画像領域毎に画像データを補正する画像補正部と、前記撮像素子から出力された画像データと前記補正された画像データを合成する画像合成部と、前記画像合成部で合成された画像データを表示する表示部と、を有することを特徴とする撮像装置である。
また、本発明は、上述の撮像装置において、前記評価値演算部が、前記画像データを複数の第2の画像領域に分割し、前記第2の画像領域毎に前記フォーカス評価値を演算し、前記画像補正部が、前記第2の画像領域のフォーカス評価値に基づき、前記第1の画像領域毎のフォーカス評価値を演算することを特徴とする。
また、本発明は、上述の撮像装置において、前記画像補正部が、前記第1の画像領域毎のフォーカス評価値に基づき、前記複数の第1の画像領域のフォーカス評価レベルを判断することを特徴とする。
また、本発明は、上述の撮像装置において、前記画像補正部が、前記第1の画像領域毎のフォーカス評価値に対応した色のマスクデータに基づき前記画像データを補正し、前記画像合成部が、撮像素子から出力された画像データの前記第1の画像領域に、前記マスクデータを合成することを特徴とする。
また、本発明は、上述の撮像装置において、前記複数の第2の画像領域が、前記画像データを構成する複数の矩形領域であることを特徴とする。
また、本発明は、上述の撮像装置において、前記画像補正部は、前記フォーカス評価値に基づき、前記第1の画像領域毎に前記画像データの透明度、輝度又は色を補正することを特徴とする。
この構成により、本発明に係る撮像装置によると、被写体ごとに応じた合焦状態を表示装置に表示することができる。また、本発明に係る撮像装置によると、合焦位置にある被写体の合焦状態、およびこの被写体周辺部のピントが合っていない部分のボケ具合を表す画像を、表示装置に表示させることができる。よって、ユーザは、撮影時において、画像データの全体の合焦状態を容易に把握することができる。
本発明の実施形態に係る撮像装置の構成の一例を示すブロック図である。 図1に示す画像処理部の構成の一例を示すブロック図である。 図2に示す輪郭抽出部の構成の一例を示すブロック図である。 図1に示す画像処理部によって処理された画像データの一例を示す概念図である。 図1に示す画像処理部によって処理された画像データの他の一例を示す概念図である。 図1に示す画像処理部によって処理された画像データの他の一例を示す概念図である。 図1に示す画像処理部によって処理された画像データの他の一例を示す概念図である。 図1に示す画像処理部によって処理された画像データの他の一例を示す概念図である。 本実施の形態に係る撮像装置の処理フローを示すフローチャートである。 図2に示す領域分割部によって処理された画像データの一例を示す概念図である。 図2に示す領域分割部によって処理された画像データの他の例を示す概念図である。 図2に示す領域分割部によって処理された画像データの他の例を示す概念図である。 図2に示す領域分割部によって処理された画像データの他の例を示す概念図である。
[第1の実施形態]
以下、図面を参照して、本発明の一の実施形態について説明する。図1は、本発明の実施の形態に係る撮像装置の構成の一例を示すブロック図である。
図1に示すとおり、本実施の形態に係る撮像装置1は、レンズ群101と、固体撮像素子102と、撮像部103と、AD変換部104と、画像処理部105と、焦点調節部106と、CPU107と、レリーズスイッチ(レリーズSW)108と、メモリ109と、表示制御部110と、表示装置111と、システムバス112と、記録制御部113と、記録装置114とを備える。
レンズ群101は、撮像装置1内に入射する被写体光を固体撮像素子102に出力する。
固体撮像素子102は、レンズ群101から入力された被写体光を、アナログの撮像信号に変換する。固体撮像素子102は、レリーズSW108が押下されることにより被写体を撮像し、撮像信号を出力する。この撮像信号に基づく画像データが撮像画像となる。また、固体撮像素子102は、レリーズSW108による制御がなされない状態においても、レンズ群101から入力された被写体光を撮像信号に変換する。この撮像信号に基づく画像データが、いわゆるスルー画像となる。
撮像部103は、固体撮像素子102から入力されたアナログの撮像信号を、相関二重サンプリング等の処理を行い、蓄積電荷量に対応したR、G、Bの画像データとして、AD変換部104に出力する。
レンズ群101、固体撮像素子102および撮像部103は、絞り値や露出値等の各パラメータにより決定される撮像条件に基づき、焦点調整部106あるいはCPU107によって制御される。
AD変換部104は、A/D変換器を備え、撮像部103から入力されたR、G、Bの画像データをデジタルデータに変換し、画像処理部105に出力する。
画像処理部105は、AD変換部104から入力されたデジタルデータに、階調変換、ホワイトバランス補正、γ補正などの各種画像処理をして画像データを生成し、システムバス112を介してメモリ109に出力する。このように、画像処理部105は、AD変換部104から入力されたデジタルデータに一連の画像処理終了後、画像処理がなされた画像データをメモリ209に記憶できる。しかし、画像処理部105はこれに限られず、一連の画像処理の途中で、任意の画像処理がされた画像データを一時的にメモリ209に記憶し、必要に応じてその画像データをメモリ109から読み出し、読み出した画像データに基づき別の画像処理を開始することもできる。なお、詳細については、図2を用いて後述する。
焦点調整部106は、CPU107によって焦点調整が指示されると、レンズ群101を制御し、焦点位置にある被写体にピントを合わせる焦点調整を行う。例えば、焦点調整部106は、CPU107によって決定された焦点位置にピントを合わせるよう、レンズ群101の位置決めをするレンズ駆動モータ等(図示せず)を制御し、焦点位置にピントを合わせる。
CPU107は、撮像装置1を統括的に制御し、例えば、設定されているシーンモードや焦点調整モード、あるいは固体撮像素子102から取得された撮像信号に基づく画像処理のデータに応じた焦点調整を、焦点調整部106に行わせる。本実施の形態において、CPU107は、オートフォーカス機能を備え、後述する画像処理部105の評価値演算部201によって算出されたフォーカス評価値に基づき、このフォーカス評価値が最大となる位置を焦点位置として、焦点調整部106に、例えば、TTL(Through The Lens)方式に基づくレンズ群101の焦点調整を行わせる。
なお、焦点調整モードとして、オートフォーカス機能を利用した自動焦点調整モード(AFモード)が設定されている場合、CPU107は、ユーザ等により予め設定されているシーンモードに基づき被写体の合焦位置を決定し、焦点調整部106に、決定された合焦位置に対する焦点調整を行わせる。これを以下、自動焦点調整という。
例えば、シーン設定として人物モードが設定されている場合、CPU107は、最も近い被写体に合焦位置を合わせるよう焦点調整部106を制御し、焦点調整部106は、決定された合焦位置で合焦するようレンズ群101を制御する。
また、CPU107は、システムバス112を介して、画像処理部105、メモリ109、表示制御部110、記録制御部113と接続されており、各部をそれぞれ制御する。
レリーズSW108は、2段階押しのスイッチである。撮像装置1がAFモードに設定されている状態で、レリーズSW208がユーザが軽く押下(半押し)されると、CPU107は、焦点調節部106に自動焦点調整を行わせる。焦点調整部106によって合焦位置である被写体にピントが合わせられると、CPU107は、この状態における撮像条件を一時的に記憶し、レリーズSW208の半押し状態が解除されるまでこの撮像条件の変更を禁止する。このようにCPU107によってピントあわせ時の撮像条件が維持されることを、以下データロックという。
また、レリーズSW108は、半押し状態でもう一度強く押圧(全押し)されると、CPU107は、データロックされている撮像条件で被写体を撮像する。これにより、固体撮像素子102から出力された撮像信号が、撮像画像としてメモリ109に記憶される。
メモリ109は、例えば、SDRAM(Synchronous DRAM)等であって、システムバス112を介して、画像処理部105から入力された画像データを記憶する。
表示制御部110は、システムバス112を介して、メモリ109から画像データを取得し、取得した画像データを画像制御部110に応じたデジタル信号(例えば、コンポジット信号)に変換し、表示装置111に出力する。
表示装置111は、例えば、電子ビューファインダや液晶表示装置等であって、撮影した撮像画像や、いわゆるスルー画像、各種メニュー画面を表示する。
システムバス112は、画像処理部105、CPU107、メモリ109、表示制御部110、記録制御部113と接続され、制御信号や画像データ等を伝達するバスである。
記録制御部113は、システムバス112を介して、メモリ109から画像データを取得し、この画像データに圧縮または伸長の処理をする。そして、記録制御部113は、圧縮または伸長の処理がなされた画像データを、所定の圧縮形式(例えばJPG方式)の画像データに変換し、記録装置114に出力する。なお、記録制御部113は、画像データに圧縮または伸長の処理をせず、いわゆるRAWデータとして、記録装置114に出力することもできる。
記録装置114は、記録制御部113から入力された画像データを記憶する。記録装置114は、複数枚の画像データを記憶可能な、例えば、磁気ディスク、磁気テープ、光磁気ディスク、半導体メモリ等のメディアであって、撮像装置1に対して着脱自在に接続される。
次に、図2〜8を用いて、画像処理部105の構成について詳細に説明する。図2は、図1に示す画像処理部105の構成の一例を示すブロック図である。図3は、図2に示す輪郭抽出部の構成の一例を示すブロック図である。図4〜8は、図2、3の各構成によって処理された画像データを説明するための概念図である。図4は、複数の矩形領域4に分割された画像データ400を示す図である。図5は、画像データ400に基づき、輪郭情報で分割された画像領域501〜504を示す図である。図6は、図5に示した画像領域501〜504を、図4に示す矩形領域4にあわせて表すフラグデータ601〜604を示す図である。図7は、図5に示した画像領域501〜504に対して、フォーカス評価値レベルに応じた補正を行ったマスクデータ701〜704を示す図である。
図2に示す通り、画像処理部105は、評価値演算部201と、輪郭抽出部202と、領域分割部203と、色設定部(画像補正部)204と、画像合成部205とを備える。なお、レリーズSW208が半押しされた状態で固体撮像素子102により取得された撮像信号に基づく画像データを、以下、画像データ400として説明する。この画像データ400は、AD変換部104から画像処理部105に入力されるデジタルデータ、あるいは画像処理部105によってメモリ109から取得した画像データのいずれでもよい。
評価値演算部201は、入力された画像データ400を、図4に示すような、複数の矩形領域(第2の画像領域)4に分割し、例えば、デジタル積分方式を用いて各矩形領域4のフォーカス評価値を算出し、評価値情報として色設定部204に出力する。
例えば、評価値演算部201は、撮像部103およびAD変換部104を介して、固体撮像素子102から入力された複数の画像データ400からそれぞれの画像データごとの輝度を抽出し、特定の周波数成分を抽出するフィルタ処理をする。これにより、得られた複数の画像データ400の周波数成分を、累積エリアである矩形領域4ごとに加算処理することで、画像データ400の合焦状態を表すフォーカス評価値を算出する。
なお、この評価値演算部201によって算出されたフォーカス評価値は、上述したAFモードが設定されている場合のCPU107による焦点位置の検出に用いられ、システムバス112を介してCPU107に出力される。
また、評価値演算部201は、例えば、デジタル積算方式、いわゆる山登り方式を用いて、画像データに含まれる高域成分をデジタル信号に変換して積分し、フォーカス評価値を算出するものであってもよい。
画像領域400は、図4に示す通り、画像データ400を縦に6分割、横に6分割された36個の矩形領域4で構成されている。これら複数の矩形領域4には、画像データ400における位置が規定された座標情報(1,1)(1,2)・・・(6,6)が付与されている。
輪郭抽出部202は、入力された画像データ400から、図3を用いて後述するとおり被写体の輪郭情報を抽出し、この輪郭情報および画像データ400を領域分割部203に出力する。
領域分割部203は、輪郭抽出部202から入力された輪郭情報に基づき、入力された画像データ400を輪郭情報で区切られた複数の画像領域(第1の画像領域)501、502、503、504に分割する。
これら複数の画像領域501〜504は、図5に示すとおり、輪郭情報によって区切られた被写体ごとの領域であって、図5に黒色を付して示す被写体領域500Pに対応する画像データ400を保持する。すなわち、すべての画像領域501〜504を合成することにより、画像データ400を構成する。なお、図5に白抜きで表されている部分は、画像データ400を保持していない部分であって、以下、無画像領域500Nという。
例えば、領域分割部203は、詳細については後述するが、輪郭抽出部202から入力される輪郭情報である画素値「1」と、輪郭情報以外の被写体に対応する部分である画素値「0」に基づき、画素値「0」の連続性から、分割する画素値「0」の領域を区別し、区別された画素値「0」を画像領域501〜504として分割する。詳細については、図10〜14を用いて後述する。
なお、本実施の形態においては、画像データ400が4つの画像領域501〜504に分割される例について説明するが、複数であればこれ以外の個数でもよい。
色設定部204は、領域分割部203から入力された複数の画像領域501〜504ごとに、それぞれ矩形領域4と対応付けられたフラグ値から構成されるフラグデータ601、602、603、604を作成する。すなわち、フラグデータ601〜604は、画像領域501〜504の情報を、矩形領域4に分割された画像データ400の分割形式に変換したデータであって、例えば、図6に示すとおり、フラグデータ601〜604は、複数の矩形領域4に対応する複数の矩形領域6を有し、この矩形領域6は、フラグ値「1」あるいは「0」で区別されている。
つまり、色設定部204は、複数の画像領域501〜504の被写体領域500Pに対応する部分の矩形領域6のフラグ値を「1」と、無画像領域500Nに対応する矩形領域6のフラグ値を「0」とする、フラグデータ601〜604を作成する。なお、画像領域501〜504の被写体領域500Pは、矩形領域6と必ずしも一致していない。このため、色設定部204は、被写体領域500Pと矩形領域6との対応する面積比が所定の閾値(例えば70%)以上である場合、この矩形領域6を被写体領域500Pと対応する部分であると判断し、フラグ値「1」とする。
また、色設定部204は、作成したフラグデータ601〜604の矩形領域6のフラグ値と、評価値演算部201から入力された各矩形領域4のフォーカス評価値とを対応付け、領域分割部203から入力された複数の画像領域501〜504ごとのフォーカス評価値を演算する。
例えば、色設定部204は、フラグデータ601とフォーカス評価値とを乗算し、フラグ値が「1」の矩形領域6[座標(6,1)、(6,2)、(6,3)]に対応する、画像データ400の矩形領域4のフォーカス評価値を算出する。色設定部204は、この算出されたフォーカス評価値を全て加算し、合計値をフラグ値「1」の矩形領域6の個数(3)で除算し、フラグデータ601の矩形領域6のフォーカス評価値の平均を算出することにより、画像領域501のフォーカス評価値を演算する。なお、このようにして得られたフラグデータ601〜604のフォーカス評価値の平均を、以下代表値という。
さらに、色設定部204は、演算された画像領域501〜504ごとのフォーカス評価値の代表値に基づき、画像領域501〜504ごとのフォーカス評価値レベルを判断し、フォーカス評価値レベルに応じて各画像領域501〜504を補正する。
例えば、色設定部204は、フォーカス評価値レベルに応じた色補正を複数の画像領域501〜504ごとに行い、フォーカス評価値レベルに応じた色が付与されたマスクデータ701、702、703、704を作成し、画像合成部205に出力する。
本実施形態において、画像領域501〜504間では、画像領域503のフォーカス評価値が最も高く(すなわち、焦点している被写体を含んでいる画像)、画像領域502のフォーカス評価値が最も低く(すなわち、最もピントが外れており、最もボケている画像)、画像領域501、504がこれら画像領域503と502のフォーカス評価値との間の値である。
よって、色設定部204は、これらフォーカス評価値の異なるマスクデータ701〜704には異なる色の補正をし、例えば、焦点している被写体を含むマスクデータ703は赤色に、最もピントが外れており最もぼけている被写体を含むマスクデータ702を青色に、これらの中間で、ややピントがぼけている被写体を含むマスクデータ704を黄色に、マスクデータ701よりもさらにピントがボケている被写体を含むマスクデータ701を緑色に補正する。
このように、色設定部204は、これら色補正の色を任意に決定できるが、焦点している焦点位置を含む被写体を第1の色(赤)に色補正し、この焦点位置以外の周辺領域においても、第1の色と異なり、フォーカス評価値レベルに応じて異なる第2の色(黄)、第3の色(緑)、第4の色(青)に色補正をする。これにより、色補正部204は、フォーカス評価値レベルに応じた補正をすることができる。
なお、マスクデータ703のように、フォーカス評価値が最大値(焦点位置)であるフォーカス評価値レベルをレベルAとし、マスクデータ701、704のように、フォーカス評価値が中間値であるフォーカス評価値レベルをそれぞれレベルB、Cとし、フォーカス評価値が最小値であるフォーカス評価レベルをレベルDとする。
また、本実施の形態において、マスクデータ704の方がフォーカス評価値が高く、すなわち、ボケ具合としてマスクデータ701よりぼけていない画像データであって、マスクデータ701とマスクデータ704とのフォーカス評価値レベルが異なる例について説明する。しかし、本発明はこれに限られず、例えば、マスクデータ701、704は、同じフォーカス評価値レベルであって、同じ色補正がなされるものであってもよい。
画像合成部205は、色設定部204から入力されたマスクデータ701〜704と、画像データ400を合成し、システムバス112を介して、表示制御部110に補正された画像データ800を出力する。画像データ800は、図8に示す通り、画像データ400の表面に色補正されたマスクデータ701〜704が合成されており、マスクデータ701〜704に対応する部分が色補正された色で、表示装置111に表示される。
次に、図3を用いて、輪郭抽出回路202について詳細に説明する。
図3に示す通り、輪郭抽出回路202は、BPF(バンドパスフィルタ)301と、平滑化フィルタ302と、2値化回路303とを備える。
BPF301は、特定の周波数帯域の周波数を通過させ、この周波数帯域以外の信号を減衰させる回路であって、画像データ400内で、周波数が大幅に変化している部分、すなわち輪郭部分を抽出する。
例えば、BPF301は、画像データ400を構成する複数の画素データを、周波数成分値に応じた画素データに変換し、隣り合う画素データ同士の周波数成分値を比較する。BPF301は、この周波数成分値の変化量の大きさに応じて、画像データ400を出力値「0」〜「255」で表される画素データに変換する。なお、この画素データの出力値は、その変化量が大きいほど、より出力値を「0」に近くし、変化量が小さいほど出力値を「255」に近くする。また、最終的には、出力値「0」の画素データが、2値化回路303によって画素値「1」に変換され、輪郭抽出回路202から輪郭情報として出力される。
平滑化フィルタ302は、BPF301から入力された画像データの出力値の変化量を滑らかにし、出力値「0」に近い画素データと、出力値「1」に近い画素データとの境界部分の変化量を減衰させた画像データを作成し、2値化回路303に出力する。
2値化回路303は、平滑化フィルタ302から入力された画像データの画素データを2値化された画素値に変換し、輪郭情報として領域分割部203に出力する。例えば、2値化回路303は、平滑化フィルタ302から入力された画像データの画素データの出力値が「128」未満の画素データを画素値「1」に、出力値が「129」以上の画素データを画素値「0」に変換して画像データを2値化し、画素値「1」の画素データを輪郭情報として出力する。
なお、輪郭抽出部202の構成として、バンドパスフィルタを含む例を用いて説明したが、これ以外にも、色検出を用いた輪郭検出等を用いる構成であってもよい。
次に、本実施の形態に係る撮像装置1の処理フローについて説明する。図9は、本実施の形態に係る撮像装置1の処理フローを示すフローチャートである。
図9に示す通り、固体撮像素子102から出力された撮像信号は、撮像部103とAD変換部104を介して画像データ400に変換され、画像処理部105に入力される。画像処理部105に入力された画像データ400は、評価値演算部201と輪郭抽出部202に出力される。
評価値演算部201は、入力された画像データ400を複数の矩形領域4(図4参照)に分割し、矩形領域4ごとのフォーカス評価値を算出し、色設定部204に出力する(ステップST1)。
一方、輪郭抽出部202は、入力された画像データ400に対して輪郭抽出処理をし、輪郭情報を抽出し、この輪郭情報および画像データ400を領域分割部203に出力する。領域分割部203は、輪郭抽出部202から入力された輪郭情報に基づき、入力された画像データ400を輪郭情報で区切られた複数の画像領域501〜504(図5参照)に分割し、色設定部204に出力する(ステップST2)。
色設定部204は、領域分割部203から入力された複数の画像領域501〜504ごとに、矩形領域4に対応する矩形領域6からなるフラグデータ601〜604を作成する(ステップST3)。
また、色設定部204は、作成したフラグデータ601〜604と、評価値演算部201から入力された各矩形領域4のフォーカス評価値とを対応付け、領域分割部203から入力された複数の画像領域501〜504ごとのフォーカス評価値を演算する。色設定部204は、この画像領域501〜504の平均を算出し、代表値とする(ステップST4)。
次いで、色設定部204は、画像領域501〜504ごとのフォーカス評価値の代表値に基づき、画像領域501〜504ごとのフォーカス評価値レベルを判断し、フォーカス評価値レベルに応じて各画像領域501〜504を補正する。色設定部204は、例えば、フォーカス評価値レベルに応じた色補正を複数の画像領域501〜504ごとに行い、フォーカス評価値レベルに応じた色が付与されたマスクデータ701〜704を作成し、画像合成部205に出力する(ステップST5)。
画像合成部205は、色設定部204から入力されたマスクデータ701〜704と、画像データ400を合成し、システムバス112を介して、表示制御部110に補正された画像データ800を出力する(ステップST6)。表示制御部110は、補正された画像データ800を表示装置110に応じたデジタル信号に変換し、表示装置111に出力する。そして表示装置111は、画像データ400を、マスクデータ701〜704に対応する部分が色補正された色で表示する。
次に、図10〜14を用いて、領域分割部203の画像領域501〜504の分割方法の一例について詳細に説明する。図10は、輪郭情報に基づき画素値で表された画像データ400の一例を示す概略図である。図11は、被写体領域500Pを検出する方法の一例を説明するための画像データ400の拡大図である。図12は、図11の方法により分割された分割領域と分割番号を示す概略図である。図13は、分割番号「1」の分割領域に基づき、画像領域501を生成するためのマスクデータの一例を示す概略図である。
輪郭抽出部201から出力された輪郭情報に基づく画像データは、図10に示すとおり、画素値「1」として「白抜き」で表された画素と、画素値「0」として「黒色」で表される。上述の通り、画素値「1」の画素が、輪郭情報に対応する領域であって、画素値「0」の画素が、輪郭以外の被写体に対応する領域である。
領域分割部203は、この白抜きの画素値「1」で表される輪郭情報で囲まれている(区別されている)黒色の画素値「0」の被写体領域500Pを検出し、検出された被写体領域に分割番号を付す。
例えば、領域分割部203は、図11に示す通り、画像データ400の紙面左上の画素から右方向に1ライン毎、画面の上から下に向かって、対象となる画素の左隣りにある画素および上にある画素との画素値をそれぞれ比較し、被写体領域500Pを検出する。
すなわち、領域分割部203は、画素P−11の画素値「0」と、左隣りの画素P−12の画素値「0」あるいは上の画素P−13の画素値「0」とをそれぞれ比較する。この場合、画素P−11は、左隣りの画素P−12の画素値および上の画素P−13の画素値と同じである。このため、領域分割部203は、画素P−11が、前回までに検出されていた分割領域と連続した領域に含まれる画素であると判断し、例えば分割番号「1」で表される分割領域S−1内の画素であると判断する。
また、領域分割部203は、画素P−21の画素値「0」と、左隣りの画素P−22の画素値「1」あるいは上の画素P−23の画素値「0」とをそれぞれ比較する。この場合、画素P−21は、左隣りの画素P−22の画素値とは異なり、上の画素P−23の画素値と同じである。このため、領域分割部203は、画素P−21が、分割領域S−1と連続した領域に含まれる画素であると判断するし、分割領域S−1内の画素とする。
また、領域分割部203は、画素P−31の画素値「0」と、左隣りの画素P−32の画素値「1」あるいは上の画素P−33の画素値「1」とをそれぞれ比較する。この場合、画素P−31は、左隣りの画素P−32の画素値および上の画素P−33の画素値と、ともに異なる。このため、領域分割部203は、画素P−31が、分割領域S−1と異なる分割番号「2」で表される分割領域S−2に含まれる画素であると判断する。このように、領域分割部203は、左隣りと上の画素がともに画素値「1」である輪郭情報を表す画素である場合、当該画素を、新たな分割領域の画素であると判断する。
また、領域分割部203は、画素P−41の画素値「0」と、左隣りの画素P−42の画素値「1」あるいは上の画素P−43の画素値「1」とをそれぞれ比較する。この場合、画素P−41は、左隣りの画素P−42の画素値および上の画素P−43の画素値と、ともに異なる。このため、領域分割部203は、画素P−41が、分割領域S−2と異なる分割番号「3」で表される分割領域S−3に含まれる画素であると判断する。
しかし、領域分割部203は、その後、画素P−51に対して左隣りの画素P−52および上の画素P−53との画素値の比較を行った際、上の画素P−53が既に分割領域S−1と判断されているため、画素P−51を分割領域S−1と連続した領域に含まれる画素であると判断する。
領域分割部203は、上述のように単一の画素P−51において、異なる2つ以上の分割領域S−1およびS−3の画素であると判断された場合、画像領域501〜504を作成する際に、例えば、これら2つの分割領域S−1およびS−3を同一の画像領域として処理する。また、領域分割部203は、後で検出された分割領域S−3の分割番号「3」を分割番号「1」と上書きすることにより、分割領域S−1に変換するものであってもよい。
領域分割部203は、画素値の比較により、画素値「0」の画素の分割領域が特定されると、図12に示すように、それぞれの分割領域に分割番号1〜7を付与する。
領域分割部203は、これら複数の分割領域に特定された画素の画素値を、分割番号ごとに変更し、図13に示すようなマスクデータを作成する。すなわち、領域分割部203は、分割番号1の分割領域S−1のマスクデータを作成する場合、分割領域S−1と判断された画素以外の画素値を「1」として、マスクデータを作成する。
領域分割部203は、このようにして作成されたマスクデータに基づく、画像領域501を作成する。また、同様にして、分割領域ごとのマスクデータを作成し、画像領域502〜504を作成する。
このように、領域分割部203は、画素値「0」の画素と、この画素の左と上にある画素との画素値を比較し、画素値「0」の画素の分割領域、すなわち輪郭情報である画素値「1」で分割された分割領域を特定し、特定された分割領域ごとのマスクデータで画像データ400をマスク処理することで、画像データ400を画像領域501〜504に分割する。
なお、上述において、領域分割部203は、4つの画像処理領域501〜504に分割する例を説明したが、本発明はこれに限られず、例えば、図12に示す通り、6つに分割するものであってもよい。
上述の通り、撮像装置1は、輪郭抽出部202の輪郭情報に基づき被写体に応じて分割された画像領域501〜504に基づき、この画像領域501〜504に対応するフォーカス評価値およびフォーカス評価値レベルを得ることができる。これにより、被写体ごとに応じた合焦状態や被写界深度を表示装置111に表示することができる。また、実際に撮影する自然画では、焦点状態の異なる被写体の境界部分は曲線で区切られ形状が複雑である場合が多いが、輪郭情報に基づき被写体ごとに合焦状態を表示することができるため、画像全体の合焦状態を容易に把握することができる。さらに、フォーカス評価値レベルごとに区別して表示される被写体と、表示部を介してユーザが把握する被写体との輪郭が大きくずれることがないため、ユーザは被写体ごとに合焦状態を容易に把握することができる。
また、撮像装置1は、画像データ400を複数の画像領域501〜504に分割し、これらを複数のフォーカス評価レベルと対応づけて、それぞれの合焦状態を表示装置111に表示している。つまり、撮像装置1は、合焦位置にある被写体の合焦状態をフォーカス評価値レベルのレベルAの補正により表示し、この被写体周辺のピントがあっていない部分の合焦状態をフォーカス評価値レベルのレベルB、レベルCあるいはレベルDの補正により表示する。これにより、撮像装置1は、合焦位置にある被写体の合焦状態、およびこの被写体周辺部のピントが合っていない部分のボケ具合を表す画像を、表示装置111に表示させることができる。よって、ユーザは、撮影時において、画像データ400の全体の合焦状態を容易に把握することができる。
さらに、撮像装置1は、画像領域501〜504ごとに、フォーカス評価値レベルに応じて異なる色補正をし、表示装置111に表示する。これにより、視認性の低い小さなビューファインダや背面モニターにより表示される場合であっても、ユーザは、色により区別された合焦状態やボケ具合を認識することができるため合焦を容易に把握することができる。
また、撮像装置1は、画像領域501〜504のフォーカス評価値レベルを判断する際に、オートフォーカス機構を利用する撮像装置1において既に利用されている評価値演算部201を利用することができる。このため、オートフォーカス機構を既に備えた撮像装置1では、既に搭載されている構成を利用することができ、構成の大幅な変更や新たな構成の追加等の負担が軽減され、低コスト化が図られる。
なお、フォーカス評価値レベルに応じて色補正された画像データを表示することにより、ユーザが、特定の被写体のみをくっきり撮影し、その他の背景部分をぼやかした写真を撮影したいと意図している場合には、画像全体が同じ色で表示されることにより、ユーザの意図する撮像条件が撮像装置1に設定されていないことを容易に把握することができる。
また、撮像装置1は、撮像素子から取得される画像データを撮像する装置であればよく、例えば、静止画を撮像するスチルカメラや、動画を撮像するビデオカメラ、あるいはカメラ一体型VTR等であってもよい。
また、本実施の形態において、図9のステップST1において、固体撮像素子102から出力される画像データのタイミングとしては、レリーズSW108が半押しされた際に出力された画像データであってもよく、レリーズSW108が半押しされる以前に、AFモードにおける焦点調整部106の自動焦点調整によって利用される画像データや、いわゆるスルー画像のデータであってもよい。
また、本実施の形態において、領域分割部203は、輪郭抽出部202によって抽出された輪郭情報に基づき、画像データ400を画像領域501〜504に分割する場合を説明したが、本発明はこれに限られず、例えば、輪郭抽出部202に代えて特徴抽出部(図示せず)を利用することができる。この特徴抽出部としては、色検出やモルフォロジー、顔認証機能等を利用して被写体の特徴を抽出できるものが利用できる。
また、本実施の形態において、評価値演算部201は、画像データ400からフォーカス評価値を演算する例を説明したが、本発明はこれに限られず、測距センサ(図示せず)を利用して、被写体との距離を計測し、この距離に基づきフォーカス評価値を演算する構成であってもよい。
また、本実施の形態において、色設定部204は、領域分割部203によって分割された画像領域501〜504に対して全て異なる色補正をする例を説明したが、本発明はこれに限られず、例えば、フォーカス評価値レベルが所定の中間レベルにあるレベルB、Cのマスクデータ701、704は、色補正をせずに出力値「0」とするものであってもよい。これにより、マスクデータ701、704と合成された画像データ400は、対応する部分については画像データ400の画像がそのまま表示される。
また、本実施の形態において、色設定部204は、フォーカス評価値レベルに応じて、画像領域501〜504に補正をする例を説明したが、本発明はこれに限られず、例えば、画像領域501〜504毎に、フォーカス評価値レベルに応じた透明度または輝度の補正をすることができる。
これは、例えば透明度を補正する場合、フォーカス評価値レベルのレベルAの画像領域は透明度の補正を行わず、フォーカス評価値レベルBからDへとフォーカス評価値が低下するに従って(すなわちピントがよりボケていくに従って)、画像の透明度が高くなる補正をすることができる。
また、例えば輝度を補正する場合、フォーカス評価値レベルのレベルAの画像領域は輝度を高く(表示を明るく)する補正をし、フォーカス評価値レベルBからDへとフォーカス評価値が低下するに従って、画像の輝度が低くなる(表示を暗く)補正をすることができる。
1 撮像装置
4 矩形領域(第2の画像領域)
101 レンズ群
102 固体撮像素子
103 撮像部
104 AD変換部
105 画像処理部
106 焦点調整部
107 CPU
108 レリーズSW
109 メモリ
110 表示制御部
111 表示装置
112 システムバス
113 記録制御部
114 記録装置
201 評価値演算部
202 輪郭抽出部
203 領域分割部
204 色設定部
205 画像合成部
301 BPF
302 平滑化フィルタ
303 2値化回路
400 画像データ
501〜504 画像領域(第1の画像領域)

Claims (6)

  1. 撮像素子から出力された画像データから輪郭情報を抽出する輪郭抽出部と、
    前記輪郭情報に基づいて前記画像データを複数の第1の画像領域に分割する領域分割部と、
    前記画像データの合焦状態を表すフォーカス評価値を演算する評価値演算部と、
    前記フォーカス評価値に基づき前記第1の画像領域毎に画像データを補正する画像補正部と、
    前記撮像素子から出力された画像データと前記補正された画像データを合成する画像合成部と、
    前記画像合成部で合成された画像データを表示する表示部と、
    を有することを特徴とする撮像装置。
  2. 前記評価値演算部は、
    前記画像データを複数の第2の画像領域に分割し、前記第2の画像領域毎に前記フォーカス評価値を演算し、
    前記画像補正部は、
    前記第2の画像領域のフォーカス評価値に基づき、前記第1の画像領域毎のフォーカス評価値を演算することを特徴とする請求項1に記載の撮像装置。
  3. 前記画像補正部は、
    前記第1の画像領域毎のフォーカス評価値に基づき、前記複数の第1の画像領域のフォーカス評価レベルを判断することを特徴とする請求項2に記載の撮像装置。
  4. 前記画像補正部は、
    前記第1の画像領域毎のフォーカス評価値に対応した色のマスクデータに基づき前記画像データを補正し、
    前記画像合成部は、
    撮像素子から出力された画像データの前記第1の画像領域に、前記マスクデータを合成することを特徴とする請求項2に記載の撮像装置。
  5. 前記複数の第2の画像領域は、
    前記画像データを構成する複数の矩形領域であることを特徴とする請求項2に記載の撮像装置。
  6. 前記画像補正部は、
    前記フォーカス評価値に基づき、前記第1の画像領域毎に前記画像データの透明度、輝度又は色を補正することを特徴とする請求項1に記載の撮像装置。
JP2009058468A 2009-03-11 2009-03-11 撮像装置 Withdrawn JP2010213105A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009058468A JP2010213105A (ja) 2009-03-11 2009-03-11 撮像装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009058468A JP2010213105A (ja) 2009-03-11 2009-03-11 撮像装置

Publications (1)

Publication Number Publication Date
JP2010213105A true JP2010213105A (ja) 2010-09-24

Family

ID=42972806

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009058468A Withdrawn JP2010213105A (ja) 2009-03-11 2009-03-11 撮像装置

Country Status (1)

Country Link
JP (1) JP2010213105A (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013074395A (ja) * 2011-09-27 2013-04-22 Ricoh Co Ltd 撮像装置
JP2017022565A (ja) * 2015-07-10 2017-01-26 キヤノン株式会社 画像処理装置及びその制御方法、並びにプログラム
JP2018507570A (ja) * 2014-12-05 2018-03-15 マイクロソフト テクノロジー ライセンシング,エルエルシー 仮想焦点フィードバック
WO2023204423A1 (ko) * 2022-04-21 2023-10-26 주식회사 케이랩 초점 거리 측정 장치 및 방법

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013074395A (ja) * 2011-09-27 2013-04-22 Ricoh Co Ltd 撮像装置
JP2018507570A (ja) * 2014-12-05 2018-03-15 マイクロソフト テクノロジー ライセンシング,エルエルシー 仮想焦点フィードバック
JP2017022565A (ja) * 2015-07-10 2017-01-26 キヤノン株式会社 画像処理装置及びその制御方法、並びにプログラム
WO2023204423A1 (ko) * 2022-04-21 2023-10-26 주식회사 케이랩 초점 거리 측정 장치 및 방법

Similar Documents

Publication Publication Date Title
JP5460173B2 (ja) 画像処理方法、画像処理装置、画像処理プログラム、撮像装置
US8311362B2 (en) Image processing apparatus, imaging apparatus, image processing method and recording medium
TWI444041B (zh) 影像處理裝置、影像處理方法及記錄媒體
US8890983B2 (en) Tone mapping for low-light video frame enhancement
TWI508555B (zh) 用於進行影像合成的影像處理設備和影像處理方法
JP5321163B2 (ja) 撮像装置及び撮像方法
JP5169318B2 (ja) 撮像装置、撮像方法
US9426437B2 (en) Image processor performing noise reduction processing, imaging apparatus equipped with the same, and image processing method for performing noise reduction processing
KR20150109177A (ko) 촬영 장치, 그 제어 방법, 및 컴퓨터 판독가능 기록매체
JP2010147786A (ja) 撮像装置及び画像処理方法
US10979620B2 (en) Image processing apparatus for providing information for focus adjustment, control method of the same, and storage medium
US10762600B2 (en) Image processing apparatus, image processing method, and non-transitory computer-readable recording medium
JP2003189325A (ja) 画像処理装置及びカラー画像撮像装置
JP2010213105A (ja) 撮像装置
JP5569617B2 (ja) 画像処理装置、及び、プログラム
JP5048599B2 (ja) 撮像装置
JP2008054115A (ja) 撮像装置及び撮像方法
JP5245648B2 (ja) 画像処理装置、及び、プログラム
JP5146015B2 (ja) 撮像装置及び撮像方法
JP5545596B2 (ja) 画像入力装置
US11108944B2 (en) Image processing apparatus for providing information for confirming depth range of image, control method of the same, and storage medium
JP2015041865A (ja) 画像処理装置及び画像処理方法
JP6316006B2 (ja) 被写体探索装置、その制御方法、および制御プログラム、並びに撮像装置
US20110187869A1 (en) Tracking-frame initial-position setting apparatus and method of controlling operation of same
JP6157274B2 (ja) 撮像装置、情報処理方法及びプログラム

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20120605