JP2015105996A - 画像処理装置および方法、並びにプログラム - Google Patents

画像処理装置および方法、並びにプログラム Download PDF

Info

Publication number
JP2015105996A
JP2015105996A JP2013247108A JP2013247108A JP2015105996A JP 2015105996 A JP2015105996 A JP 2015105996A JP 2013247108 A JP2013247108 A JP 2013247108A JP 2013247108 A JP2013247108 A JP 2013247108A JP 2015105996 A JP2015105996 A JP 2015105996A
Authority
JP
Japan
Prior art keywords
display
image
focus
area
processing unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2013247108A
Other languages
English (en)
Inventor
雅也 木下
Masaya Kinoshita
雅也 木下
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2013247108A priority Critical patent/JP2015105996A/ja
Priority to EP14865810.7A priority patent/EP3041219B1/en
Priority to PCT/JP2014/080321 priority patent/WO2015079945A1/ja
Publication of JP2015105996A publication Critical patent/JP2015105996A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B13/00Viewfinders; Focusing aids for cameras; Means for focusing for cameras; Autofocus systems for cameras
    • G03B13/32Means for focusing
    • G03B13/34Power focusing
    • G03B13/36Autofocus systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/633Control of cameras or camera modules by using electronic viewfinders for displaying additional information relating to control or operation of the camera
    • H04N23/635Region indicators; Field of view indicators
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B17/00Details of cameras or camera bodies; Accessories therefor
    • G03B17/18Signals indicating condition of a camera member or suitability of light
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/64Computer-aided capture of images, e.g. transfer from script file into camera, check of taken image quality, advice or proposal for image composition or decision on when to take image
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/2621Cameras specially adapted for the electronic generation of special effects during image pickup, e.g. digital cameras, camcorders, video cameras having integrated special effects capability
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/2628Alteration of picture size, shape, position or orientation, e.g. zooming, rotation, rolling, perspective, translation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Studio Devices (AREA)
  • Focusing (AREA)
  • Automatic Focus Adjustment (AREA)

Abstract

【課題】より簡単に撮影後の画像のピント具合を確認することができるようにする。
【解決手段】合焦領域判定処理部は、撮影画像に基づいて、撮影画像の各領域の合焦度合いを示す合焦スコアを算出する。表示制御処理部は、各領域の合焦スコアに基づいて撮影画像上の合焦スコアの高い領域を表示中心位置とする。表示用処理部は、撮影画像上の表示中心位置を中心とする所定領域を切り出して拡大表示画像とし、表示部に表示させる。これにより、最もピントの合った領域を中心に撮影画像の一部を拡大した画像が表示される。本技術は、デジタルスチルカメラに適用することができる。
【選択図】図2

Description

本技術は画像処理装置および方法、並びにプログラムに関し、特に、より簡単に撮影後の画像のピント具合を確認することができるようにした画像処理装置および方法、並びにプログラムに関する。
近年のデジタルカメラや、デジタルカメラを搭載したモバイルフォンでは、撮像素子、すなわち記録画素の高画素化が進むと同時に、撮影画像を確認するために搭載されている表示装置もその高サイズ化、多画素化が進んでいる。
ところが、撮像素子(記録画素)の高画素化と比較すると、一般的に搭載されている表示装置の画素数は十分とはいえない状況にある。
そのため、撮影直後に再生機能を利用して撮影した画像を確認し、ピントが合っていると判断しても、例えば自宅に戻りテレビジョン受像機やパーソナルコンピュータ等の大画面モニタに表示させたり、あるいはプリンタで大きいサイズに引き延ばして印刷してみたりすると、実際にはピントがボケていてがっかりしてしまうといった事象が良く起きる。
これに対し、近年ではデジタルカメラ等において、再生時に電子ズームの機能を使って所望の位置を拡大(トリミング)して再生表示するといった機能が登場している。これを使えば撮影直後にユーザ自身が画像の所望の位置を選択し、拡大表示することができるので、搭載されている表示装置でも狭範囲ながら子細なピント具合を確認することができる。
しかしながら、上記機能の多くは画面中央を中心とした拡大表示を基本とし、ユーザ自身が表示位置を中心から所望の位置まで何らかのUI(User Interface)操作を施しながら移動させるため、実際にピント具合を確認するまでに多くの手間がかかってしまう。
そこで、撮影直前のスルー画像におけるAF(Autofocus)情報を使って、フォーカス(ピント)を合わせようとしている部分を中心に自動的に拡大表示をして、ユーザがピント具合をチェックした後、シャッタ操作を行うようにする技術が提案されている(例えば、特許文献1参照)。
また、被写体の顔を検出し、検出された顔にフォーカス(ピント)を合わせたうえで、撮影直前または直後に、その顔の位置を中心として拡大表示をし、撮影直前または直後のピント具合をチェックすることができるようにする技術も提案されている(例えば、特許文献2参照)。
特許第4380644号公報 特許第4939203号公報
しかしながら上述した技術では、フォーカス(ピント)を合わせようとしている領域を中心に拡大表示が行われるため、結果としてピントが合っている部分が中心に拡大されるわけではない。特にコントラスト方式等のオートフォーカスでは、フォーカス(ピント)を合わせようとしている領域は比較的広い面積を持つため、最もピントが合っている部分を中心とした表示とはならない。したがって、ユーザは画像上のどの領域にピントが合っているかを確認することが困難であった。
さらに、マニュアルフォーカス撮影の場合には、カメラ等の機器にはフォーカスターゲットが不明であるため、一部の領域を拡大表示させるときには、ユーザのUI操作による表示位置移動操作が必要となってしまい、面倒であった。また、特許文献2では、被写体として顔を含まない場合や、顔以外のものにピントを合わせたい場合には、ユーザがピント具合を確認しようとすると面倒な操作が必要となってしまう。
本技術は、このような状況に鑑みてなされたものであり、より簡単に撮影後の画像のピント具合を確認することができるようにするものである。
本技術の一側面の画像処理装置は、撮影画像に基づいて、前記撮影画像の各領域の合焦度合いを示す合焦スコアを算出する合焦領域判定処理部と、前記合焦スコアに基づいて、前記撮影画像上の最もピントが合っている領域を表示中心位置として検出する表示制御処理部と、前記撮影画像上の前記表示中心位置を含む所定の大きさの領域を切り出して拡大表示画像を生成する表示用処理部とを備える。
前記表示用処理部には、前記表示中心位置を中心とする前記拡大表示画像を生成させることができる。
前記表示制御処理部には、前記撮影画像の撮影時にフォーカス対象とされたフォーカス領域を含む判定対象領域内の各領域の前記合焦スコアに基づいて、前記判定対象領域から前記表示中心位置を検出させることができる。
前記合焦領域判定処理部には、前記撮影画像上の前記判定対象領域のみを対象として前記合焦スコアの算出を行わせることができる。
画像処理装置には、前記拡大表示画像を表示する表示部をさらに設けることができる。
前記表示制御処理部には、前記合焦スコアが最も高い領域を前記表示中心位置とさせることができる。
前記表示制御処理部には、前記撮影画像上の複数の領域を前記表示中心位置とさせ、前記表示用処理部には、複数の前記表示中心位置ごとに前記拡大表示画像を生成させることができる。
複数の前記拡大表示画像が、前記合焦スコアの高いものから順番に表示されるようにすることができる。
本技術の一側面の画像処理方法またはプログラムは、撮影画像に基づいて、前記撮影画像の各領域の合焦度合いを示す合焦スコアを算出し、前記合焦スコアに基づいて、前記撮影画像上の最もピントが合っている領域を表示中心位置として検出し、前記撮影画像上の前記表示中心位置を含む所定の大きさの領域を切り出して拡大表示画像を生成するステップを含む。
本技術の一側面においては、撮影画像に基づいて、前記撮影画像の各領域の合焦度合いを示す合焦スコアが算出され、前記合焦スコアに基づいて、前記撮影画像上の最もピントが合っている領域が表示中心位置として検出され、前記撮影画像上の前記表示中心位置を含む所定の大きさの領域が切り出されて拡大表示画像が生成される。
本技術の一側面によれば、より簡単に撮影後の画像のピント具合を確認することができる。
なお、ここに記載された効果は必ずしも限定されるものではなく、本開示中に記載された何れかの効果であってもよい。
撮像装置の外観の構成例を示す図である。 撮像装置の機能の構成例を示す図である。 撮影処理について説明する図である。 拡大再生処理について説明する図である。 撮影処理を説明するフローチャートである。 拡大再生処理を説明するフローチャートである。 撮影処理について説明する図である。 拡大再生処理について説明する図である。 撮影処理を説明するフローチャートである。 拡大再生処理を説明するフローチャートである。 拡大再生処理を説明するフローチャートである。 拡大再生処理について説明する図である。 拡大再生処理を説明するフローチャートである。 多機能型携帯電話機の外観の構成例を示す図である。 多機能型携帯電話機の機能の構成例を示す図である。 撮影処理を説明するフローチャートである。 拡大再生処理を説明するフローチャートである。 ウェアラブルカメラの外観の構成例を示す図である。 ウェアラブルカメラの機能の構成例を示す図である。 撮影処理を説明するフローチャートである。 拡大表示画像生成処理を説明するフローチャートである。 再生処理を説明するフローチャートである。 コンピュータの構成例を示す図である。
以下、図面を参照して、本技術を適用した実施の形態について説明する。
〈第1の実施の形態〉
〈撮像装置の外観の構成例〉
まず、本技術の概要について説明する。
本技術は、オートフォーカス撮影であるか、マニュアル撮影であるかによらず、被写体の撮影後に、得られた画像のピント具合を、撮影者であるユーザが小さな表示画面でもより簡単に、かつ直感的に確認することができるようにするものである。
ユーザがより簡単かつ直感的に画像のピント具合を確認することができるようになれば、これまでピント具合の確認操作が面倒で、ピントずれに気付かなかったことによる撮影機会の損失も減少させることができるようになる。また、本技術によれば、ユーザは、ユーザがピントを合わせようとした部分と、撮影の結果としてピントが合った部分とがずれているかどうかも確認することができるようになる。
本技術は、デジタルスチルカメラや、デジタルビデオカメラ、カメラ機能を有する多機能型携帯電話機、ウェアラブルカメラなど、画像を撮影可能な機器全般に適用可能である。以下においては、まず本技術をデジタルスチルカメラに適用した例について説明する。
図1は、本技術を適用した撮像装置の外観の構成例を示す図である。
撮像装置11はデジタルスチルカメラからなり、図1では矢印A11に示す図は撮像装置11を表面側から見た図であり、矢印A12に示す図は撮像装置11を裏面側から見た図である。
撮像装置11の表面には、被写体から入射してくる光を図示せぬイメージャへと導く光学系21が設けられており、ユーザは光学系21を所望の被写体に向けて撮影を行う。
また、撮像装置11の上面には、シャッタボタン22およびダイヤル23が設けられており、撮像装置11の裏面には、再生ボタン24やダイヤル25が設けられている。ユーザは、これらのシャッタボタン22乃至ダイヤル25等を操作しながら撮影や再生などの作業を行う。
さらに、撮像装置11の裏面には、液晶パネル等からなる表示部26も設けられており、ユーザは表示部26に表示される画像等を見て、撮影された画像や、その画像のピント具合などを確認することができる。
〈撮像装置の機能の構成例〉
また、図1に示した撮像装置11の機能の構成は、例えば図2に示す構成とされる。なお、図2において、図1における場合と対応する部分には同一の符号を付してあり、その説明は適宜省略する。
図2の撮像装置11は、光学系21、イメージャ51、デジタル信号処理LSI(Large Scale Integration)52、ユーザインターフェース53、制御部54、レンズ駆動用ドライバIC(Integrated Circuit)55、手ぶれセンサ56、記録部57、および表示部26を有している。
光学系21は、ズームレンズやフォーカスレンズ等の複数のレンズや絞り機構などからなり、被写体から入射した光をイメージャ51の受光面に集光する。
イメージャ51は、例えばCCD(Charge Coupled Devices)やCMOS(Complementary Metal Oxide Semiconductor)などの撮像素子からなる。イメージャ51は、光学系21から入射した光を受光して光電変換し、その結果得られた撮影画像、より詳細には撮影画像の画像データをデジタル信号処理LSI52に供給する。
デジタル信号処理LSI52は、イメージャ51から供給された撮影画像に各種の信号処理を施す。デジタル信号処理LSI52は、プリ処理部61、同時化部62、YC生成部63、解像度変換部64、CODEC65、AF検波処理部66、合焦領域判定処理部67、メモリ68、および表示用処理部69を備えている。
プリ処理部61は、撮影画像に対してクランプ処理や欠陥画素補正処理などを施す。同時化部62は、欠陥画素補正処理等が施された撮影画像の各画素がR,G,Bの各色成分を有するように撮影画像に対するデモザイク処理を行う。
YC生成部63は、デモザイク処理された撮影画像から、輝度信号と色信号を生成する。解像度変換部64は、撮影画像に対する解像度変換を行う。CODEC65は、解像度変換された撮影画像に対して符号化処理を行ったり、符号化された撮影画像を復号したりする。
AF検波処理部66は、オートフォーカス動作を行うときに、必要に応じて撮影画像等を用いて、オートフォーカスの状態を示す評価値を算出する。合焦領域判定処理部67は、デモザイク処理された撮影画像に基づいて合焦領域判定処理を行い、撮影画像の各領域における合焦の度合いを示す合焦スコアを算出する。
メモリ68は、プリ処理部61乃至解像度変換部64の一部または全部により適宜処理された撮影画像(以下、現像処理された撮影画像とも称する)などを一時的に記録する。表示用処理部69は、例えば撮影画像を表示部26に表示可能なフォーマットに変換し、表示部26に供給する。
ユーザインターフェース53は、例えば図1に示したシャッタボタン22乃至ダイヤル25や、表示部26に重畳されているタッチパネルなどからなり、ユーザの操作に応じた信号を制御部54に供給する。
制御部54は、撮像装置11全体の動作を制御する。例えば、制御部54は、イメージャ51による撮影画像の撮影を制御する。また、制御部54は、手ぶれセンサ56の出力に基づいて、レンズ駆動用ドライバIC55を制御し、光学系21のレンズを移動させて光学的な手ぶれ補正を行ったり、レンズ駆動用ドライバIC55を制御して光学系21の絞り機構を駆動させたりする。
さらに制御部54は、表示制御処理部70およびフォーカスレンズ制御処理部71を備えている。表示制御処理部70は、デジタル信号処理LSI52の各部に撮影画像の表示に関する処理の実行を指示する。フォーカスレンズ制御処理部71は、AF検波処理部66から供給された評価値に基づいてレンズ駆動用ドライバIC55を制御し、フォーカス動作を実行させる。
レンズ駆動用ドライバIC55は、制御部54の制御に従って光学系21を構成するフォーカスレンズ等を移動させてフォーカス動作を実行したり、絞り機構の駆動や光学手ぶれ補正を行ったりする。手ぶれセンサ56は、例えばジャイロセンサからなり、撮像装置11の動きを検出して制御部54に供給する。
記録部57は、例えば撮像装置11に着脱可能なリムーバブルメディアからなり、デジタル信号処理LSI52から供給された撮影画像等のデータを記録したり、記録しているデータをデジタル信号処理LSI52に供給したりする。
〈撮像装置の処理の概要〉
続いて、図3および図4を参照して、撮像装置11の処理の概要について説明する。なお、この例では、オートフォーカス撮影が行われる。
例えば図3に示すように、撮影動作が開始されると、イメージャ51は、光学系21を介して入射する光を受光して光電変換する。これにより各時刻、すなわち各フレームの撮影画像F11乃至撮影画像F16が得られる。
ここで、撮影画像F11乃至撮影画像F16のうち、図中、手前側にあるものほど後の時刻、つまり現在時刻により近い時刻に撮影された撮影画像となっている。したがって、この例では、最初に撮影されたものが撮影画像F11であり、最後に撮影されたものが撮影画像F16となっている。
このような各フレームの撮影画像の撮影時には、AF検波処理部66は、各フレームの撮影画像に基づいてオートフォーカスの状態を示す評価値を算出し、制御部54に供給する。制御部54のフォーカスレンズ制御処理部71は、AF検波処理部66から供給された評価値に基づいてレンズ駆動用ドライバIC55を制御し、フォーカス動作を実行させる。
これにより、レンズ駆動用ドライバIC55によって光学系21のフォーカスレンズ等が駆動され、被写体にピントが合う状態とされる。
また、各フレームの撮影画像F11乃至撮影画像F16が得られると、順次、これらの撮影画像に対して現像処理が行われ、その結果得られた撮影画像R11乃至撮影画像R16が撮影時のスルー画像として表示部26に順番に表示される。
ユーザは、表示部26に表示されたスルー画像を見ながら被写体を確認し、シャッタボタン22等を操作して、撮影を行う。
この例では、ユーザは矢印Q11に示すように、撮影画像F13の取り込み時(撮影時)にシャッタボタン22を半押している。そのため、撮影画像F13に対応するスルー画像である撮影画像R13と、それ以降のフレームの撮影画像R14および撮影画像R15とには、オートフォーカスのターゲットの枠FR11が表示されている。
この枠FR11は、フォーカスレンズ制御処理部71がフォーカスを合わせようとする領域を示す枠の画像であり、撮影画像上の被写体の大きさに応じて、各フレームにおける枠FR11の大きさも変化する。
ユーザは、枠FR11内の被写体にフォーカス(ピント)が合った状態となったと判断すると、シャッタボタン22を全押しして、つまり半押しの状態よりもより深くシャッタボタン22を押し込んで、画像の撮影を指示する。
この例では、矢印Q12に示すように、撮影画像F16の取り込み時にシャッタボタン22が全押しされているので、撮影画像F16を現像処理して得られた撮影画像R16が、撮影により得られた画像としてキャプチャされる。
このようにして撮影された撮影画像R16は、図中、右下に示すようにメモリ68に保持された後、記録部57に記録されるとともに、撮影後のプレビュー画像として表示部26に表示される。ここで、プレビュー画像とは、撮影の直後に、ユーザが撮影した画像を確認するために表示される画像である。
以上のように撮影画像R16がプレビュー画像として表示された状態で、例えば図4の左下部分の矢印Q21に示すように、ユーザがユーザインターフェース53に対する操作を行い、拡大表示を指示したとする。
すると、撮像装置11では、撮影した撮影画像R16のピントが合っている部分を中心として拡大表示を行う拡大再生処理が行われる。
なお、拡大再生処理は、ユーザにより指示されたときに行われる他、メニュー設定等により、自動的に開始されるようにしてもよい。そのような場合、例えばプレビュー画像が表示されてから、所定時間が経過した後、自動的に拡大再生処理が開始されるようにすればよい。
拡大再生処理が開始されると、まず、処理対象となっている撮影画像R16が、必要に応じて記録部57から読み出され、メモリ68に供給される。なお、撮影直後に拡大再生処理が行われる場合には、撮影画像R16はすでにメモリ68に保持されているため、撮影画像R16のロードは不要である。
撮影画像R16がメモリ68に保持された状態とされると、制御部54の表示制御処理部70は、合焦領域判定処理部67に合焦領域判定処理の実行を指示する。
すると、合焦領域判定処理部67は、メモリ68から撮影画像R16を読み出して、撮影画像R16に対する合焦領域判定処理を行う。
合焦領域判定処理では、例えば矢印Q22に示すように撮影画像R16が、図中、横方向にM分割、縦方向にN分割される。つまり、撮影画像R16全体がM×N個の領域に分割される。そして、M×N個の各領域について、合焦の度合いを示す合焦スコアが算出され、各領域の合焦スコアが合焦領域判定処理の結果として表示制御処理部70に供給される。
表示制御処理部70は、各領域の合焦スコアに基づいて、矢印Q23に示すように、最も合焦スコアが高い領域、つまり最も合焦の度合いが高くピントが合っている1つの領域を、拡大表示の中心となる表示中心位置として選択する。なお、1つの四角形は1つの分割された領域を表しており、その四角形内の数値は合焦スコアを表している。
この例では、座標(Xp,Yp)により特定される領域が、表示中心位置として選択されている。このようにして得られた表示中心位置の領域が、撮影画像R16において最もピントが合っている領域である。
表示制御処理部70は、表示用処理部69に対して、求めた表示中心位置を中心とする撮影画像R16の拡大表示画像の表示を指示する。
すると、表示用処理部69は、解像度変換部64による解像度変換によって拡大された撮影画像R16から、座標(Xp,Yp)の位置を中心とする拡大表示画像E11を生成し、表示部26に供給して表示させる。これにより、図中、右下に示されるように表示部26に拡大表示画像E11が表示される。なお、拡大表示画像E11において、点線で表される各領域は、合焦領域判定処理時に合焦スコアが算出された各領域を表すものであり、実際には拡大表示画像E11には表示されない。
拡大表示画像E11は、座標(Xp,Yp)の位置を中心とする撮影画像R16上の所定の大きさの領域を拡大した画像である。すなわち、撮影画像R16において最もピントが合っている領域周辺の画像である。したがって、ユーザは、拡大表示画像E11を見ることで、最もピントが合っている部分のピント具合、すなわち十分にピントが合っているかどうかを簡単かつ直感的に確認することができる。
〈撮影処理の説明〉
次に、以上において説明した撮像装置11の具体的な動作について説明する。
まず、図5のフローチャートを参照して、撮像装置11による撮影処理について説明する。
ステップS11において、イメージャ51は、撮影画像を撮影する。
具体的には、イメージャ51は、光学系21を介して被写体から入射した光を受光して光電変換し、その結果得られた撮影画像をデジタル信号処理LSI52に供給する。プリ処理部61や同時化部62等のデジタル信号処理LSI52を構成する各部は、イメージャ51から供給された撮影画像に対して各種の処理を施して撮影画像の現像を行う。
また、現像処理された撮影画像は、表示用処理部69により表示部26に供給され、表示される。すなわち、現像処理された撮影画像がスルー画像として表示される。さらに、AF検波処理部66は、必要に応じて撮影画像や、イメージャ51等で取得されたフォーカス動作のための情報に基づいて、オートフォーカスの状態の評価値を算出し、フォーカスレンズ制御処理部71に供給する。
ステップS12において、フォーカスレンズ制御処理部71は、AF検波処理部66から供給された評価値に基づいてレンズ駆動用ドライバIC55を制御し、フォーカス動作を実行させる。
ステップS13において、制御部54は、ユーザインターフェース53としてのシャッタボタン22から供給される信号に基づいて、シャッタボタン22が押されたか否かを判定する。例えば、シャッタボタン22が全押しされて撮影が指示されると、シャッタボタン22が押されたと判定される。
ステップS13において、シャッタボタン22が押されていないと判定された場合、処理はステップS11に戻り、上述した処理が繰り返される。
これに対して、ステップS13において、シャッタボタン22が押されたと判定された場合、ステップS14において、デジタル信号処理LSI52は、制御部54の制御に従って現像処理された撮影画像をキャプチャする。
すなわち、デジタル信号処理LSI52は、現像処理された撮影画像を、撮影された撮影画像としてメモリ68に供給し、保持させる。
このようにして撮影画像が撮影されると、撮影処理は終了する。
以上のようにして撮影画像が得られると、得られた撮影画像は表示用処理部69により表示部26に供給され、プレビュー画像として表示される。また、撮影画像は、適切なタイミングで、適宜CODEC65により符号化されて記録部57に記録される。
〈拡大再生処理の説明〉
また、プレビュー画像が表示されている状態等において、ユーザがユーザインターフェース53を操作して拡大表示画像の表示を指示した場合や、拡大再生処理が自動的に開始される設定となっている状態で、プレビュー画像が所定時間表示された場合、拡大再生処理が開始される。以下、図6のフローチャートを参照して、撮像装置11による拡大再生処理について説明する。
ステップS41において、表示制御処理部70は、合焦領域判定処理部67に合焦領域判定処理の実行を指示する。
ステップS42において、合焦領域判定処理部67は、表示制御処理部70の指示に応じてメモリ68から撮影画像を読み出して、合焦領域判定処理を行う。
例えば、合焦領域判定処理部67は、撮影画像をM×N個の領域に分割し、分割された各領域について、領域内の各画素の輝度信号を生成する。例えば輝度信号はYC生成部63が生成するようにしてもよい。
また、合焦領域判定処理部67は、分割された領域内の各画素の輝度信号に対してハイパスフィルタ等を用いたフィルタ処理を施して高域成分を抽出し、得られた高域成分を絶対値化する。さらに、合焦領域判定処理部67は、分割された領域内の各画素について得られた高域成分の絶対値に対して高域成分ノイズ除去とリミッタ処理を行った後、領域内の各画素の高域成分の絶対値を積分することで、分割された領域の合焦スコアを算出する。すなわち、分割された領域内の各画素の高域成分の絶対値の総和が、その領域の合焦スコアとされる。
撮影画像では、ピントが合っている領域、つまり合焦の度合いの高い領域ではエッジ成分が顕著に表れることから、ピントが合っている領域ほど、高域成分の積算値である合焦スコアが大きい値となる。
合焦領域判定処理部67は、このようにして得られた撮影画像の各領域の合焦スコアを、合焦領域判定処理の結果として表示制御処理部70に供給する。
なお、合焦領域判定処理は、以上において説明した処理に限らず、撮影画像の各領域の合焦度合いが得られるものであれば、どのような処理であってもよい。
例えば、ピントが合っている学習画像と、ピントが合っていない、ぶれやぼけが生じた学習画像とを用いた機械学習により得られた識別器(辞書)が用いられて、撮影画像の各領域の合焦スコアが求められてもよい。そのような場合、合焦領域判定処理部67は、撮影画像の各領域から特徴量を抽出するとともに、各領域の特徴量を識別器に代入して演算を行い、その結果得られた値を各領域の合焦スコアとする。
ステップS43において、表示制御処理部70は、合焦領域判定処理部67から、合焦領域判定処理の結果として撮影画像の各領域の合焦スコアを取得する。
ステップS44において、表示制御処理部70は、取得した各領域の合焦スコアに基づいて、表示中心位置を求める。
例えば、表示制御処理部70は撮影画像上のM×N個の各領域のうち、合焦スコアが最も大きい(高い)領域を表示中心位置とする。すなわち、合焦スコアが最も大きい領域の位置を示す座標(Xp,Yp)が、表示中心位置とされる。表示中心位置を求める処理は、撮影画像から最もピントが合っている領域を検出する処理であるということができる。
ステップS45において、表示制御処理部70は、ユーザインターフェース53からオフセット量を取得する。
例えば、表示部26に拡大表示画像が表示されている場合、ユーザはユーザインターフェース53を操作することで、拡大表示画像の中心位置を上下左右に移動させることができる。ユーザがユーザインターフェース53を操作して、拡大表示画像の中心位置の移動量(Xofst,Yofst)を入力すると、表示制御処理部70は、ユーザインターフェース53から、ユーザにより入力された移動量(Xofst,Yofst)を、オフセット量として取得する。
ステップS46において、表示制御処理部70は、取得したオフセット量に基づいて表示中心位置を補正する。
具体的には、表示制御処理部70は、オフセット量だけ表示中心位置を移動させることで、表示中心位置を補正する。したがって、補正前の表示中心位置(Xp,Yp)がオフセット量(Xofst,Yofst)だけ移動され、補正後の表示中心位置(Xc,Yc)=(Xp+Xofst,Yp+Yofst)とされる。
ステップS47において、表示制御処理部70は、表示中心位置(Xc,Yc)と、所定の表示倍率とを指定して、表示用処理部69に拡大表示画像の生成を指示する。
ステップS48において、表示用処理部69は、表示制御処理部70の指示に応じて拡大表示画像を生成し、表示部26に表示させる。
例えば表示用処理部69は、メモリ68に保持されている撮影画像に対する、表示制御処理部70により指定された表示倍率に応じた解像度変換を解像度変換部64に指示する。そして、表示用処理部69は、解像度変換により得られた撮影画像から、表示中心位置(Xc,Yc)を中心とする、表示部26の画面サイズにより定まる大きさの領域を切り出して、拡大表示画像とする。表示用処理部69は、このようにして得られた拡大表示画像を表示部26に供給して表示させる。
ステップS49において、表示制御処理部70は、拡大表示画像の表示を終了するか否かを判定する。例えば、ユーザにより表示の終了が指示された場合、拡大表示画像が表示されてから、予め定められた所定時間が経過した場合などに拡大表示画像の表示を終了すると判定される。
ステップS49において、拡大表示画像の表示を終了しないと判定された場合、処理はステップS45に戻り、上述した処理が繰り返し行われる。
これに対して、ステップS49において拡大表示画像の表示を終了すると判定された場合、表示制御処理部70は、表示用処理部69に表示終了を指示し、拡大表示画像の表示が終了される。拡大表示画像の表示が終了すると、拡大再生処理は終了する。
以上のようにして、撮像装置11は、撮影により得られた撮影画像に対して合焦領域判定処理を行って、最もピントが合っている領域を検出し、検出の結果得られた領域の位置を、表示中心位置とする。そして、撮像装置11は、表示中心位置を中心とする撮影画像の所定の領域を拡大表示画像として表示させる。
このように、最もピントの合った領域を検出し、検出された領域を表示中心とする拡大表示画像を生成することで、ユーザは、撮影後、より簡単かつ直感的に撮影画像のピント具合を確認することができる。
例えば撮像装置11によれば、最もピントがあっている部分が画面中心に表示されるので、ユーザは、画面中心にピントを合わせたかった部分が表示されているかどうかで、直感的に狙った部分にピントが合っているかを知ることができる。また、最もピントがあっている部分が画面中心に表示されるので、ユーザは、所望の領域のピント具合が十分であるかを直ぐに確認することができる。
特に撮像装置11では、撮影前ではなく撮影後にピント具合を確認することができるので、撮影の結果として得られた撮影画像が十分なものであるかを知ることができる。すなわち、撮影前に十分に時間をかけてピント具合を確認した後、撮影を行ったが、実際に得られた撮影画像ではピントが合っていなかったといったことが生じることもない。
例えば、ユーザがピント具合等が十分でないと感じた場合には、すぐに画像の撮り直しをすることができ、撮影機会の損失を防止することができる。
また、撮像装置11では、撮影により得られた撮影画像に対して合焦領域判定処理が行われて拡大表示画像が生成される。そのため、オートフォーカスでの撮影であるか、マニュアルフォーカスの撮影であるかによらず、合焦領域付近が拡大表示される。したがって、撮影方法やフォーカスを合わせる方法などによらず、より簡単かつ直感的に撮影画像のピント具合を確認することができる。
〈第2の実施の形態〉
〈撮像装置の処理の概要〉
なお、以上においては撮影画像の分割された各領域の合焦スコアを全て用いて、表示中心位置を検出する例について説明したが、オートフォーカスで撮影画像を撮影するときには、撮影時に得られる情報を利用すれば、より効率的に表示中心位置を得ることができる。
そのような場合、例えば図7および図8に示すように、撮影処理および拡大再生処理が行われる。なお、図7および図8において、図3および図4における場合と対応する部分には同一の符号を付してあり、その説明は適宜省略する。
例えば図7に示すように、撮影動作が開始されると撮影画像F11乃至撮影画像F16が撮影され、これらの撮影画像に対する現像処理が行われて撮影画像R11乃至撮影画像R16が得られる。
そして、矢印Q12に示すように、撮影画像F16の取り込み時にシャッタボタン22が全押しされると、撮影画像F16を現像処理して得られた撮影画像R16が、撮影により得られた画像としてキャプチャされる。
このとき、撮像装置11では、撮影画像R16がメモリ68に保持されるが、撮影画像R16とともに、撮影画像F16の撮影時にオートフォーカスにおける合焦(フォーカス)の対象とされた領域、つまりAFターゲットの領域を示す情報もAF領域情報としてメモリ68に保持される。
例えば、コントラスト方式によりフォーカス動作が行われる場合には、フォーカスレンズ制御処理部71により定められた、AFターゲットの領域、すなわちオートフォーカスのターゲットの枠FR11の領域を示す情報がAF領域情報とされる。
また、例えば位相差センサ方式によりフォーカス動作が行われる場合には、予め定められた複数のAFポイントのうち、撮影画像F16の撮影時に、フォーカスを合わせる位置として選択されたAFポイントを示す情報がAF領域情報とされる。
さらに図7の例では、メモリ68には、AF領域情報に加えて、AF領域情報が格納されたEXIF(Exchangeable Image File Format)データも保持されている。このEXIFデータは、撮影画像R16のメタデータとして付加されるデータであり、例えばAF領域情報は、EXIFデータの自由領域に記録される。
以上のようにして撮影画像R16、AF領域情報、およびEXIFデータがメモリ68に保持されると、その後、適切なタイミングで、撮影画像R16にEXIFデータが付加されて、EXIFデータが付加された撮影画像R16が記録部57に記録される。また、撮影画像R16が、撮影後のプレビュー画像として表示部26に表示される。
撮影画像R16がプレビュー画像として表示された状態で、例えば図8の左下部分の矢印Q21に示すように、ユーザがユーザインターフェース53に対する操作を行い、拡大表示を指示すると、撮像装置11では拡大再生処理が行われる。なお、拡大再生処理は、メニュー設定等により、自動的に開始されるようにしてもよい。
拡大再生処理が開始されると、まず、処理対象となっている撮影画像R16が、必要に応じて記録部57から読み出され、メモリ68に供給される。なお、撮影直後に拡大再生処理が行われる場合には、撮影画像R16はすでにメモリ68に保持されているため、撮影画像R16のロードは不要である。この場合、メモリ68には、AF領域情報とEXIFデータも保持されている。
次に、表示制御処理部70は、合焦領域判定処理部67に合焦領域判定処理の実行を指示し、合焦領域判定処理部67は、メモリ68から撮影画像R16を読み出して合焦領域判定処理を行う。
合焦領域判定処理では、例えば矢印Q22に示すように撮影画像R16が、M×N個の領域に分割され、各領域について合焦スコアが算出される。
続いて、表示制御処理部70は、矢印Q41に示すように、メモリ68に保持されているAF領域情報またはEXIFデータに基づいて、撮影画像R16における、表示中心位置を求める対象となる判定対象領域FD11を定める。
この例では、AF領域情報により示される、オートフォーカスのターゲットの枠FR11の領域全体を含む領域が判定対象領域FD11とされている。この判定対象領域FD11は、AF領域情報により示される領域を含む領域であれば、どのような大きさや形状であってもよい。
また、表示制御処理部70は、矢印Q42に示すように、定めた判定対象領域FD11内の各領域のうち、最も合焦スコアが高い(大きい)領域を表示中心位置として選択する。
この例では、判定対象領域FD11内にあるM’×N’個の分割された領域のなかから、座標(Xp,Yp)により特定される領域が、表示中心位置として選択されている。
判定対象領域FD11とされる領域は、撮影画像の撮影時にフォーカスを合わせる対象とされた領域であるので、判定対象領域FD11から検出された表示中心位置の領域が、撮影画像R16において最もピントが合っている領域となるはずである。
表示制御処理部70は、表示用処理部69に対して、表示中心位置を中心とする撮影画像R16の拡大表示画像の表示を指示する。
すると、表示用処理部69は、解像度変換部64による解像度変換によって拡大された撮影画像R16から、座標(Xp,Yp)の位置を中心とする拡大表示画像E11を生成し、図中、右下に示されるように表示部26に拡大表示画像E11を表示させる。
拡大表示画像E11は、撮影画像R16において最もピントが合っている領域周辺の画像であるので、ユーザは、拡大表示画像E11を見ることで、所望の部分に十分にピントが合っているかどうかを簡単かつ直感的に確認することができる。
例えば、撮影時にユーザがシャッタボタン22を半押しすると、フォーカスがロックされた状態となるが、フォーカスがロックされた後、シャッタボタン22が全押しされて撮影画像がキャプチャされるまでの間に、被写体が動いてしまうことがある。そうすると、実際に撮影した撮影画像では、ユーザが狙った部分にピントが合っていないこともある。
また、例えば位相差センサ方式のオートフォーカスでは、AFポイントは予め定められた位置にしかないため、ピントを合わせたい部分にAFポイントがないこともある。さらに、コントラスト方式のオートフォーカスでは、フォーカスターゲットとなる領域の面積が大きいことも多く、撮影時には実際にどこにピントが合っているのかが分からない。
このような場合であっても、撮像装置11ではユーザは拡大表示画像E11を見ることで、ピント具合を簡単に確認することができるので、ピント具合が不十分であるときには、直ちに撮り直しを行うことができる。したがって、ユーザは、リアルタイム性を重視して撮影作業に集中することができる。
〈撮影処理の説明〉
次に、図7および図8を参照して説明した処理が行われる場合における、撮像装置11の具体的な動作について説明する。
まず、図9のフローチャートを参照して、撮像装置11による撮影処理について説明する。なお、ステップS71乃至ステップS74の処理は、図5のステップS11乃至ステップS14の処理と同様であるので、その説明は省略する。
ステップS75において、フォーカスレンズ制御処理部71は、撮影時のフォーカス動作に用いた情報に基づいてAF領域情報を生成するとともに、AF領域情報をデジタル信号処理LSI52に供給し、保持させる。
デジタル信号処理LSI52は、フォーカスレンズ制御処理部71から供給されたAF領域情報をメモリ68に供給し、撮影画像と対応付けて保持させる。なお、必要に応じてEXIFデータにAF領域情報が格納されて、そのEXIFデータがメモリ68に保持されるようにしたり、AF領域情報が格納されたEXIFデータが撮影画像に付加されたりしてもよい。
このようにしてAF領域情報が保持されると、撮影処理は終了する。
〈拡大再生処理の説明〉
また、プレビュー画像が表示されている状態等において、ユーザがユーザインターフェース53を操作して拡大表示画像の表示を指示した場合や、拡大再生処理が自動的に開始される設定となっている状態で、プレビュー画像が所定時間表示された場合、拡大再生処理が開始される。以下、図10のフローチャートを参照して、撮像装置11による拡大再生処理について説明する。
ステップS101において、表示制御処理部70は、メモリ68からAF領域情報を取得する。なお、AF領域情報は、メモリ68に保持されている撮影画像に付加されているEXIFデータから読み出されてもよい。
AF領域情報が取得されると、その後、ステップS102乃至ステップS104の処理が行われるが、これらの処理は図6のステップS41乃至ステップS43の処理と同様であるので、その説明は省略する。
これらの処理では、合焦領域判定処理が行われ、その処理結果として得られた撮影画像のM×N個の各領域の合焦スコアが表示制御処理部70により取得される。
ステップS105において、表示制御処理部70は、取得したM×N個の各領域の合焦スコアのなかから、AF領域情報により定まる判定対象領域を構成するM’×N’個の各領域の合焦スコアを抽出する。
ステップS106において、表示制御処理部70は、抽出したM’×N’個の各領域の合焦スコアに基づいて、表示中心位置を求める。例えば、撮影画像上のM’×N’個の各領域のうち、合焦スコアが最も大きい領域が表示中心位置とされる。
表示中心位置が求められると、その後、ステップS107乃至ステップS111の処理が行われて拡大再生処理は終了するが、これらの処理は図6のステップS45乃至ステップS49の処理と同様であるので、その説明は省略する。
以上のようにして、撮像装置11は、撮影により得られた撮影画像に対して合焦領域判定処理を行って、AF領域情報により定まる判定対象領域内から、最もピントが合っている領域を検出し、検出の結果得られた領域の位置を表示中心位置とする。そして、撮像装置11は、表示中心位置を中心とする撮影画像の領域を拡大表示画像として表示させる。
このように最もピントの合った領域を表示中心として拡大表示画像を表示することで、ユーザは、撮影後、より簡単かつ直感的に撮影画像のピント具合を確認することができる。特に、表示中心位置の検索範囲を判定対象領域内とすることで、より迅速に拡大表示画像を得ることができる。
〈第2の実施の形態の変形例1〉
〈拡大再生処理の説明〉
なお、第2の実施の形態では、撮影画像全体を対象として合焦領域判定処理を行う場合について説明したが、判定対象領域のみが対象とされて合焦領域判定処理が行われるようにしてもよい。
そのような場合、図9を参照して説明した撮影処理が行われた後、図11に示す拡大再生処理が行われる。以下、図11のフローチャートを参照して、撮像装置11による拡大再生処理を説明する。
なお、ステップS141の処理は、図10のステップS101の処理と同様であるので、その説明は省略する。
ステップS142において、表示制御処理部70は、AF領域情報により定まる判定対象領域を示す情報を合焦領域判定処理部67に供給して、判定対象領域のみを対象とする合焦領域判定処理の実行を合焦領域判定処理部67に指示する。
ステップS143において、合焦領域判定処理部67は、表示制御処理部70の指示に応じて、メモリ68から撮影画像のうちの判定対象領域の部分を読み出して、合焦領域判定処理を行う。これにより、判定対象領域を構成するM’×N’個の各領域の合焦スコアが得られる。
ステップS144において、表示制御処理部70は、合焦領域判定処理部67から、合焦領域判定処理の結果として判定対象領域を構成するM’×N’個の各領域の合焦スコアを取得する。
ステップS145において、表示制御処理部70は、M’×N’個の各領域の合焦スコアに基づいて、表示中心位置を求める。例えば、撮影画像上のM’×N’個の各領域のうち、合焦スコアが最も大きい領域が表示中心位置とされる。
表示中心位置が求められると、その後、ステップS146乃至ステップS150の処理が行われて拡大再生処理は終了するが、これらの処理は図6のステップS45乃至ステップS49の処理と同様であるので、その説明は省略する。
以上のようにして、撮像装置11は、撮影画像上の判定対象領域を対象として合焦領域判定処理を行って、判定対象領域内から最もピントが合っている領域を検出し、検出の結果得られた領域の位置を表示中心位置とする。そして、撮像装置11は、表示中心位置を中心とする撮影画像の領域を拡大表示画像として表示させる。
このように最もピントの合った領域を表示中心として拡大表示画像を表示することで、ユーザは、撮影後、より簡単かつ直感的に撮影画像のピント具合を確認することができる。特に、判定対象領域のみを対象として合焦領域判定処理を行うことで、図10を参照して説明した例よりも、さらに合焦領域判定処理の処理時間を短くすることができる。また、メモリ68から読み出される撮影画像の帯域(領域)も少なくて済むので、より迅速に処理を行うことができるだけでなく、消費電力も少なくすることができる。
〈第3の実施の形態〉
〈撮像装置の処理の概要〉
さらに、以上においては、表示中心位置が1つである場合について説明したが、表示中心位置が複数選択されるようにしてもよい。
そのような場合、図3を参照して説明した撮影処理が行われた後、例えば図12に示す拡大再生処理が行われる。なお、図12において、図4における場合と対応する部分には同一の符号を付してあり、その説明は適宜省略する。
拡大再生処理が開始されると、撮影画像R16が必要に応じて記録部57から読み出され、メモリ68に供給される。
そして表示制御処理部70が、合焦領域判定処理部67に合焦領域判定処理の実行を指示すると、合焦領域判定処理部67は、メモリ68から撮影画像R16を読み出して合焦領域判定処理を行う。
合焦領域判定処理では、例えば矢印Q22に示すように撮影画像R16がM×N個の領域に分割されて合焦スコアが算出される。
表示制御処理部70は、各領域の合焦スコアに基づいて、矢印Q61に示すように合焦スコアが所定値以上である領域を表示中心位置として選択する。なお、1つの四角形は1つの分割された領域を表しており、その四角形内の数値は合焦スコアを表している。
この例では、座標(Xp1,Yp1)により特定される領域、座標(Xp2,Yp2)により特定される領域、および座標(Xp3,Yp3)により特定される領域が表示中心位置として選択されている。このようにして得られた3つの表示中心位置の領域が、撮影画像R16において、十分にピントが合っている領域である。
表示制御処理部70は、表示用処理部69に対して、求めた表示中心位置を中心とする撮影画像R16の拡大表示画像の表示を指示する。
すると、表示用処理部69は、合焦スコアの高い順番に、表示中心位置とされた領域を中心とする拡大表示画像を生成して表示させる。このとき、他の表示中心位置から近い位置にある表示中心位置については、処理対象から除外され、拡大表示画像の生成は行われない。
この例では、座標(Xp1,Yp1)乃至座標(Xp3,Yp3)の各領域の合焦スコアは、それぞれ85、83、および80となっている。また、ここでは、座標(Xp1,Yp1)の領域と、座標(Xp2,Yp2)の領域との距離が近いとされ、それらの領域のうち、より合焦スコアの低い座標(Xp2,Yp2)の領域が処理対象から除外されるとする。
このような場合、まず表示用処理部69は、解像度変換部64による解像度変換によって拡大された撮影画像R16から、最も合焦スコアが高い座標(Xp1,Yp1)の位置を中心とする拡大表示画像E21を生成し、表示部26に供給して表示させる。これにより、矢印Q62に示されるように、表示部26に拡大表示画像E21が表示される。
また、拡大表示画像E21が表示されている状態で、矢印Q63に示すようにユーザがユーザインターフェース53を操作し、次の拡大表示画像の表示を指示したとする。
すると、表示用処理部69は、解像度変換部64による解像度変換によって拡大された撮影画像R16から、2番目に合焦スコアが高い座標(Xp3,Yp3)の位置を中心とする拡大表示画像E22を生成し、表示部26に供給して表示させる。これにより、矢印Q64に示されるように、表示部26に拡大表示画像E22が表示される。
さらに、拡大表示画像E22が表示されている状態で、矢印Q65に示すようにユーザがユーザインターフェース53を操作し、次の拡大表示画像の表示を指示したとする。この例では、処理対象となる次の表示中心位置はないので、矢印Q62に示すように拡大表示画像E21が表示された状態に戻る。すなわち、最初に表示された拡大表示画像の表示へと戻る。
なお、拡大表示画像E21および拡大表示画像E22において、点線で表される各領域は、合焦領域判定処理時に合焦スコアが算出された各領域を表すものであり、実際には拡大表示画像E21や拡大表示画像E22には表示されない。
このように、複数の表示中心位置について拡大表示画像を生成し、合焦スコアが高い順番で表示させることで、ユーザは、撮影画像R16において、それなりにピントが合っている各部分のピント具合を、より簡単かつ迅速に確認することができる。
なお、拡大表示画像の表示の切り替えは、ユーザによる指示があったときに限らず、拡大表示画像が表示されてから所定時間が経過したときに自動的に切り替えられるようにしてもよい。
〈拡大再生処理の説明〉
次に、図12を参照して説明した処理が行われる場合における、撮像装置11の具体的な動作について説明する。
以下、図13のフローチャートを参照して、撮像装置11による拡大再生処理について説明する。なお、この拡大再生処理は、プレビュー画像が表示されている状態等において、ユーザにより拡大表示画像の表示が指示された場合や、拡大再生処理が自動的に開始される設定となっている状態で、プレビュー画像が所定時間表示された場合に開始される。
拡大再生処理が開始されると、ステップS181乃至ステップS183の処理が行われるが、これらの処理は図6のステップS41乃至ステップS43の処理と同様であるので、その説明は省略する。これらの処理により、撮影画像のM×N個の各領域の合焦スコアが得られる。
ステップS184において、表示制御処理部70は、取得したM×N個の領域を、合焦スコアの高い順番にソートし(並び替え)、所定値以上の合焦スコアの領域を表示中心位置とする。
ステップS185において、表示制御処理部70は、表示中心位置のうち、互いに距離が近い表示中心位置を削除する。例えば所定の表示中心位置が、撮影画像上において他の表示中心位置から所定の距離以内の位置にある場合、所定の表示中心位置と他の表示中心位置のうちの合焦スコアが低い方が削除(除外)される。
表示制御処理部70は、このようにして合焦スコア順に並べられた表示中心位置のリストを候補リストとして保持する。
ステップS186において、表示制御処理部70は、次の拡大表示画像を表示させるか否かを判定する。
例えば、ユーザにより次の拡大表示画像の表示が指示された場合や、拡大表示画像が表示されてから所定時間が経過した場合、次の拡大表示画像を表示させると判定される。
ステップS186において、まだ次の拡大表示画像を表示させないと判定された場合、ステップS187の処理はスキップされて、その後、処理はステップS188に進む。
これに対して、ステップS186において、次の拡大表示画像を表示させると判定された場合、ステップS187において、表示制御処理部70は、処理対象の表示中心位置を選択する。例えば、候補リストにある、まだ処理対象とされていない表示中心位置のうち、最も上位にあるもの、つまり最も合焦スコアが高い表示中心位置が、次の処理対象の表示中心位置として選択される。これにより、拡大表示画像が合焦スコアの高いものから順番に、1つずつ表示されていくことになる。
ステップS187の処理が行われて処理対象とする表示中心位置が選択されたか、またはステップS186において次の拡大表示画像を表示させないと判定された場合、処理はステップS188に進む。
そして、ステップS188乃至ステップS191の処理が行われるが、これらの処理は図6のステップS45乃至ステップS48の処理と同様であるので、その説明は省略する。これらの処理により、処理対象とする表示中心位置についての拡大表示画像が表示される。
ステップS192において、表示制御処理部70は、拡大表示画像の表示を終了するか否かを判定する。例えば、ユーザにより表示の終了が指示された場合、最後に表示すべき拡大表示画像が表示されてから、予め定められた所定時間が経過した場合などに拡大表示画像の表示を終了すると判定される。
ステップS192において、拡大表示画像の表示を終了しないと判定された場合、処理はステップS186に戻り、上述した処理が繰り返し行われる。
これに対して、ステップS192において拡大表示画像の表示を終了すると判定された場合、表示制御処理部70は、表示用処理部69に表示終了を指示し、拡大表示画像の表示が終了される。拡大表示画像の表示が終了すると、拡大再生処理は終了する。
以上のようにして、撮像装置11は合焦領域判定処理を行って、ピントが合っている1または複数の領域を検出し、検出の結果得られた領域の位置を表示中心位置とする。そして、撮像装置11は、各表示中心位置を中心とする撮影画像の領域を、それぞれ拡大表示画像として表示させる。
このようにピントの合った1または複数の領域を表示中心として、1または複数の拡大表示画像を表示することで、ユーザは、撮影後、より簡単かつ直感的に撮影画像のピント具合を確認することができる。
〈第4の実施の形態〉
〈多機能型携帯電話機の外観の構成例〉
さらに、以上においては、本技術をデジタルスチルカメラ等の撮像装置11に適用した場合について説明したが、上述したように本技術は、多機能型携帯電話機等にも適用可能である。以下、本技術を多機能型携帯電話機に適用した場合を例として説明する。
図14は、本技術を適用した多機能型携帯電話機の外観の構成例を示す図である。
多機能型携帯電話機121は、カメラ機能を有する携帯型電話機からなり、図14では矢印A41に示す図は多機能型携帯電話機121を表面側から見た図であり、矢印A42に示す図は多機能型携帯電話機121を裏面側から見た図である。
多機能型携帯電話機121の表面には、液晶パネル等からなる表示部131が設けられており、表示部131には図示せぬタッチパネルが重畳して設けられている。例えばユーザは、表示部131に表示される画像等を見たり、表示部131に表示されるアイコン等を操作したりする。
また、多機能型携帯電話機121の側面には、カメラ機能による撮影時にシャッタボタンとして機能するシャッタボタン132や、音量調整などのためのボタン133等の各種のボタンが設けられている。
さらに、多機能型携帯電話機121の裏面には、被写体から入射してくる光を図示せぬイメージャへと導く光学系134が設けられており、ユーザは光学系134を所望の被写体に向けて撮影を行う。
〈多機能型携帯電話機の機能の構成例〉
また、図14に示した多機能型携帯電話機121の機能の構成は、例えば図15に示す構成とされる。なお、図15において、図14または図2における場合と対応する部分には同一の符号を付してあり、その説明は適宜省略する。
多機能型携帯電話機121は、光学系134、イメージャ161、デジタル信号処理LSI162、ユーザインターフェース163、制御部164、手ぶれセンサ165、記録部166、表示部131、スピーカ167、マイクロホン168、および無線通信部169を有している。
なお、光学系134、イメージャ161、デジタル信号処理LSI162、ユーザインターフェース163、制御部164、手ぶれセンサ165、記録部166、および表示部131は、撮像装置11の光学系21、イメージャ51、デジタル信号処理LSI52、ユーザインターフェース53、制御部54、手ぶれセンサ56、記録部57、および表示部26と同様であるので、その説明は適宜省略する。
この例では、制御部164には、表示制御処理部70およびフォーカスレンズ制御処理部71が設けられている。また、ユーザインターフェース163は、例えば表示部131に重畳されたタッチパネルや、シャッタボタン132、ボタン133などから構成される。
デジタル信号処理LSI162は、手ぶれセンサ165の出力に基づいて、撮影画像に対して電子的な手ぶれ補正を施す。さらに、デジタル信号処理LSI162は、プリ処理部61、同時化部62、YC生成部63、解像度変換部64、CODEC65、AF検波処理部66、合焦領域判定処理部67、メモリ68、表示用処理部69、および通話処理部171を備えている。
通話処理部171は、ユーザによる他の電話機との通話に関する処理を行う。例えば通話処理部171は、マイクロホン168がユーザの音声を収音することで得られた音声信号を無線通信部169に供給し、基地局等を介して通話相手の電話機に送信させる。また、例えば通話処理部171は、通話相手の電話機から送信され、無線通信部169により受信された音声信号をスピーカ167に供給し、再生させる。
無線通信部169は、制御部164の制御に従って無線通信を行う。例えば、無線通信部169は、基地局等を介して通話相手との音声信号の送受信を行ったり、Wi-Fi(登録商標)等の比較的近距離での無線による情報の送受信を行ったりする。
〈撮影処理および拡大再生処理の説明〉
次に、以上において説明した多機能型携帯電話機121の具体的な動作について説明する。まず、図16のフローチャートを参照して、多機能型携帯電話機121による撮影処理について説明する。なお、撮影処理では、ステップS231乃至ステップS234の処理が行われるが、これらの処理は図5のステップS11乃至ステップS14の処理と同様であるので、その説明は省略する。
また、多機能型携帯電話機121は、撮影処理を行った後、プレビュー画像が表示されている状態等で、ユーザがユーザインターフェース163を操作して拡大表示画像の表示を指示した場合や、拡大再生処理が自動的に開始される設定となっている状態で、プレビュー画像が所定時間表示された場合、拡大再生処理を行う。
以下、図17のフローチャートを参照して、多機能型携帯電話機121による拡大再生処理について説明する。図17の拡大再生処理では、ステップS261乃至ステップS269の処理が行われるが、これらの処理は図6のステップS41乃至ステップS49の処理と同様であるので、その説明は省略する。
また、多機能型携帯電話機121では、図9に示した撮影処理と同様の処理、図10や図11、図13に示した拡大再生処理と同様の処理が行われるようにしてもよい。
〈第5の実施の形態〉
〈ウェアラブルカメラの外観の構成例〉
さらに、本技術はウェアラブルカメラと呼ばれる、小型でユーザの頭部等に装着可能なデジタルビデオカメラなどにも適用可能である。以下、本技術をウェアラブルカメラに適用した場合を例として説明する。
図18は、本技術を適用したウェアラブルカメラの外観の構成例を示す図である。
ウェアラブルカメラ201の正面には、被写体から入射してくる光を図示せぬイメージャへと導く光学系211が設けられており、ユーザは光学系211を所望の被写体に向けて撮影を行う。
また、ウェアラブルカメラ201の背面には、図示せぬ録画ボタン等の各種のボタンが設けられており、ユーザはそれらのボタンを操作して、撮影や再生を指示する。さらに、ウェアラブルカメラ201は、無線通信により他の機器、例えば図15に示した多機能型携帯電話機121と情報の授受を行うことができるようになされている。
〈ウェアラブルカメラの機能の構成例〉
また、図18に示したウェアラブルカメラ201の機能の構成は、例えば図19に示す構成とされる。なお、図19において、図18または図2における場合と対応する部分には同一の符号を付してあり、その説明は適宜省略する。
ウェアラブルカメラ201は、光学系211、イメージャ241、デジタル信号処理LSI242、ユーザインターフェース243、制御部244、レンズ駆動用ドライバIC245、手ぶれセンサ246、記録部247、および無線通信部248を有している。
なお、光学系211、およびイメージャ241乃至記録部247は、図2の光学系21、およびイメージャ51乃至記録部57と同様であるので、その説明は適宜省略する。
この例では、制御部244には、表示制御処理部70およびフォーカスレンズ制御処理部71が設けられている。また、デジタル信号処理LSI242は、プリ処理部61、同時化部62、YC生成部63、解像度変換部64、CODEC65、AF検波処理部66、合焦領域判定処理部67、メモリ68、および表示用処理部69を備えている。
無線通信部248は、デジタル信号処理LSI242の制御に従って無線通信を行う。例えば、無線通信部248は、Wi-Fi(登録商標)等の比較的近距離での無線による情報の送受信を行う。
〈撮影処理の説明〉
次に、以上において説明したウェアラブルカメラ201の具体的な動作について説明する。まず、図20のフローチャートを参照して、ウェアラブルカメラ201による撮影処理について説明する。
図20の撮影処理では、ステップS291乃至ステップS294の処理が行われるが、これらの処理は図5のステップS11乃至ステップS14の処理と同様であるので、その説明は省略する。
ステップS294の処理が行われて、撮影画像がキャプチャされると、デジタル信号処理LSI242は、撮影画像を無線通信部248に供給し、例えば多機能型携帯電話機121に送信したり、撮影画像を記録部247に供給して記録させたりする。以上のようにして撮影画像がキャプチャされると、撮影処理は終了する。
また、このような場合、多機能型携帯電話機121の無線通信部169は、無線通信部248から無線により送信されてきた撮影画像を受信してデジタル信号処理LSI162に供給する。表示用処理部69は、無線通信部169で受信された撮影画像を表示部131に供給して表示させる。
〈拡大表示画像生成処理の説明〉
ウェアラブルカメラ201は、撮影処理を行って撮影画像をキャプチャすると、その後、例えば拡大表示画像を生成して多機能型携帯電話機121に送信する拡大表示画像生成処理を行う。例えば拡大表示画像生成処理は、ユーザがウェアラブルカメラ201や多機能型携帯電話機121を操作して拡大表示画像の表示を指示したときや、設定等により自動的に開始される場合において、拡大表示画像が所定時間表示されたときに開始される。
以下、図21のフローチャートを参照して、ウェアラブルカメラ201による拡大表示画像生成処理について説明する。
なお、ステップS331乃至ステップS337の処理は、図6のステップS41乃至ステップS47の処理と同様であるので、その説明は省略する。ここで、ステップS335におけるオフセット量の取得は、例えば多機能型携帯電話機121から取得されるようにすればよい。
ステップS338において、表示用処理部69は、表示制御処理部70の指示に応じて拡大表示画像を生成し、無線通信部248に供給する。
例えば表示用処理部69は、メモリ68に保持されている撮影画像に対する、表示制御処理部70により指定された表示倍率に応じた解像度変換を解像度変換部64に指示する。そして、表示用処理部69は、解像度変換により得られた撮影画像から、表示中心位置を中心とする所定の大きさの領域を切り出して、拡大表示画像とする。表示用処理部69は、このようにして得られた拡大表示画像を無線通信部248に供給する。
ステップS339において、無線通信部248は、表示用処理部69から供給された拡大表示画像を無線により多機能型携帯電話機121に送信する。
ステップS340において、表示制御処理部70は、拡大表示画像の表示を終了するか否かを判定する。例えば、ユーザにより終了が指示された場合、拡大表示画像が多機能型携帯電話機121に表示されてから、予め定められた所定時間が経過した場合などに拡大表示画像の表示を終了すると判定される。
ステップS340において、拡大表示画像の表示を終了しないと判定された場合、処理はステップS335に戻り、上述した処理が繰り返し行われる。
これに対して、ステップS340において拡大表示画像の表示を終了すると判定された場合、表示制御処理部70は、表示用処理部69に表示終了を指示し、表示用処理部69により無線通信部248を介して、多機能型携帯電話機121に拡大表示画像の表示終了が指示される。拡大表示画像の表示が終了すると、拡大表示画像生成処理は終了する。
以上のようにして、ウェアラブルカメラ201は、撮影により得られた撮影画像に対して合焦領域判定処理を行って、最もピントが合っている領域を検出し、検出の結果得られた領域の位置を表示中心位置とする。そして、ウェアラブルカメラ201は、表示中心位置を中心とする撮影画像の領域を拡大表示画像として多機能型携帯電話機121に送信し、表示させる。
このように、最もピントの合った領域を検出し、検出された領域を表示中心とする拡大表示画像を生成することで、ユーザは、撮影後、より簡単かつ直感的に撮影画像のピント具合を確認することができる。
なお、ウェアラブルカメラ201が表示中心位置および表示倍率を多機能型携帯電話機121に送信し、多機能型携帯電話機121において拡大表示画像を生成するようにしてもよい。
〈再生処理の説明〉
また、多機能型携帯電話機121は、ウェアラブルカメラ201から拡大表示画像が送信されてくると、拡大表示画像を受信して表示する再生処理を開始する。以下、図22のフローチャートを参照して、多機能型携帯電話機121による再生処理を説明する。
ステップS371において、無線通信部169は、ウェアラブルカメラ201から無線通信により送信されてきた拡大表示画像を受信して、デジタル信号処理LSI162に供給する。
ステップS372において、表示用処理部69は、無線通信部169から供給された拡大表示画像を表示部131に供給し、拡大表示画像を表示させる。表示部131に拡大表示画像が表示されると、ユーザは、撮影画像を撮影しているウェアラブルカメラ201とは別の機器である多機能型携帯電話機121において、撮影画像のピント具合を確認することができるようになる。
ステップS373において、制御部164は、拡大表示を終了するか否かを判定する。例えば無線通信部169により、ウェアラブルカメラ201から送信された、拡大表示を終了する旨の指示が受信された場合、拡大表示を終了すると判定される。また、例えばユーザがユーザインターフェース163を操作して拡大表示の終了を指示した場合に、拡大表示を終了すると判定されてもよい。
ステップS373において、拡大表示を終了しないと判定された場合、処理はステップS371に戻り、上述した処理が繰り返し行われる。また、このときユーザがユーザインターフェース163を操作してオフセット量を入力し、そのオフセット量がウェアラブルカメラ201に送信されるようにしてもよい。
これに対して、ステップS373において、拡大表示を終了すると判定された場合、制御部164は、表示用処理部69に拡大表示画像の表示終了を指示し、再生処理は終了する。
以上のようにして、多機能型携帯電話機121は、ウェアラブルカメラ201から拡大表示画像を受信して表示させる。これにより、ユーザは、より大きい画面で、より簡単かつ直感的に撮影画像のピント具合を確認することができる。
なお、ウェアラブルカメラ201においても図9に示した撮影処理と同様の処理、図10や図11、図13に示した拡大再生処理と同様の処理が行われるようにしてもよい。
ところで、上述した一連の処理は、ハードウェアにより実行することもできるし、ソフトウェアにより実行することもできる。一連の処理をソフトウェアにより実行する場合には、そのソフトウェアを構成するプログラムが、コンピュータにインストールされる。ここで、コンピュータには、専用のハードウェアに組み込まれているコンピュータや、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば汎用のコンピュータなどが含まれる。
図23は、上述した一連の処理をプログラムにより実行するコンピュータのハードウェアの構成例を示すブロック図である。
コンピュータにおいて、CPU(Central Processing Unit)501,ROM(Read Only Memory)502,RAM(Random Access Memory)503は、バス504により相互に接続されている。
バス504には、さらに、入出力インターフェース505が接続されている。入出力インターフェース505には、入力部506、出力部507、記録部508、通信部509、及びドライブ510が接続されている。
入力部506は、キーボード、マウス、マイクロホン、撮像素子などよりなる。出力部507は、ディスプレイ、スピーカなどよりなる。記録部508は、ハードディスクや不揮発性のメモリなどよりなる。通信部509は、ネットワークインターフェースなどよりなる。ドライブ510は、磁気ディスク、光ディスク、光磁気ディスク、又は半導体メモリなどのリムーバブルメディア511を駆動する。
以上のように構成されるコンピュータでは、CPU501が、例えば、記録部508に記録されているプログラムを、入出力インターフェース505及びバス504を介して、RAM503にロードして実行することにより、上述した一連の処理が行われる。
コンピュータ(CPU501)が実行するプログラムは、例えば、パッケージメディア等としてのリムーバブルメディア511に記録して提供することができる。また、プログラムは、ローカルエリアネットワーク、インターネット、デジタル衛星放送といった、有線または無線の伝送媒体を介して提供することができる。
コンピュータでは、プログラムは、リムーバブルメディア511をドライブ510に装着することにより、入出力インターフェース505を介して、記録部508にインストールすることができる。また、プログラムは、有線または無線の伝送媒体を介して、通信部509で受信し、記録部508にインストールすることができる。その他、プログラムは、ROM502や記録部508に、あらかじめインストールしておくことができる。
なお、コンピュータが実行するプログラムは、本明細書で説明する順序に沿って時系列に処理が行われるプログラムであっても良いし、並列に、あるいは呼び出しが行われたとき等の必要なタイミングで処理が行われるプログラムであっても良い。
また、本技術の実施の形態は、上述した実施の形態に限定されるものではなく、本技術の要旨を逸脱しない範囲において種々の変更が可能である。
例えば、本技術は、1つの機能をネットワークを介して複数の装置で分担、共同して処理するクラウドコンピューティングの構成をとることができる。
また、上述のフローチャートで説明した各ステップは、1つの装置で実行する他、複数の装置で分担して実行することができる。
さらに、1つのステップに複数の処理が含まれる場合には、その1つのステップに含まれる複数の処理は、1つの装置で実行する他、複数の装置で分担して実行することができる。
また、本明細書中に記載された効果はあくまで例示であって限定されるものではなく、他の効果があってもよい。
さらに、本技術は、以下の構成とすることも可能である。
(1)
撮影画像に基づいて、前記撮影画像の各領域の合焦度合いを示す合焦スコアを算出する合焦領域判定処理部と、
前記合焦スコアに基づいて、前記撮影画像上の最もピントが合っている領域を表示中心位置として検出する表示制御処理部と、
前記撮影画像上の前記表示中心位置を含む所定の大きさの領域を切り出して拡大表示画像を生成する表示用処理部と
を備える画像処理装置。
(2)
前記表示用処理部は、前記表示中心位置を中心とする前記拡大表示画像を生成する
(1)に記載の画像処理装置。
(3)
前記表示制御処理部は、前記撮影画像の撮影時にフォーカス対象とされたフォーカス領域を含む判定対象領域内の各領域の前記合焦スコアに基づいて、前記判定対象領域から前記表示中心位置を検出する
(1)または(2)に記載の画像処理装置。
(4)
前記合焦領域判定処理部は、前記撮影画像上の前記判定対象領域のみを対象として前記合焦スコアの算出を行う
(3)に記載の画像処理装置。
(5)
前記拡大表示画像を表示する表示部をさらに備える
(1)乃至(4)の何れか一項に記載の画像処理装置。
(6)
前記表示制御処理部は、前記合焦スコアが最も高い領域を前記表示中心位置とする
(1)乃至(5)の何れか一項に記載の画像処理装置。
(7)
前記表示制御処理部は、前記撮影画像上の複数の領域を前記表示中心位置とし、
前記表示用処理部は、複数の前記表示中心位置ごとに前記拡大表示画像を生成する
(1)乃至(5)の何れか一項に記載の画像処理装置。
(8)
複数の前記拡大表示画像は、前記合焦スコアの高いものから順番に表示される
(7)に記載の画像処理装置。
(9)
撮影画像に基づいて、前記撮影画像の各領域の合焦度合いを示す合焦スコアを算出し、
前記合焦スコアに基づいて、前記撮影画像上の最もピントが合っている領域を表示中心位置として検出し、
前記撮影画像上の前記表示中心位置を含む所定の大きさの領域を切り出して拡大表示画像を生成する
ステップを含む画像処理方法。
(10)
撮影画像に基づいて、前記撮影画像の各領域の合焦度合いを示す合焦スコアを算出し、
前記合焦スコアに基づいて、前記撮影画像上の最もピントが合っている領域を表示中心位置として検出し、
前記撮影画像上の前記表示中心位置を含む所定の大きさの領域を切り出して拡大表示画像を生成する
ステップを含む処理をコンピュータに実行させるプログラム。
11 撮像装置, 53 ユーザインターフェース, 67 合焦領域判定処理部, 68 メモリ, 69 表示用処理部, 70 表示制御処理部, 71 フォーカスレンズ制御処理部, 121 多機能型携帯電話機, 201 ウェアラブルカメラ

Claims (10)

  1. 撮影画像に基づいて、前記撮影画像の各領域の合焦度合いを示す合焦スコアを算出する合焦領域判定処理部と、
    前記合焦スコアに基づいて、前記撮影画像上の最もピントが合っている領域を表示中心位置として検出する表示制御処理部と、
    前記撮影画像上の前記表示中心位置を含む所定の大きさの領域を切り出して拡大表示画像を生成する表示用処理部と
    を備える画像処理装置。
  2. 前記表示用処理部は、前記表示中心位置を中心とする前記拡大表示画像を生成する
    請求項1に記載の画像処理装置。
  3. 前記表示制御処理部は、前記撮影画像の撮影時にフォーカス対象とされたフォーカス領域を含む判定対象領域内の各領域の前記合焦スコアに基づいて、前記判定対象領域から前記表示中心位置を検出する
    請求項1に記載の画像処理装置。
  4. 前記合焦領域判定処理部は、前記撮影画像上の前記判定対象領域のみを対象として前記合焦スコアの算出を行う
    請求項3に記載の画像処理装置。
  5. 前記拡大表示画像を表示する表示部をさらに備える
    請求項1に記載の画像処理装置。
  6. 前記表示制御処理部は、前記合焦スコアが最も高い領域を前記表示中心位置とする
    請求項1に記載の画像処理装置。
  7. 前記表示制御処理部は、前記撮影画像上の複数の領域を前記表示中心位置とし、
    前記表示用処理部は、複数の前記表示中心位置ごとに前記拡大表示画像を生成する
    請求項1に記載の画像処理装置。
  8. 複数の前記拡大表示画像は、前記合焦スコアの高いものから順番に表示される
    請求項7に記載の画像処理装置。
  9. 撮影画像に基づいて、前記撮影画像の各領域の合焦度合いを示す合焦スコアを算出し、
    前記合焦スコアに基づいて、前記撮影画像上の最もピントが合っている領域を表示中心位置として検出し、
    前記撮影画像上の前記表示中心位置を含む所定の大きさの領域を切り出して拡大表示画像を生成する
    ステップを含む画像処理方法。
  10. 撮影画像に基づいて、前記撮影画像の各領域の合焦度合いを示す合焦スコアを算出し、
    前記合焦スコアに基づいて、前記撮影画像上の最もピントが合っている領域を表示中心位置として検出し、
    前記撮影画像上の前記表示中心位置を含む所定の大きさの領域を切り出して拡大表示画像を生成する
    ステップを含む処理をコンピュータに実行させるプログラム。
JP2013247108A 2013-11-29 2013-11-29 画像処理装置および方法、並びにプログラム Pending JP2015105996A (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2013247108A JP2015105996A (ja) 2013-11-29 2013-11-29 画像処理装置および方法、並びにプログラム
EP14865810.7A EP3041219B1 (en) 2013-11-29 2014-11-17 Image processing device and method, and program
PCT/JP2014/080321 WO2015079945A1 (ja) 2013-11-29 2014-11-17 画像処理装置および方法、並びにプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013247108A JP2015105996A (ja) 2013-11-29 2013-11-29 画像処理装置および方法、並びにプログラム

Publications (1)

Publication Number Publication Date
JP2015105996A true JP2015105996A (ja) 2015-06-08

Family

ID=53198891

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013247108A Pending JP2015105996A (ja) 2013-11-29 2013-11-29 画像処理装置および方法、並びにプログラム

Country Status (3)

Country Link
EP (1) EP3041219B1 (ja)
JP (1) JP2015105996A (ja)
WO (1) WO2015079945A1 (ja)

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3956861B2 (ja) * 2003-02-05 2007-08-08 コニカミノルタフォトイメージング株式会社 撮像装置
JP2005295418A (ja) * 2004-04-05 2005-10-20 Sony Corp 撮像装置および撮像表示方法
JP4380644B2 (ja) 2006-03-08 2009-12-09 カシオ計算機株式会社 電子カメラ装置
JP4717766B2 (ja) * 2006-09-14 2011-07-06 キヤノン株式会社 画像表示装置、撮像装置、画像表示方法、記憶媒体、及び、プログラム
JP4939203B2 (ja) 2006-12-22 2012-05-23 キヤノン株式会社 表示制御装置、撮像装置、及び制御方法
JP5479190B2 (ja) * 2010-04-01 2014-04-23 キヤノン株式会社 撮像装置及び撮像装置の制御方法
JP4981955B2 (ja) * 2010-07-20 2012-07-25 キヤノン株式会社 撮像装置、及びその制御方法
EP2448246B1 (en) * 2010-10-28 2019-10-09 Axis AB Method for focusing

Also Published As

Publication number Publication date
EP3041219B1 (en) 2020-01-15
WO2015079945A1 (ja) 2015-06-04
EP3041219A1 (en) 2016-07-06
EP3041219A4 (en) 2017-05-10

Similar Documents

Publication Publication Date Title
JP4671133B2 (ja) 画像処理装置
US7539405B2 (en) Image pickup apparatus with autofocus function
US10237466B2 (en) Recognition of degree of focus of an image
TW200808044A (en) Imaging apparatus and computer readable recording medium
JP2006201282A (ja) デジタルカメラ
JP2007215091A (ja) 撮像装置及びそのプログラム
JP6598028B2 (ja) 撮像装置
JP2006303961A (ja) 撮像装置
KR101431536B1 (ko) 디지털 촬영장치 및 이의 제어방법
JP4586707B2 (ja) 画像処理装置、電子カメラおよび画像処理プログラム
JP2006019874A (ja) 手ぶれ・ピンボケレベル報知方法および撮像装置
JP2008079193A (ja) デジタルカメラ
JP2006287735A (ja) 画像音声記録装置及び集音方向調整方法
JP4788172B2 (ja) 撮像装置及びプログラム
JP6435527B2 (ja) 撮像装置
JP2009092961A (ja) 合焦位置制御装置、及び合焦位置制御方法、合焦位置制御プログラム
WO2015079945A1 (ja) 画像処理装置および方法、並びにプログラム
US10038835B2 (en) Image pickup device and still picture generating method
JP2008067136A (ja) 撮像装置及び撮像方法
JP2015125273A (ja) 撮影装置、撮影方法およびプログラム
JP3923056B2 (ja) カメラ付き携帯電話
JP2006234993A (ja) カメラ及びプログラム
JP2012023468A (ja) 撮像装置
JP2010217808A (ja) 画像処理装置、画像処理方法、電子カメラおよび画像処理プログラム
WO2014136703A1 (ja) 撮像装置及び画像表示方法