JP7352745B2 - 画像処理装置、撮像装置、画像処理方法及び画像処理プログラム - Google Patents

画像処理装置、撮像装置、画像処理方法及び画像処理プログラム Download PDF

Info

Publication number
JP7352745B2
JP7352745B2 JP2022544495A JP2022544495A JP7352745B2 JP 7352745 B2 JP7352745 B2 JP 7352745B2 JP 2022544495 A JP2022544495 A JP 2022544495A JP 2022544495 A JP2022544495 A JP 2022544495A JP 7352745 B2 JP7352745 B2 JP 7352745B2
Authority
JP
Japan
Prior art keywords
moving image
image data
specific subject
data
focus
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2022544495A
Other languages
English (en)
Other versions
JPWO2022044915A5 (ja
JPWO2022044915A1 (ja
Inventor
慎也 藤原
武弘 河口
太郎 斎藤
幸徳 西山
智大 島田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Corp
Original Assignee
Fujifilm Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujifilm Corp filed Critical Fujifilm Corp
Publication of JPWO2022044915A1 publication Critical patent/JPWO2022044915A1/ja
Publication of JPWO2022044915A5 publication Critical patent/JPWO2022044915A5/ja
Priority to JP2023149342A priority Critical patent/JP2023165774A/ja
Application granted granted Critical
Publication of JP7352745B2 publication Critical patent/JP7352745B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • H04N23/675Focus control based on electronic image sensor signals comprising setting of focusing regions
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B7/00Mountings, adjusting means, or light-tight connections, for optical elements
    • G02B7/28Systems for automatic generation of focusing signals
    • G02B7/34Systems for automatic generation of focusing signals using different areas in a pupil plane
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B7/00Mountings, adjusting means, or light-tight connections, for optical elements
    • G02B7/28Systems for automatic generation of focusing signals
    • G02B7/36Systems for automatic generation of focusing signals using image sharpness techniques, e.g. image processing techniques for generating autofocus signals
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/13Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/56Extraction of image or video features relating to colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/98Detection or correction of errors, e.g. by rescanning the pattern or by human intervention; Evaluation of the quality of the acquired patterns
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/631Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters
    • H04N23/632Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters for displaying or modifying preview images prior to image capturing, e.g. variety of image resolutions or capturing parameters
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20092Interactive image processing based on input by user
    • G06T2207/20104Interactive definition of region of interest [ROI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20172Image enhancement details
    • G06T2207/20192Edge enhancement; Edge preservation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20221Image fusion; Image merging

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Signal Processing (AREA)
  • Human Computer Interaction (AREA)
  • General Engineering & Computer Science (AREA)
  • Optics & Photonics (AREA)
  • Quality & Reliability (AREA)
  • Studio Devices (AREA)
  • Automatic Focus Adjustment (AREA)
  • Exposure Control For Cameras (AREA)
  • Focusing (AREA)
  • Indication In Cameras, And Counting Of Exposures (AREA)

Description

本発明は画像処理装置、撮像装置、画像処理方法及び画像処理プログラムに係り、特にマニュアルフォーカスの支援に好適な動画像データを生成する技術に関する。
近年、ミラーレスカメラや一眼レフカメラなどは動画機能が充実してきており、動画コンテンツ制作に多く用いられるようになってきた。これらのカメラは小型、軽量で撮像時に機動性が高い一方、ライブビュー画像や記録画像を確認するためのモニタも小さいため、主要被写体に対するフォーカスがユーザの意図通りに合焦しているか視認することが困難である。
この問題を解決するためにフォーカスアシスト機能が開発されており、「フォーカス部分の拡大表示機能」や、「合焦している被写体の輪郭部に色を付けて表示するピーキング機能」などを搭載しているカメラがある(特許文献1、2)。
特開2019-105768号公報 特開2017-169188号公報
本開示の技術に係る一つの実施形態は、ユーザがフォーカスを合わせたい主要被写体のフォーカス状態を動画像撮像中に認識することができ、かつ主要被写体の確認及びフレーミングの確認に適したライブビュー画像を表示させることができる画像処理装置、撮像装置、画像処理方法及び画像処理プログラムを提供する。
第1態様に係る発明は、プロセッサと、メモリとを備える画像処理装置において、プロセッサは、入力された撮像データに基づいて第1動画像データを生成する処理と、撮像データ又は第1動画像データが表す撮像領域内の、特定被写体を含む特定被写体領域を設定する処理と、撮像データ又は第1動画像データに基づいてフォーカス状態を評価する処理と、特定被写体領域のデータ、フォーカス状態の評価結果、及び第1動画像データに基づいて特定被写体領域のフォーカス状態が視認可能な第2動画像データを生成する処理と、第2動画像データを表示先に出力する処理と、を行う。
本発明の第2態様に係る画像処理装置において、第2動画像データは、特定被写体領域のみのフォーカス状態が視認可能な動画像データであることが好ましい。
本発明の第3態様に係る画像処理装置において、第2動画像データを生成する処理は、第1動画像データが表す撮像領域内の、特定被写体領域のデータが表す特定被写体領域に対して、フォーカス状態の評価結果に基づくデータを付加する処理を行うことで第2動画像データを生成することが好ましい。
本発明の第4態様に係る画像処理装置において、プロセッサは、撮像データ又は第1動画像データに基づいて特定被写体のフォーカス状態の評価結果を含む第3動画像データを生成し、特定被写体領域、第1動画像データ、及び第3動画像データに基づいて第2動画像データを生成することが好ましい。
本発明の第5態様に係る画像処理装置において、プロセッサは、特定被写体領域を除く第1動画像データと、特定被写体領域の第3動画像データとを合成して第2動画像データを生成することが好ましい。
本発明の第6態様に係る画像処理装置において、フォーカス状態を評価する処理は、撮像データ又は第1動画像データに基づいて被写体の輪郭成分を抽出し、抽出した輪郭成分の振幅に応じた輪郭強調処理を第1動画像データに施す処理であることが好ましい。
本発明の第7態様に係る画像処理装置において、輪郭強調処理は、抽出した輪郭成分の振幅が第1閾値を超える部分に対して特定の色を付加し、及び/又は輪郭成分の振幅に応じて特定の色の濃度を変化させる処理であることが好ましい。
本発明の第9態様に係る画像処理装置において、プロセッサは、ユーザによる特定被写体の指示入力に基づいて特定被写体領域を設定することが好ましい。
本発明の第8態様に係る画像処理装置において、プロセッサは、特定被写体の動きを検出し、特定被写体の動きに応じて特定被写体領域を変更することが好ましい。
本発明の第10態様に係る画像処理装置において、表示部又は外部表示機器と接続可能な第1接続部を備え、第2動画像データの表示先は、表示部又は第1接続部に接続された外部表示機器であることが好ましい。
本発明の第11態様に係る画像処理装置において、記録部又は外部記録機器と接続可能な第2接続部を備え、プロセッサは、第1動画像データを記録部又は第2接続部に出力することが好ましい。
本発明の第12態様に係る画像処理装置において、プロセッサは、第1動画像データと第2動画像データとを第1時間毎に交互に表示先に出力することが好ましい。
本発明の第13態様に係る画像処理装置において、プロセッサは、特定被写体のフォーカス状態の評価結果を示すフォーカス評価値を取得し、取得したフォーカス評価値が第2閾値を超える場合、第1動画像データを表示先に出力することが好ましい。
本発明の第14態様に係る画像処理装置において、プロセッサは、特定被写体のフォーカス状態の評価結果を示すフォーカス評価値を取得し、取得したフォーカス評価値が減少傾向になく、かつ減少傾向にない状態が第2時間継続する場合、第1動画像データを表示先に出力することが好ましい。
本発明の第15態様に係る画像処理装置において、プロセッサは、特定被写体のフォーカス状態の評価結果を示すフォーカス評価値を取得し、直近の複数フレームに対するフォーカス評価値のうちの最大値となる最大評価値を取得し、マニュアルフォーカス期間中に最新フレームのフォーカス評価値が、最大評価値に基づいて設定される許容値を超える場合に、最新フレーム内の特定被写体のフォーカス状態が良好であることを示す報知情報を表示先に出力することが好ましい。
本発明の第16態様に係る撮像装置は、撮像データを出力する撮像部と、上記の画像処理装置と、を備える。
第17態様に係る発明は、プロセッサと、メモリとを備える画像処理装置によりマニュアルフォーカスを支援する動画像データを生成する画像処理方法であって、プロセッサの各処理は、入力された撮像データに基づいて第1動画像データを生成するステップと、撮像データ又は第1動画像データが表す撮像領域内の、特定被写体を含む特定被写体領域を設定するステップと、撮像データ又は第1動画像データに基づいてフォーカス状態を評価するステップと、特定被写体領域のデータ、フォーカス状態の評価結果、及び第1動画像データに基づいて特定被写体領域のフォーカス状態が視認可能な第2動画像データを生成するステップと、第2動画像データを表示先に出力するステップと、を含む。
本発明の第18態様に係る画像処理方法において、撮像データ又は第1動画像データに基づいて特定被写体のフォーカス状態の評価結果を含む第3動画像データを生成するステップを更に含み、第2動画像データを生成するステップは、特定被写体領域、第1動画像データ、及び第3動画像データに基づいて第2動画像データを生成することが好ましい。
本発明の第19態様に係る画像処理方法において、第2動画像データを生成するステップは、特定被写体領域を除く第1動画像データと、特定被写体領域の第3動画像データとを合成して第2動画像データを生成することが好ましい。
本発明の第20態様に係る画像処理プログラムは、入力された撮像データに基づいて第1動画像データを生成する機能と、撮像データ又は第1動画像データが表す撮像領域内の、特定被写体を含む特定被写体領域を設定する機能と、撮像データ又は第1動画像データに基づいてフォーカス状態を評価する機能と、特定被写体領域のデータ、フォーカス状態の評価結果、及び第1動画像データに基づいて特定被写体領域のフォーカス状態が視認可能な第2動画像データを生成する機能と、第2動画像データを表示先に出力する機能と、をコンピュータに実現させる。
図1は、本発明に係る撮像装置の内部構成の実施形態を示す図である。 図2は、本発明に係る画像処理装置の実施形態を示すブロック図である。 図3は、輝度データから抽出される輪郭成分等を示す波形図である。 図4は、ピーキング処理が施されていない第1動画像データの一例を示す波形図である。 図5は、ピーキング処理が施された第1動画像データ(第3動画像データ)の一例を示す波形図である。 図6は、特定被写体及びピーキング範囲の一例を示す図である。 図7は、第1動画像データの記録先、及び第2動画像データの表示先を示す図である。 図8は、本発明に係る画像処理方法の第1実施形態を示すフローチャートである。 図9は、本発明に係る画像処理方法の第2実施形態を示すフローチャートである。 図10は、本発明に係る画像処理方法の第3実施形態を示すフローチャートである。 図11は、輪郭成分の振幅[Amp]の推移の一例を示す図である。 図12は、本発明に係る画像処理方法の第4実施形態を示すフローチャートである。
以下、添付図面に従って本発明に係る画像処理装置、撮像装置、画像処理方法及び画像処理プログラムの好ましい実施形態について説明する。
[撮像装置の構成]
図1は、本発明に係る撮像装置の内部構成の実施形態を示す図である。
撮像装置10は、動画像の撮像が可能なカメラであり、撮像レンズ12、撮像部14、プロセッサ16、メモリ18、表示部20、入出力インターフェース22、及び操作部24等を備える。
撮像レンズ12は、被写体像を結像させるフォーカスレンズを含む複数のレンズ群、光量を調節する絞り、フォーカスレンズの位置を手動で調整するフォーカスリング等を備える。また、撮像レンズ12は、カメラボディに着脱可能な交換レンズでもよいし、カメラボディに一体化されたものでもよい。
撮像部14は、光学像を電気信号に変換する撮像素子、アナログ信号処理部及びA/D(Analog to Digital)変換器等を備える。
撮像素子は、例えば、CMOS(Complementary Metal-Oxide Semiconductor)型のカラーイメージセンサにより構成されている。尚、撮像素子は、CMOS型に限らず、CCD(Charge Coupled Device)型の撮像素子でもよい。
撮像素子は、x方向(水平方向)及びy方向(垂直方向)に二次元的に配列された光電変換素子(フォトダイオード)で構成される複数の画素上に、赤色(R)、緑色(G)及び青色(B)の3原色のカラーフィルタのうちのいずれか1色のカラーフィルタが、所定のカラーフィルタ配列にしたがって配置され、RGBの各色の画素が構成される。カラーフィルタ配列は、一般的なベイヤ配列とすることできるが、これに限定されるものではなく、例えば、X-Trans(登録商標)配列等の他のカラーフィルタ配列でもよい。
撮像レンズ12によって撮像部14の撮像素子の受光面に結像された被写体の光学像は、撮像素子の各画素に入射光量に応じた電荷として蓄積される。撮像素子からは各画素に蓄積された電荷量に応じた電気信号が画像信号として読み出され、アナログ信号処理部に出力される。
アナログ信号処理部は、サンプリングホールド回路、色分離回路、AGC(Automatic Gain Control)回路等を含んで構成されている。AGC回路は、撮像時の感度(ISO感度(ISO:International Organization for Standardization))を調整する感度調整部として機能し、入力する画像信号を増幅する増幅器のゲインを調整し、画像信号の信号レベルが適切な範囲に入るようにする。A/D変換器は、アナログ信号処理部から出力されたアナログの画像信号をデジタルの画像信号に変換する。尚、撮像素子がCMOS型イメージセンサである場合、アナログ信号処理部及びA/D変換器は、CMOS型イメージセンサ内に内蔵されていることが多い。
動画像の撮像が行なわれる場合、撮像部14からは、設定されたフレームレート(30fps,60fps等)で撮像データ(RAWデータ)が出力される。
プロセッサ16は、CPU(Central Processing Unit)、撮像データに対して特定の信号処理を行なう専用電気回路等を含み、撮像部14から入力される撮像データに基づいて各種の動画像データを生成する画像処理装置として機能する。尚、プロセッサ16による各種の動画像データの生成処理の詳細については後述する。
メモリ18は、フラッシュメモリ、ROM(Read-only Memory)、及びRAM(Random Access Memory)等を含む。フラッシュメモリ及びROMは、カメラ制御プログラム、及び本発明に係る画像処理プログラム,カメラ制御等に必要な各種データ等を記憶する不揮発性メモリである。RAMは、撮像データを一時的に記憶し、プロセッサ16による処理の作業領域として機能する。また、フラッシュメモリ等に格納されたカメラ制御プログラム、画像処理プログラム等を一時的に記憶する。尚、プロセッサ16が、メモリ18の一部(RAM)を内蔵していてもよい。
プロセッサ16は、カメラ制御プログラム、あるいは画像処理プログラムにしたがい、RAMを作業領域としながらカメラボディの各部の制御、及び画像処理を行なう。
表示部20は、LCD(Liquid Crystal Display)、OLED(Organic Light Emitting Diode)などのディスプレイであり、ディスプレイ上にはタッチパネルを備えていてもよい。
表示部20は、カメラボディの背面に設けられ、撮像の際、ライブビュー画像を表示する。ユーザは、表示部20に表示されるライブビュー画像により被写体のフォーカス状態を確認したり、フレーミングの確認を行なうことができる。
また、表示部20は、ユーザに対して各種の報知情報を通知(表示)する通知部として機能する。更に、表示部20は、各種設定を行う際、メニュー画面を表示し、ユーザの指示を受け付ける場合のユーザインターフェースとして使用される。尚、表示部20には、EVF(Electronic View Finder)の形態のものも含まれる。
入出力インターフェース22は、外部表示機器と接続可能な第1接続部、外部記録機器と接続可能な第2接続部、メモリカードが着脱されるカード接続部、及びネットワークと接続可能な通信部等を含む。例えば、入出力インターフェース22としては、USB(Universal Serial Bus)、HDMI(High-Definition Multimedia Interface)(HDMIは登録商標)等を適用することができる。尚、USB及びHDMIは、それぞれ第1接続部及び第2接続部として共通に使用可能である。
また、カード接続部及びカード接続部に接続されたメモリカードは、外部記録機器に対してカメラ内部の記録部に相当する。
操作部24は、撮像装置10を操作するための各種操作部材を備える。操作部材には、電源ボタン、録画ボタンの他、各種操作ボタン類、タッチパネル等が含まれる。
プロセッサ16は、所定のプログラム(カメラ制御プログラム、画像処理プログラム等)を実行することにより、撮像装置10の制御部及び画像処理装置として機能する。
プロセッサ16が行う制御には、AE(Automatic Exposure)、AF(Auto Focus)等の撮像制御の他、画像処理、表示部20への表示制御、記録部への記録制御等が含まれる。
また、プロセッサ16が行う画像処理には、撮像部14から入力する撮像データ(RAWデータ)に基づいて記録用の動画像データ(第1動画像データ)を生成する処理、及び表示用(ライブビュー用)の動画像データ(第2動画像データ)を生成する処理、及び記録用の第1動画像データに対する圧縮処理等が含まれる。
[画像処理装置]
図2は、本発明に係る画像処理装置の実施形態を示すブロック図である。本発明に係る画像処理装置は、プロセッサ16とメモリ18とを備える。
図2に示すプロセッサ16は、ホワイトバランス補正処理部16A,デモザイク処理部16B、輝度・色差変換処理部16C、輪郭成分抽出部16D、輪郭強調処理部16E、特定被写体領域設定部16F、及び合成処理部16Gを備える。
ホワイトバランス補正処理部16A、デモザイク処理部16B、及び輝度・色差変換処理部16C等は、入力する未処理の撮像データ(RAWデータ)から記録用の第1動画像データを生成する現像処理部である。
ホワイトバランス補正処理部16Aは、入力する撮像データ(Rデータ、Gデータ及びBデータ)の色データ毎のホワイトバランスゲイン(WB(White Balance)ゲイン)Gr,Gg,Gbを算出し、Rデータ、Gデータ及びBデータに、それぞれ算出したWBゲインGr,Gg,Gbを乗算することにより撮像データをホワイトバランス補正する。ここで、WBゲインGr,Gg,Gbの算出方法としては、被写体の明るさ(EV値)によるシーン認識(屋外、屋内の判定等)及び周囲光の色温度等に基づいて被写体を照明している光源種を特定し、予め光源種毎に適切なWBゲインが記憶されているメモリ18から特定した光源種に対応するWBゲインを読み出す方法等がある。
デモザイク処理部16Bは、RGBからなる点順次のモザイク画像データから補間処理により画素毎にRGB全ての色情報を算出する処理部であり、モザイク画像データからデモザイク処理(デモザイキング処理、同時化処理ともいう)されたRGB3面の画像データを生成する。
輝度・色差変換処理部16Cは、デモザイク処理されたRGBデータを輝度データ(Y)と色差データ(Cb、Cr)に変換する処理を行なう。
上記のようにして未処理の撮像データから画像処理された記録用の第1動画像データが生成される。尚、未処理の撮像データに対する現像処理では、ガンマ補正処理、輝度データ(Y)に対する輪郭強調処理、及び色差データ(Cb、Cr)に対する色差マトリクス処理等も行なわれるが、これらは公知の処理であるため、その詳細な説明は省略する。
輪郭成分抽出部16Dは、第1動画像データのうちの輝度データ(Y)を入力し、撮像画像内の被写体の輪郭成分を抽出する。輪郭成分は、輝度データ(Y)に対して輪郭抽出フィルタ(例えば、ソーベルフィルタ)をかけて抽出することができる。
図3は、輝度データから抽出される輪郭成分等を示す波形図である。
図3(A)は、輪郭部の輝度データ(Y)の波形図である。同図に示すように、輪郭部では、輝度データ(A)が大きく変化している。
図3(B)は、図3(A)の輝度データ(Y)から抽出された輪郭成分を示す波形図である。輪郭成分抽出部16Dは、図3(B)に示すように輝度データ(Y)が変化する部分(輪郭部)を抽出し、その変化の大きさに応じた振幅[Amp]を有する輪郭成分を出力する。この振幅[Amp]は、被写体のフォーカス状態の評価結果を示すフォーカス評価値に対応しており、振幅[Amp](フォーカス評価値)が大きい程、フォーカス状態が良好であることを示す。
輪郭強調処理部16Eは、第1動画像データのうちの色差データ(Cb、Cr)と、輪郭成分抽出部16Dにより抽出された被写体の輪郭成分とを入力し、輪郭成分の振幅[Amp]に応じた輪郭強調処理を第1動画像データ(本例では、色差データ(Cb、Cr))に施す部分である。
本例の輪郭強調処理部16Eは、第1動画像データに対して被写体の輪郭部に特定の色(例えば、赤色)を付加する処理(ピーキング処理)を行なう部分であり、輪郭成分抽出部16Dにより抽出された輪郭成分の振幅[Amp]が、第1閾値を超える部分に対して特定の色を付加する。
ここで、第1閾値は、被写体のフォーカス状態が適正である場合に得られる、その被写体の輪郭成分の振幅のうちの最小の振幅に設定することが好ましい。したがって、フォーカス状態が適正である被写体は、その輪郭成分の振幅が第1閾値を超えることになる。
尚、輪郭抽出フィルタの種類により抽出される輪郭成分の振幅[Amp]が異なるため、第1閾値は、輪郭抽出フィルタの種類を考慮して設定することが好ましい。また、被写体の輪郭成分の振幅は環境光の強度により変動するため、第1閾値は、被写体の明るさにより適宜設定することが好ましい。
また、輪郭強調処理部16Eは、輪郭成分抽出部16Dにより抽出された輪郭成分の振幅[Amp]に応じて特定の色の濃度を変化させるピーキング処理を行なってもよいし、輪郭成分の振幅[Amp]が第1閾値を超える部分に対して、更に輪郭成分の振幅に応じて特定の色の濃度を変化させるピーキング処理を行なってもよい。
ピーキング処理が施された第1動画像データ(第3動画像データ)は、被写体の輪郭部(即ち、コントラストが高い部分)に特定の色が付加されているため、撮像領域のフォーカス状態の評価結果を含むデータであり、ピーキング処理は、フォーカス状態を評価する処理である。
図4は、ピーキング処理が施されていない第1動画像データの一例を示す波形図であり、図5は、ピーキング処理が施された第1動画像データ(第3動画像データ)の一例を示す波形図である。
ピーキング処理が施されていない第1動画像データが、図4に示す輝度データ(Y)、及び色差データ(Cb、Cr)を有する場合、図5に示すピーキング処理が施された第1動画像データ(第3動画像データ)では、輝度データ(Y)が切り替わっている画素(輪郭部)が、赤色になるように色差データ(Cb、Cr)の値が置き換えられる。
特定被写体領域設定部16Fは、撮像データ又は第1動画像データが表す撮像領域内の、特定被写体を含む特定被写体領域を設定する処理を行なう。
ここで、本例の特定被写体とは、撮像領域内の主要被写体の一部の被写体をいう。
図6は、特定被写体及びピーキング範囲の一例を示す図である。
図6(A)に示すように撮像領域において、人物の顔が大きく写っている動画像の場合、人物の顔が主要被写体であり、人物の顔パーツ(本例では、「口元」)が特定被写体である。図6(A)に示す特定被写体領域Rは、「口元」を含む矩形の領域である。
また、特定被写体領域Rは、ピーキング処理を施すピーキング範囲であり、特定被写体を含む領域である。図6(B)に示す動画像では、「口元」のみにピーキング処理が施される。
尚、人物の顔が主要被写体の場合、特定被写体は、「口元」に限らず、「目元」(一方の目のみを含む)、「鼻」、あるいは「頭髪」等でもよい。また、花を接写しているシーンの場合、「雌しべ」あるいは「雄しべ」を特定被写体とすることができる。
また、撮像領域内の人物が小さい場合、人物の顔全体を特定被写体とすることができ、撮像領域内に複数の花が存在する場合には、複数の花のうちの1つを特定被写体とすることができる。
特定被写体は、主要被写体の一部であり、特定被写体に焦点が合っている場合には、主要被写体にも焦点が合っている関係にあることが好ましい。撮像領域に対して主要被写体の領域が十分に小さい場合には、主要被写体を特定被写体としてもよい。
特定被写体領域設定部16Fは、ユーザによる特定被写体の指示入力に基づいて特定被写体領域を設定することができる。この場合、ユーザは、表示部20に表示されるライブビュー画像を見ながら、タッチパネル等を使用して特定被写体を指定することができる。
また、特定被写体領域設定部16Fは、動画像の撮像開始時の撮像領域の中央領域を、特定被写体領域として自動設定することができる。この場合、ユーザは、動画像の撮像開始時に特定被写体が撮像領域の中央領域に入るようにフレーミングを行なうことが好ましい。
更に、特定被写体領域設定部16Fは、特定被写体の動きを検出し、特定被写体の動きに応じて特定被写体領域(位置、サイズ)を変更することが好ましい。特定被写体の動きは、第1動画像データを構成する各フレームにおいて、特定被写体の特徴点を追跡することにより検出することができる。
合成処理部16Gは、第1動画像データ、第3動画像データ、及び特定被写体領域設定部16Fにより設定された特定被写体領域のデータを入力し、これらのデータに基づいて特定被写体領域のフォーカス状態が視認可能な動画像データ(第2動画像データ)を生成する。
合成処理部16Gは、特定被写体領域を除く第1動画像データと、特定被写体領域の第3動画像データとを合成して第2動画像データを生成する。合成処理部16Gは、第1動画像データの特定被写体領域に対応する部分を消去し、その部分に特定被写体領域の第3動画像データを嵌め込み合成して第2動画像データを生成することができる。
尚、第2動画像データの生成は、特定被写体領域を除く第1動画像データと特定被写体領域の第3動画像データとを合成して第2動画像データを生成する場合に限らず、特定被写体領域のデータ、フォーカス状態の評価結果、及び第1動画像データに基づいて、第1動画像データの特定被写体領域のみにピーキング処理を施すことで、第2動画像データを生成するようにしてもよい。この場合、画面全体にピーキング処理が施された第3動画像データの生成は不要になる。
また、特定被写体領域のフォーカス状態の評価結果に基づいて特定被写体の輪郭部に特定の色を付加するピーキング処理を行うことで第2動画像データを生成する場合に限らず、特定被写体の輪郭部を強調するエッジ強調処理を行うことで第2動画像データを生成するようにしてもよく、要はフォーカス状態の評価結果に基づくデータを付加する処理を行うことで第2動画像データを生成する処理であればよい。
図6(B)は、特定被写体領域Rのみにピーキング処理が施された第2動画像データに対応するライブビュー画像の一例を示す。
第2動画像データは、第1動画像データにおいて、特定被写体領域Rのみにピーキング処理が施された動画像データであり、図6(B)に示すように特定被写体である「口元」を含む特定被写体領域Rのみにピーキング処理が施される。
ユーザは、フォーカスリングを操作して主要被写体(特定被写体)に撮像レンズ12の焦点を合わせる場合、表示部20に表示されるライブビュー画像を見ながら(特定被写体のフォーカス状態を確認しながら)、フォーカスリングを操作する。
即ち、ユーザは、特定被写体領域Rのみにピーキング処理が施されたライブビュー画像を見ながら、特定被写体領域R内の特定被写体の輪郭部を強調する特定の色が現れるように、あるいは特定の色の濃度が最大になるようにフォーカスリングを操作することで、表示部20の画面サイズが小さくても良好にマニュアルフォーカスを行なうことができる。
また、撮像領域全体ではなく、ユーザがピントを合わせたい一部(特定被写体領域R)のみにピーキング処理が施されるため、動画像撮像中でもライブビュー画像を見ながら、特定被写体領域Rのフォーカス状態を確認することができる。また、撮像領域全体にピーキング処理が施されていないため、例えば、人物の表情などの主要被写体の確認、及びフレーミング確認も適切に行なうことができる。
図7は、第1動画像データの記録先、及び第2動画像データの表示先を示す図である。
プロセッサ16は、ピーキング処理が施されていない第1動画像データを、記録先として記録部22A又は第2接続部22Bに接続された外部記録機器に出力することができる。
記録部22Aは、例えば、入出力インターフェース22のカード接続部に装着されたメモリカードを含み、プロセッサ16から入力する第1動画像データをメモリカードに記録する。
第2接続部22Bは、例えば、入出力インターフェース22のUSB、HDMI等であり、第2接続部22Bに外部記録機器が接続されている場合には、外部記録機器は、プロセッサ16から入力する第1動画像データを記録することができる。
プロセッサ16は、圧縮処理部16Hを備え、圧縮処理部16Hにより圧縮した第1動画像データを記録部22A又は第2接続部22Bに出力することが好ましい。
圧縮処理部16Hでの圧縮処理は、所定の圧縮形式の動画像ファイルを生成する処理である。圧縮の際のコーデックには、公知ものを採用できる。例えば、MPEG(Moving Picture Experts Group)により標準化されたコーデック(MPEG-1、MPEG-2、MPEG-4等)、H.264等を採用することができる。
また、第2接続部22Bに接続された外部記録機器が大容量の記憶容量を有する場合、プロセッサ16は、非圧縮の第1動画像データを第2接続部22Bに出力することができる。
プロセッサ16は、ピーキング処理が施された第1動画像データ(第2動画像データ)を、表示先として表示部20又は第1接続部22Cに接続された外部表示機器に出力する。
表示部20は、スタンバイ中及び動画像撮像中にプロセッサ16から入力する第2動画像データに基づいてライブビュー画像を表示することができる。
第1接続部22Cは、例えば、入出力インターフェース22のUSB、HDMI等であり、第1接続部22Cに外部表示機器が接続されている場合には、外部表示機器は、プロセッサ16から入力する第2動画像データに基づいてライブビュー画像を表示することができる。
尚、本例の第1動画像データ及び第2動画像データは、輝度データ(Y)及び色差データ(Cb、Cr)であるが、輝度データ(Y)及び色差データ(Cb、Cr)をRGBデータに変換した動画像データでもよい。
[画像処理方法]
本発明に係る画像処理方法は、マニュアルフォーカスを支援する動画像データを生成する方法であり、図2に示したプロセッサ16が各処理の主体となって動画像データを生成する。
<第1実施形態>
図8は、本発明に係る画像処理方法の第1実施形態を示すフローチャートである。
図8において、動画像の撮像を開始する場合、ユーザは、任意の特定被写体を選択する(ステップS10)。これは、特定被写体を含む主要被写体に対するフォーカス状態を確認するためである。また、任意の特定被写体の選択は、ライブビュー画像を表示する表示部20及びタッチパネル等のユーザインターフェースを使用して行なうことができる。
プロセッサ16の特定被写体領域設定部16Fは、ユーザによる特定被写体の指示入力を受け付けると、撮像領域内の特定被写体領域Rを設定する(ステップS12)。この特定被写体領域Rは、ピーキング処理を施すピーキング範囲である。
プロセッサ16は、撮像部14から撮像データを取得する(ステップS14)。
特定被写体領域設定部16Fは、撮像データに基づいてユーザが選択した特定被写体を追尾し、特定被写体領域Rを更新する(ステップS16)。特定被写体が動いてもユーザが確認したい主要被写体のフォーカス状態を確認するためである。尚、特定被写体の追尾は、撮像データから生成される第1動画像データに基づいて行なうようにしてもよい。
プロセッサ16は、ステップS14で取得した撮像データ(RAWデータ)を現像処理し、記録用の第1動画像データ(ピーキングOFFの第1動画像データ)を生成する(ステップS18)。
続いて、プロセッサ16(輪郭成分抽出部16D、輪郭強調処理部16E)は、撮像データ又は第1動画像データに基づいてピーキング処理した第3動画像データ(ピーキングONの第1動画像データ)を生成する(ステップS20)。第3動画像データは、撮像領域の全範囲をピーキング範囲として、第1動画像データをピーキング処理した動画像データである。
合成処理部16Gは、第1動画像データ、第3動画像データ、及び特定被写体領域設定部16Fにより設定された特定被写体領域のデータに基づいて、特定被写体領域のフォーカス状態が視認可能な表示用の第2動画像データを生成する(ステップS22)。即ち、合成処理部16Gは、第1動画像データと特定被写体領域のデータに基づいて特定被写体領域を除く第1動画像データを生成し、一方、第3動画像データと特定被写体領域のデータに基づいて特定被写体領域の第3動画像データを生成し、特定被写体領域を除く第1動画像データと特定被写体領域の第3動画像データとを合成し、第2動画像データを生成する。
プロセッサ16は、表示用の第2動画像データを表示先のカメラの表示部20に出力し、特定被写体領域のフォーカス状態が視認可能な画像(ライブビュー画像)を表示させる(ステップS24)。
また、プロセッサ16は、動画記録中か否かを判別し(ステップS26)、動画記録中の場合(「Yes」の場合)には、ステップS18で生成した記録用の第1動画像データを記録部22Aに記録する(ステップS28)。
動画記録中でない場合(「No」の場合)には、ステップS28を経由せずにステップS30に遷移させる。例えば、動画撮影開始前のライブビュー画像表示中が、動画記録中でない場合に相当する。
続いて、プロセッサ16は、ピーキング表示を終了させるか否かを判別し(ステップS30)、ピーキング表示を終了させないと判別すると(「No」の場合)、ステップS14に遷移し、次のフレームの撮像データに対してステップS14からステップS30の処理を繰り返す。ピーキング表示を終了させるか否かの判別は、例えば、ユーザがピーキング設定をオフに変更する指示入力の有無に基づいて行なうことができる。
プロセッサ16は、ピーキング表示を終了させると判別すると(「Yes」の場合)、本処理を終了する。
画像処理方法の第1実施形態によれば、撮像領域全体ではなく、ユーザがピントを合わせたい主要被写体の一部(特定被写体領域R)のみにピーキング処理を施すようにしたため、人物の表情などの主要被写体の確認、及びフレーミング確認も適切に行なうことができる。
また、第1実施形態の変形例として、プロセッサ16は、特定被写体領域Rの特定被写体のフォーカス評価値(振幅[Amp])が、合焦と見なせる閾値(第2閾値)を超える場合、第2動画像データに代えて、第1動画像データを表示先(表示部20又は第1接続部22C)に出力するようにしてもよい。
これによれば、ユーザは、フォーカスレンズが主要被写体に合焦している場合、ピーキングなしのライブビュー画像を見ることができ、主要被写体の確認をより一層容易にすることができる。
<第2実施形態>
図9は、本発明に係る画像処理方法の第2実施形態を示すフローチャートである。
画像処理方法の第2実施形態は、図8に示した第1実施形態と比較してピーキング表示の表示方法が異なるため、第1動画像データ及び第2動画像データの生成方法の説明は省略する。
画像処理方法の第2実施形態は、第1動画像データ(ピーキングなし)と第2動画像データ(ピーキングあり)とを第1時間毎に交互に表示先に出力する。
図9において、フレームカウンタ変数「count」を「0」にリセットし、画像セレクタ変数「sel」を「1」にセットする(ステップS100)。
続いて、プロセッサ16は、画像セレクタ変数「sel」が「0」よりも大きいか否か(sel>0)を判別する(ステップS102)。sel>0の場合(「Yes」の場合)には、ステップS104に進み、ここで第2動画像データにより「ピーキングあり」のライブビュー画像を表示部20に表示させる。
一方、sel>0でない場合(「No」の場合)には、ステップS106に進み、ここで第1動画像データにより「ピーキングなし」のライブビュー画像を表示部20に表示させる。尚、撮像開始時には、画像セレクタ変数「sel」が「1」にセットされているため、「ピーキングあり」のライブビュー画像が表示部20に表示される。
次に、プロセッサ16は、フレームカウンタ変数「count」を1だけインクリメントし(ステップS108)、フレームカウンタ変数「count」がN未満か否か(count<N)を判別する(ステップS110)。
いま、フレームレートが30fpsであり、「ピーキングあり」のライブビュー画像と、「ピーキングなし」のライブビュー画像とを1~2秒毎に交互に表示させる場合には、Nは、30~60の範囲内の値に設定することが好ましい。
ステップS110において、count<Nと判別されると(「Yes」の場合)、ステップS114に遷移させ、count<Nでないと判別されると(「No」の場合)、ステップS112に遷移させる。尚、撮像開始時からNフレームの撮像までは、count<Nを満たすため、ステップS114に遷移させる。
次に、プロセッサ16は、ピーキング表示を終了させるか否かを判別し(ステップS114)、ピーキング表示を終了させないと判別すると(「No」の場合)、ステップS102に遷移し、次のフレームの撮像データに対してステップS102からステップS114の処理を繰り返す。
一方、「ピーキングあり」のライブビュー画像の表示が第1時間(Nフレーム)継続すると、ステップS110において、count<Nではないと判別され(「No」の場合)、ステップS112に遷移する。ステップS112では、フレームカウンタ変数「count」を「0」にリセットし、かつsel=sel×(-1)とし、画像セレクタ変数「sel」の符号を反転させる。尚、撮像開始時には、画像セレクタ変数「sel」は「1」に設定されるため、撮像開始から第1時間後(Nフレーム後)の画像セレクタ変数「sel」は、「-1」に符号が反転される。
画像セレクタ変数「sel」が「-1」の場合、ステップS102において、sel>0ではないと判別され、ステップS106に進み、ここで第1動画像データにより「ピーキングなし」のライブビュー画像を表示部20に表示させる。
上記のようにしてプロセッサ16は、第2動画像データによる「ピーキングあり」のライブビュー画像と第1動画像データによる「ピーキングなし」のライブビュー画像とを、第1時間(Nフレーム)毎に切り替えて表示部20に表示させる。
画像処理方法の第2実施形態によれば、第1時間毎にピーキング表示が消えるため、主要被写体の確認がより一層容易になる。
<第3実施形態>
図10は、本発明に係る画像処理方法の第3実施形態を示すフローチャートである。
画像処理方法の第3実施形態は、図8に示した第1実施形態と比較してピーキング表示の表示方法が異なるため、第1動画像データ及び第2動画像データの生成方法の説明は省略する。
画像処理方法の第3実施形態は、マニュアルフォーカスが不要な場合に「ピーキングなし」のライブビュー画像を表示し、マニュアルフォーカスが必要な場合に「ピーキングあり」のライブビュー画像を表示させる。
図10において、フレームカウンタ変数「count」を「0」にリセットする(ステップS200)。
続いて、プロセッサ16の輪郭成分抽出部16Dは、特定被写体領域Rの輝度データ(Y)から特定被写体の輪郭成分を抽出し、輪郭成分の振幅[Amp_n]を取得する(ステップS202)。
振幅[Amp_n]は、現フレームnの振幅[Amp](図3(B))を示す。また、振幅[Amp_n]は、特定被写体の輪郭成分の振幅が閾値th以上の画素の振幅を平均した値をとすることが望ましい。
プロセッサ16は、過去の(k+1)フレーム分の振幅[Amp_n]~[Amp_n-k]から、振幅[Amp]の増減傾向を取得する(ステップS204)。振幅の増減傾向は、例えば、フレーム毎に直前フレームの振幅との差分ΔAmp_nを算出し、k+1フレーム分のΔAmp_n~ΔAmp_n-kの平均値が0未満の場合は減少傾向、0以上の場合は増加傾向とすることができる。
続いて、プロセッサ16は、振幅[Amp]の増減傾向が減少傾向にあるか否かを判別する(ステップS206)。
図11は、輪郭成分の振幅[Amp]の推移の一例を示す図である。図11に示す例は、振幅[Amp]の増減傾向が減少傾向にある場合に関して示している。
ステップS206において、振幅[Amp]の増減傾向が減少傾向にあると判定されると(「Yes」の場合)、プロセッサ16は、第2動画像データを表示部20に出力し、「ピーキングあり」のライブビュー画像を表示部20に表示させる(ステップS208)。
続いて、フレームカウンタ変数「count」を「0」にリセットし(ステップS210)、ステップS222に遷移させる。
ステップS222では、ピーキング表示を終了させるか否かが判別される。ピーキング表示を終了させないと判別されると(「No」の場合)、ステップS202に遷移し、次のフレームの撮像データに対してステップS202からステップS222の処理が繰り返えされる。
一方、ステップS206において、振幅[Amp]の増減傾向が減少傾向にないと判定されると(「No」の場合)、ステップS212に遷移し、ここで、フレームカウンタ変数「count」がM未満か否か(count<M)が判別される。
ここでは、フォーカス評価値に対応する振幅[Amp]の減少傾向にない状態が、Mフレーム分継続(第2時間継続)するか否かが判別される。第2時間は、3~5秒程度が好ましく、フレームレートが30fpsの場合には、Mは、90~150の範囲内の値に設定することが好ましい。
ステップS212において、count<Mと判別されると(「Yes」の場合)、ステップS214に遷移させる。ステップS214では、第2動画像データに基づいて「ピーキングあり」のライブビュー画像を表示部20に表示させる(ステップS208)。
続いて、フレームカウンタ変数「count」を1だけインクリメントし(ステップS216)、ステップS222に遷移させる。
一方、ステップS212において、count<Mでないと判別されると(「No」の場合)、即ち、振幅[Amp]が減少傾向になく、かつ減少傾向にない状態が、Mフレーム以上継続すると、プロセッサ16は、第1動画像データを表示部20に出力し、「ピーキングなし」のライブビュー画像を表示部20に表示させ(ステップS218)、フレームカウンタ変数「count」を1だけインクリメントする(ステップS220)。
上記のようにしてプロセッサ16は、振幅[Amp]が減少傾向になく、かつ減少傾向にない状態がMフレーム以上(第2時間以上)継続すると、フォーカス状態が安定していてマニュアルフォーカスが不要である判定し、ピーキング表示を消し、ユーザによる主要被写体の確認をより一層容易にさせる。
一方、振幅[Amp]の増減傾向が減少傾向に変化すると(フォーカス状態が悪くなると)、プロセッサ16は、ステップS206からステップS208に遷移させ、ピーキング表示を再開するため、ユーザはフォーカス状態が悪くなったことを容易に把握することができる。
尚、図10には図示していないが、ユーザがフォーカスリングを操作し、フォーカスレンズのフォーカス位置が動いた場合は、ピーキング表示を再開するのが望ましい。
画像処理方法の第3実施形態によれば、フォーカス状態が安定していてマニュアルフォーカスが不要の場合、ピーキング表示を消すようにしたため、ユーザによる主要被写体の確認がより一層容易になる。
<第4実施形態>
図12は、本発明に係る画像処理方法の第4実施形態を示すフローチャートである。
画像処理方法の第4実施形態は、第1実施形態から第3実施形態と比較してピーキング表示に加えて、フォーカス評価値が良好である否かをユーザに報知する点で相違するため、ピーキング表示方法の説明は省略する。
「ピーキングあり」のライブビュー画像を見ながら、ユーザがフォーカスリングを操作し、フォーカスレンズのフォーカス位置を移動させる場合に、フォーカスレンズを移動させすぎたり、フォーカスレンズを繰り返し往復移動させる場合が多い。
画像処理方法の第4実施形態は、マニュアルフォーカス中にフォーカス評価値が高くなり、フォーカスレンズの移動が不要であることをユーザに知らせ、フォーカスレンズの動かしすぎを防止する。
図12において、プロセッサ16の輪郭成分抽出部16Dは、最新フレームの特定被写体領域Rの輝度データ(Y)から特定被写体の輪郭成分を抽出し、輪郭成分の振幅[Amp_n]を取得する(ステップS300)。
プロセッサ16は、直近の複数フレームに対するフォーカス評価値のうちの最大値となる最大評価値を取得する。即ち、プロセッサ16は、直近のhフレーム分の輪郭成分の振幅[Amp_n-1]~[Amp_n-h]のうち最も高い振幅[Amp_max]を取得する(ステップS302)。hフレームは、マニュアルフォーカス時にフォーカスリングを一方の方向に回転させる時間に対応するフレーム数であることが好ましい。
続いて、プロセッサ16は、ユーザがフォーカスリングを操作し、フォーカスレンズのフォーカス位置を変えたか否かを判別する(ステップS304)。フォーカス位置が変化したと判別すると(「Yes」の場合)、プロセッサ16は、ステップS300で取得した最新フレームのフォーカス評価値(振幅[Amp_n])が、ステップS302で取得した最大評価値(振幅[Amp_max])に基づいて設定される許容値を超えているか否かを判別する。ここで、許容値は、最大の振幅[Amp_max]に一定の割合(ratio)を乗算した値(Amp_max * ratio)である。
最新フレームの振幅[Amp_n]が許容値(Amp_max * ratio)を超えている場合(「Yes」の場合)、プロセッサ16は、フォーカス評価値が高いことを示す報知情報(例えば、アイコン)を表示部20に表示させ、ユーザに最新フレームが合焦していることを報知する(ステップS308)。
一方、最新フレームの振幅[Amp_n]が許容値(Amp_max * ratio)を超えていない場合(「No」の場合)、プロセッサ16は、ステップS308の処理を行わずに、ステップS310に遷移させる。
ステップS310では、ピーキング表示を終了させるか否かが判別される。ピーキング表示を終了させないと判別されると(「No」の場合)、ステップS300に遷移し、次のフレームに対してステップS300からステップS310の処理を繰り返えす。
画像処理方法の第4実施形態によれば、マニュアルフォーカス期間中に最新フレームのフォーカス評価値が許容値を超える場合、フォーカス評価値が高いことをユーザが知ることができ、これによりマニュアルフォーカスによるフォーカスレンズの動かしすぎを防止することができる。
[その他]
本実施形態の表示用の第2動画像データは、特定被写体領域にピーキング処理が施され、特定被写体のフォーカス状態が視認可能な動画像データであるが、これに限らず、ピーキング処理以外の方法により特定被写体のフォーカス状態を視認可能にした動画像データでもよい。ピーキング処理以外の方法としては、例えば、フォーカス状態の評価結果に応じて特定被写体領域を意図的にぼかしたり、特定被写体を囲む枠の表示形態を変化させる方法等が考えられ、要は特定被写体のフォーカス状態を容易に確認できる動画像データが生成されればよい。
また、特定被写体のフォーカス状態の評価結果を示すフォーカス評価値としては、特定被写体の輪郭成分の振幅に限らず、例えば、特定被写体領域の動画像データの高周波成分の絶対値の積算値や、位相差画素を有する撮像素子の場合、特定被写体領域の位相差画素から得られる位相差データをフォーカス評価値とすることができる。
本実施形態において、例えば、プロセッサ16の各種の処理を実行する処理部(processing unit)のハードウェア的な構造は、次に示すような各種のプロセッサ(processor)である。各種のプロセッサには、ソフトウェア(プログラム)を実行して各種の処理部として機能する汎用的なプロセッサであるCPU(Central Processing Unit)、FPGA(Field Programmable Gate Array)などの製造後に回路構成を変更可能なプロセッサであるプログラマブルロジックデバイス(Programmable Logic Device:PLD)、ASIC(Application Specific Integrated Circuit)などの特定の処理を実行させるために専用に設計された回路構成を有するプロセッサである専用電気回路などが含まれる。
1つの処理部は、これら各種のプロセッサのうちの1つで構成されていてもよいし、同種または異種の2つ以上のプロセッサ(例えば、複数のFPGA、あるいはCPUとFPGAの組み合わせ)で構成されてもよい。また、複数の処理部を1つのプロセッサで構成してもよい。複数の処理部を1つのプロセッサで構成する例としては、第1に、クライアントやサーバなどのコンピュータに代表されるように、1つ以上のCPUとソフトウェアの組合せで1つのプロセッサを構成し、このプロセッサが複数の処理部として機能する形態がある。第2に、システムオンチップ(System On Chip:SoC)などに代表されるように、複数の処理部を含むシステム全体の機能を1つのIC(Integrated Circuit)チップで実現するプロセッサを使用する形態がある。このように、各種の処理部は、ハードウェア的な構造として、上記各種のプロセッサを1つ以上用いて構成される。
更に、これらの各種のプロセッサのハードウェア的な構造は、より具体的には、半導体素子などの回路素子を組み合わせた電気回路(circuitry)である。
また、本発明は、コンピュータにインストールされることにより、コンピュータを本発明に係る画像処理装置として機能させる画像処理プログラム、及びこの画像処理プログラムが記録された不揮発性の記憶媒体を含む。
更に、本発明は上述した実施形態に限定されず、本発明の精神を逸脱しない範囲で種々の変形が可能であることは言うまでもない。
10 撮像装置
12 撮像レンズ
14 撮像部
16 プロセッサ
16A ホワイトバランス補正処理部
16B デモザイク処理部
16C 輝度・色差変換処理部
16D 輪郭成分抽出部
16E 輪郭強調処理部
16F 特定被写体領域設定部
16G 合成処理部
16H 圧縮処理部
18 メモリ
20 表示部
22 入出力インターフェース
22A 記録部
22B 第2接続部
22C 第1接続部
24 操作部
R 特定被写体領域
S10~S30、S100~S114、S200~S222、S300~S310 ステップ

Claims (20)

  1. プロセッサと、メモリとを備える画像処理装置において、
    前記プロセッサは、
    入力された撮像データに基づいて第1動画像データを生成する処理と、
    前記撮像データ又は前記第1動画像データが表す撮像領域内の、特定被写体を含む特定被写体領域を設定する処理と、
    前記撮像データ又は前記第1動画像データに基づいてフォーカス状態を評価する処理と、
    前記特定被写体領域のデータ、前記フォーカス状態の評価結果、及び前記第1動画像データに基づいて前記特定被写体領域のフォーカス状態が視認可能な第2動画像データを生成する処理と、
    前記第2動画像データを表示先に出力する処理と、を行い、
    前記プロセッサは、前記特定被写体のフォーカス状態の評価結果を示すフォーカス評価値を取得し、直近の複数フレームに対する前記フォーカス評価値のうちの最大値となる最大評価値を取得し、
    マニュアルフォーカス期間中に最新フレームのフォーカス評価値が、前記最大評価値に基づいて設定される許容値を超える場合に、前記最新フレーム内の前記特定被写体のフォーカス状態が良好であることを示す報知情報を前記表示先に出力する、
    画像処理装置。
  2. プロセッサと、メモリとを備える画像処理装置において、
    前記プロセッサは、
    入力された撮像データに基づいて第1動画像データを生成する処理と、
    前記撮像データ又は前記第1動画像データが表す撮像領域内の、特定被写体を含む特定被写体領域を設定する処理と、
    前記撮像データ又は前記第1動画像データに基づいてフォーカス状態を評価する処理と、
    前記特定被写体領域のデータ、前記フォーカス状態の評価結果、及び前記第1動画像データに基づいて前記特定被写体領域のフォーカス状態が視認可能な第2動画像データを生成する処理と、
    前記第2動画像データ又は前記第1動画像データを表示先に出力する処理であって、前記特定被写体のフォーカス状態の評価結果を示すフォーカス評価値を取得し、前記取得したフォーカス評価値が減少傾向にある場合、前記第2動画像データを表示先に出力し、前記取得したフォーカス評価値が減少傾向になく、かつ前記減少傾向にない状態が第2時間継続する場合、前記第1動画像データを前記表示先に出力する処理と、を行う、
    画像処理装置。
  3. プロセッサと、メモリと、を備える画像処理装置において、
    前記プロセッサは、
    入力された撮像データに基づいて第1動画像データを生成する処理と、
    前記撮像データ又は前記第1動画像データが表す撮像領域内の、特定被写体を含む特定被写体領域を設定する処理と、
    前記撮像データ又は前記第1動画像データに基づいてフォーカス状態を評価する処理と、
    前記特定被写体領域のデータ、前記フォーカス状態の評価結果、及び前記第1動画像データに基づいて前記特定被写体領域のフォーカス状態が視認可能な第2動画像データを生成する処理と、
    前記第2動画像データ又は前記第1動画像データを表示先に出力する処理であって、前記特定被写体のフォーカス状態の評価結果を示すフォーカス評価値を取得し、前記取得した前記フォーカス評価値が第2閾値未満の場合、前記第2動画像データを前記表示先に出力し、前記取得した前記フォーカス評価値が前記第2閾値を超える場合、前記第1動画像データを前記表示先に出力する処理と、を行う、
    画像処理装置。
  4. 前記第2動画像データは、前記特定被写体領域のみのフォーカス状態が視認可能な動画像データである、
    請求項1からのいずれか1項に記載の画像処理装置。
  5. 前記第2動画像データを生成する処理は、前記第1動画像データが表す撮像領域内の、前記特定被写体領域のデータが表す前記特定被写体領域に対して、前記フォーカス状態の評価結果に基づくデータを付加する処理を行うことで前記第2動画像データを生成する、
    請求項1からのいずれか1項に記載の画像処理装置。
  6. 前記プロセッサは、前記撮像データ又は前記第1動画像データに基づいて前記特定被写体のフォーカス状態の評価結果を含む第3動画像データを生成し、前記特定被写体領域、前記第1動画像データ、及び前記第3動画像データに基づいて前記第2動画像データを生成する、
    請求項1からのいずれか1項に記載の画像処理装置。
  7. 前記プロセッサは、前記特定被写体領域を除く前記第1動画像データと、前記特定被写体領域の前記第3動画像データとを合成して前記第2動画像データを生成する、
    請求項に記載の画像処理装置。
  8. 前記フォーカス状態を評価する処理は、前記撮像データ又は前記第1動画像データに基づいて被写体の輪郭成分を抽出し、前記抽出した輪郭成分の振幅に応じた輪郭強調処理を前記第1動画像データに施す処理である、
    請求項1からのいずれか1項に記載の画像処理装置。
  9. 前記輪郭強調処理は、前記抽出した輪郭成分の振幅が第1閾値を超える部分に対して特定の色を付加し、及び/又は前記輪郭成分の振幅に応じて特定の色の濃度を変化させる処理である、
    請求項に記載の画像処理装置。
  10. 前記プロセッサは、ユーザによる特定被写体の指示入力に基づいて前記特定被写体領域を設定する、
    請求項1からのいずれか1項に記載の画像処理装置。
  11. 前記プロセッサは、前記特定被写体の動きを検出し、前記特定被写体の動きに応じて前記特定被写体領域を変更する、請求項10に記載の画像処理装置。
  12. 前記プロセッサは、前記第1動画像データと前記第2動画像データとを第1時間毎に交互に前記表示先に出力する、
    請求項1から11のいずれか1項に記載の画像処理装置。
  13. 前記撮像データを出力する撮像部と、
    請求項1から12のいずれか1項に記載の画像処理装置と、
    を備えた撮像装置。
  14. プロセッサと、メモリとを備える画像処理装置によりマニュアルフォーカスを支援する動画像データを生成する画像処理方法であって、
    前記プロセッサの各処理は、
    入力された撮像データに基づいて第1動画像データを生成するステップと、
    前記撮像データ又は前記第1動画像データが表す撮像領域内の、特定被写体を含む特定被写体領域を設定するステップと、
    前記撮像データ又は前記第1動画像データに基づいてフォーカス状態を評価するステップと、
    前記特定被写体領域のデータ、前記フォーカス状態の評価結果、及び前記第1動画像データに基づいて前記特定被写体領域のフォーカス状態が視認可能な第2動画像データを生成するステップと、
    前記第2動画像データを表示先に出力するステップと、を含み、
    前記プロセッサは、前記特定被写体のフォーカス状態の評価結果を示すフォーカス評価値を取得し、直近の複数フレームに対する前記フォーカス評価値のうちの最大値となる最大評価値を取得し、
    マニュアルフォーカス期間中に最新フレームのフォーカス評価値が、前記最大評価値に基づいて設定される許容値を超える場合に、前記最新フレーム内の前記特定被写体のフォーカス状態が良好であることを示す報知情報を前記表示先に出力する、
    画像処理方法。
  15. プロセッサと、メモリとを備える画像処理装置によりマニュアルフォーカスを支援する動画像データを生成する画像処理方法であって、
    前記プロセッサの各処理は、
    入力された撮像データに基づいて第1動画像データを生成するステップと、
    前記撮像データ又は前記第1動画像データが表す撮像領域内の、特定被写体を含む特定被写体領域を設定するステップと、
    前記撮像データ又は前記第1動画像データに基づいてフォーカス状態を評価するステップと、
    前記特定被写体領域のデータ、前記フォーカス状態の評価結果、及び前記第1動画像データに基づいて前記特定被写体領域のフォーカス状態が視認可能な第2動画像データを生成するステップと、
    前記第2動画像データ又は前記第1動画像データを表示先に出力するステップであって、前記特定被写体のフォーカス状態の評価結果を示すフォーカス評価値を取得し、前記取得したフォーカス評価値が減少傾向にある場合、前記第2動画像データを前記表示先に出力し、前記取得したフォーカス評価値が減少傾向になく、かつ前記減少傾向にない状態が第2時間継続する場合、前記第1動画像データを前記表示先に出力するステップと、
    を含む画像処理方法。
  16. プロセッサと、メモリとを備える画像処理装置によりマニュアルフォーカスを支援する動画像データを生成する画像処理方法であって、
    前記プロセッサの各処理は、
    入力された撮像データに基づいて第1動画像データを生成するステップと、
    前記撮像データ又は前記第1動画像データが表す撮像領域内の、特定被写体を含む特定被写体領域を設定するステップと、
    前記撮像データ又は前記第1動画像データに基づいてフォーカス状態を評価するステップと、
    前記特定被写体領域のデータ、前記フォーカス状態の評価結果、及び前記第1動画像データに基づいて前記特定被写体領域のフォーカス状態が視認可能な第2動画像データを生成するステップと、
    前記第2動画像データ又は前記第1動画像データを表示先に出力するステップであって、前記特定被写体のフォーカス状態の評価結果を示すフォーカス評価値を取得し、前記取得した前記フォーカス評価値が第2閾値未満の場合、前記第2動画像データを前記表示先に出力し、前記取得した前記フォーカス評価値が前記第2閾値を超える場合、前記第1動画像データを前記表示先に出力するステップと、
    を含む画像処理方法。
  17. 前記撮像データ又は前記第1動画像データに基づいて前記特定被写体のフォーカス状態の評価結果を含む第3動画像データを生成するステップを更に含み、
    前記第2動画像データを生成するステップは、前記特定被写体領域、前記第1動画像データ、及び前記第3動画像データに基づいて前記第2動画像データを生成する、
    請求項14から16のいずれか1項に記載の画像処理方法。
  18. 前記第2動画像データを生成するステップは、前記特定被写体領域を除く前記第1動画像データと、前記特定被写体領域の前記第3動画像データとを合成して前記第2動画像データを生成する、
    請求項17に記載の画像処理方法。
  19. 入力された撮像データに基づいて第1動画像データを生成する機能と、
    前記撮像データ又は前記第1動画像データが表す撮像領域内の、特定被写体を含む特定被写体領域を設定する機能と、
    前記撮像データ又は前記第1動画像データに基づいてフォーカス状態を評価する機能と、
    前記特定被写体領域のデータ、前記フォーカス状態の評価結果、及び前記第1動画像データに基づいて前記特定被写体領域のフォーカス状態が視認可能な第2動画像データを生成する機能と、
    前記第2動画像データを表示先に出力する機能と、
    前記特定被写体のフォーカス状態の評価結果を示すフォーカス評価値を取得し、直近の複数フレームに対する前記フォーカス評価値のうちの最大値となる最大評価値を取得する機能と、
    マニュアルフォーカス期間中に最新フレームのフォーカス評価値が、前記最大評価値に基づいて設定される許容値を超える場合に、前記最新フレーム内の前記特定被写体のフォーカス状態が良好であることを示す報知情報を前記表示先に出力する機能と、
    をコンピュータに実現させる画像処理プログラム。
  20. 非一時的かつコンピュータ読取可能な記録媒体であって、請求項19に記載のプログラムが記録された記録媒体。
JP2022544495A 2020-08-25 2021-08-18 画像処理装置、撮像装置、画像処理方法及び画像処理プログラム Active JP7352745B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2023149342A JP2023165774A (ja) 2020-08-25 2023-09-14 画像処理装置、撮像装置、画像処理方法、画像処理プログラム及び記録媒体

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2020141656 2020-08-25
JP2020141656 2020-08-25
PCT/JP2021/030190 WO2022044915A1 (ja) 2020-08-25 2021-08-18 画像処理装置、撮像装置、画像処理方法及び画像処理プログラム

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2023149342A Division JP2023165774A (ja) 2020-08-25 2023-09-14 画像処理装置、撮像装置、画像処理方法、画像処理プログラム及び記録媒体

Publications (3)

Publication Number Publication Date
JPWO2022044915A1 JPWO2022044915A1 (ja) 2022-03-03
JPWO2022044915A5 JPWO2022044915A5 (ja) 2023-06-13
JP7352745B2 true JP7352745B2 (ja) 2023-09-28

Family

ID=80354262

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2022544495A Active JP7352745B2 (ja) 2020-08-25 2021-08-18 画像処理装置、撮像装置、画像処理方法及び画像処理プログラム
JP2023149342A Pending JP2023165774A (ja) 2020-08-25 2023-09-14 画像処理装置、撮像装置、画像処理方法、画像処理プログラム及び記録媒体

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2023149342A Pending JP2023165774A (ja) 2020-08-25 2023-09-14 画像処理装置、撮像装置、画像処理方法、画像処理プログラム及び記録媒体

Country Status (4)

Country Link
US (1) US20230188849A1 (ja)
JP (2) JP7352745B2 (ja)
CN (1) CN115997150A (ja)
WO (1) WO2022044915A1 (ja)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005278053A (ja) 2004-03-26 2005-10-06 Sony Corp 撮像装置
JP2009219020A (ja) 2008-03-12 2009-09-24 Canon Inc 撮影装置、撮像装置の制御方法及び撮像装置の制御プログラム
JP2009231918A (ja) 2008-03-19 2009-10-08 Sony Corp 映像信号処理装置、撮像装置及び映像信号処理方法

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4325599B2 (ja) * 2005-08-25 2009-09-02 ソニー株式会社 撮像装置および表示制御方法
JP2014089268A (ja) * 2012-10-29 2014-05-15 Nikon Corp 光学装置および顕微鏡
JP6516426B2 (ja) * 2014-09-05 2019-05-22 キヤノン株式会社 撮像装置、画像処理方法及びプログラム
JP2018006995A (ja) * 2016-06-30 2018-01-11 株式会社ニコン 撮像装置、表示装置、画像処理プログラム

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005278053A (ja) 2004-03-26 2005-10-06 Sony Corp 撮像装置
JP2009219020A (ja) 2008-03-12 2009-09-24 Canon Inc 撮影装置、撮像装置の制御方法及び撮像装置の制御プログラム
JP2009231918A (ja) 2008-03-19 2009-10-08 Sony Corp 映像信号処理装置、撮像装置及び映像信号処理方法

Also Published As

Publication number Publication date
JP2023165774A (ja) 2023-11-17
US20230188849A1 (en) 2023-06-15
JPWO2022044915A1 (ja) 2022-03-03
CN115997150A (zh) 2023-04-21
WO2022044915A1 (ja) 2022-03-03

Similar Documents

Publication Publication Date Title
EP3429189B1 (en) Dual image capture processing
KR101303410B1 (ko) 촬상장치 및 촬상방법
JP5780764B2 (ja) 撮像装置
US20170318208A1 (en) Imaging device, imaging method, and image display device
US20200396369A1 (en) Image capturing apparatus, image capturing method, and program
US20100007766A1 (en) Camera device and image processing method
KR101431536B1 (ko) 디지털 촬영장치 및 이의 제어방법
CN110278375B (zh) 图像处理方法、装置、存储介质及电子设备
US10762600B2 (en) Image processing apparatus, image processing method, and non-transitory computer-readable recording medium
US9277120B2 (en) Image capturing apparatus provided with a peaking function, control method therefor, and storage medium
CN106412391B (zh) 图像处理设备、图像处理方法和摄像设备
US9912873B2 (en) Image pickup apparatus equipped with display section and method of controlling the same
JP5146015B2 (ja) 撮像装置及び撮像方法
JP7352745B2 (ja) 画像処理装置、撮像装置、画像処理方法及び画像処理プログラム
JP6702792B2 (ja) 画像処理装置およびその制御方法
JP7442989B2 (ja) 撮像装置、該撮像装置の制御方法、及びプログラム
JP2016052081A (ja) 撮像装置、画像保存方法及びプログラム
US20230196529A1 (en) Image processing apparatus for capturing invisible light image, image processing method, and image capture apparatus
JP2009278486A (ja) 撮像装置
JP6849351B2 (ja) 画像処理装置、画像処理方法、及びプログラム
WO2019171782A1 (ja) 撮像装置、撮像方法、およびプログラム
JP2017034481A (ja) 画像処理装置、画像処理方法、および撮像装置
JP2023013568A (ja) 画像処理装置、撮像装置、ブレ確認方法及びプログラム
JP4409109B2 (ja) 電子カメラ装置及び画像処理装置
JP2010273011A (ja) 撮像装置、撮像方法、撮像プログラム

Legal Events

Date Code Title Description
A529 Written submission of copy of amendment under article 34 pct

Free format text: JAPANESE INTERMEDIATE CODE: A5211

Effective date: 20230202

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230414

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230414

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20230414

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230824

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230915

R150 Certificate of patent or registration of utility model

Ref document number: 7352745

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150