JP2023125905A - 画像処理装置、画像処理方法およびプログラム - Google Patents
画像処理装置、画像処理方法およびプログラム Download PDFInfo
- Publication number
- JP2023125905A JP2023125905A JP2022030258A JP2022030258A JP2023125905A JP 2023125905 A JP2023125905 A JP 2023125905A JP 2022030258 A JP2022030258 A JP 2022030258A JP 2022030258 A JP2022030258 A JP 2022030258A JP 2023125905 A JP2023125905 A JP 2023125905A
- Authority
- JP
- Japan
- Prior art keywords
- subject
- image
- area
- image processing
- images
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000012545 processing Methods 0.000 title claims abstract description 72
- 238000003672 processing method Methods 0.000 title description 2
- 238000003384 imaging method Methods 0.000 claims abstract description 30
- 238000000034 method Methods 0.000 claims abstract description 30
- 238000012937 correction Methods 0.000 claims abstract description 17
- 239000002131 composite material Substances 0.000 claims abstract description 10
- 230000003287 optical effect Effects 0.000 claims description 8
- 230000035945 sensitivity Effects 0.000 claims description 7
- 230000015572 biosynthetic process Effects 0.000 abstract description 16
- 238000003786 synthesis reaction Methods 0.000 abstract description 16
- 230000001771 impaired effect Effects 0.000 abstract description 2
- 230000002194 synthesizing effect Effects 0.000 abstract 3
- 239000013598 vector Substances 0.000 description 54
- 238000004364 calculation method Methods 0.000 description 29
- 238000010586 diagram Methods 0.000 description 12
- 239000000203 mixture Substances 0.000 description 9
- 238000006243 chemical reaction Methods 0.000 description 5
- 238000012935 Averaging Methods 0.000 description 4
- 230000006870 function Effects 0.000 description 4
- 238000000605 extraction Methods 0.000 description 3
- 230000006866 deterioration Effects 0.000 description 2
- 230000014509 gene expression Effects 0.000 description 2
- 238000010801 machine learning Methods 0.000 description 2
- 238000002360 preparation method Methods 0.000 description 2
- 230000003068 static effect Effects 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 1
- 230000002238 attenuated effect Effects 0.000 description 1
- 230000000593 degrading effect Effects 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000001815 facial effect Effects 0.000 description 1
- 238000009499 grossing Methods 0.000 description 1
- 238000002156 mixing Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000001454 recorded image Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 230000001629 suppression Effects 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/68—Control of cameras or camera modules for stable pick-up of the scene, e.g. compensating for camera body vibrations
- H04N23/682—Vibration or motion blur correction
- H04N23/684—Vibration or motion blur correction performed by controlling the image sensor readout, e.g. by controlling the integration time
- H04N23/6845—Vibration or motion blur correction performed by controlling the image sensor readout, e.g. by controlling the integration time by combination of a plurality of images sequentially taken
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/50—Image enhancement or restoration by the use of more than one image, e.g. averaging, subtraction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/25—Determination of region of interest [ROI] or a volume of interest [VOI]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/62—Extraction of image or video features relating to a temporal dimension, e.g. time-based feature extraction; Pattern tracking
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
- G06V40/23—Recognition of whole body movements, e.g. for sport training
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/61—Control of cameras or camera modules based on recognised objects
- H04N23/611—Control of cameras or camera modules based on recognised objects where the recognised objects include parts of the human body
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/68—Control of cameras or camera modules for stable pick-up of the scene, e.g. compensating for camera body vibrations
- H04N23/681—Motion detection
- H04N23/6811—Motion detection based on the image signal
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/68—Control of cameras or camera modules for stable pick-up of the scene, e.g. compensating for camera body vibrations
- H04N23/682—Vibration or motion blur correction
- H04N23/683—Vibration or motion blur correction performed by a processor, e.g. controlling the readout of an image memory
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20092—Interactive image processing based on input by user
- G06T2207/20104—Interactive definition of region of interest [ROI]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20172—Image enhancement details
- G06T2207/20201—Motion blur correction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20212—Image combination
- G06T2207/20221—Image fusion; Image merging
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Signal Processing (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Psychiatry (AREA)
- Social Psychology (AREA)
- Human Computer Interaction (AREA)
- Studio Devices (AREA)
- Image Processing (AREA)
Abstract
Description
本発明は、画像処理装置、画像処理方法およびプログラムに関し、特に、動きブレを維持したい領域と抑制したい領域が混在する撮影において、局所的なノイズ悪化を抑えつつ、領域毎に適した被写体ブレを再現するための画像処理技術に関する。
従来、スポーツシーンや日常のスナップなど、局所的な動き被写体が含まれる撮影シーンにおいて、動きブレを抑えた表現をする被写体領域と、動きに応じたブレを残す領域を混在させることで、シーンの臨場感や、動き被写体の躍動感を強調した画像表現を行うものがある。このような表現を行うために、特許文献1に記載の先行技術では、時系列で連続する複数枚の画像から、移動体に関する情報を評価して動きブレ強度を決定し、領域毎に、合成枚数を変化させて、異なる動きブレを付与した画像を生成するものが提案されている。
ここで、特許文献1に記載の先行技術では、所定の露光時間で撮影された複数枚の画像を参照し、動きブレを低減したい領域ほど、画像の合成枚数を少なく、動きブレを付与したい領域ほど、加算平均等の画像の合成枚数を多くする制御が行われる。したがって、ブレを抑えたい被写体領域は、ブレを付与したい被写体領域に対して、相対的にノイズが多くなり、最終的に得られる画質の品位が損なわれるという課題があった。そこで、本発明の画像処理装置では、動きブレを維持したい領域と抑制したい領域が混在する撮影において、局所的なノイズ悪化を抑えつつ、領域毎に適した被写体ブレを再現する画像処理を提供することを目的としている。
上記の課題を鑑みて、本発明の画像処理装置は、画像を取得する画像取得手段と、前記画像内で複数の被写体領域を決定する領域決定手段と、所定の撮影条件で撮像を行う撮像手段から得られた複数枚の画像を合成する合成手段と、を有し、前記合成手段は、前記複数の被写体領域の特徴にそれぞれ対応した、異なる被写体ブレの補正特性を有し、前記複数の被写体領域毎に、前記異なる被写体ブレの補正特性を参照して、合成処理を行うことを特徴とする。
動きブレを維持したい領域と抑制したい領域が混在する撮影において、局所的なノイズ悪化を抑えながら、領域毎に適した被写体ブレを再現することができる。
(実施例1)
以下、本発明の好適な一実施形態について、図面を参照して詳細に説明する。なお、以下に説明する一実施形態は撮像装置であり、撮像装置の一例としてのデジタルカメラに本発明を適用した例を説明する。
以下、本発明の好適な一実施形態について、図面を参照して詳細に説明する。なお、以下に説明する一実施形態は撮像装置であり、撮像装置の一例としてのデジタルカメラに本発明を適用した例を説明する。
図1は、本発明の実施形態に係るデジタルカメラの機能構成を示すブロック図である。制御部101は、例えばCPUであり、デジタルカメラ100が備える各ブロックの動作プログラムをROM102より読み出し、RAM103に展開して実行することによりデジタルカメラ100が備える各ブロックの動作を制御する。ROM102は、書き換え可能な不揮発性メモリであり、デジタルカメラ100が備える各ブロックの動作プログラムに加え、各ブロックの動作に必要なパラメータ等を記憶する。RAM103は、書き換え可能な揮発性メモリであり、デジタルカメラ100が備える各ブロックの動作において出力されたデータの一時的な記憶領域として用いられる。
光学系104は、被写体像を撮像部105に結像する。光学系104には、例えば、固定レンズ、焦点距離を変更する変倍レンズ、焦点調節を行うフォーカスレンズ等が含まれている。光学系104には絞りも含まれており、絞りにより光学系の開口径を調節することで撮影時の光量調節を行う。撮像部105は、例えばCCDやCMOSセンサー等の撮像素子であり、光学系104により撮像素子に結像された光学像を光電変換し、得られたアナログ画像信号をA/D変換部106に出力する。A/D変換部106は、入力されたアナログ画像信号にA/D変換処理を適用し、得られたデジタル画像データをRAM103に出力して記憶させることで、画像データが取得(画像取得)される。
画像処理部107は、RAM103に記憶されている画像データに対して、ホワイトバランス調整、色補間、ガンマ処理など、様々な画像処理を適用した画像データをRAM103に出力する。また、画像処理部107は、後述する画像合成処理部200を具備し、RAM103に記憶されている画像データのシーンを認識したり、画像データを用いた動き解析結果や、被写体の移動方向の推定結果に基づき、デジタルカメラ100における撮影パラメータを生成したりする。なお、画像処理部107が生成した撮影制御パラメータは制御部101に出力され、制御部101よりデジタルカメラ100が備える各ブロックの動作が制御される。
記録媒体108は着脱可能なメモリカード等であり、RAM103に記憶されている画像処理部107で処理された画像やA/D変換部106でA/D変換された画像などが、記録画像として記録される。表示部109は、LCD等の表示デバイスであり、撮像部105で取り込まれた被写体像をスルー表示することで電子ビューファインダー機能を構成できる。また、記録媒体108に記録された画像を再生表示したりするなど、デジタルカメラ100における各種の情報提示を行う。そして、画像処理部107における画像データのシーン認識結果に基づくアイコン表示などを画像に重畳させて表示することもできる。
操作入力部110は、例えばレリーズスイッチ、設定ボタン、モード設定ダイアル等のユーザ入力インタフェースを含み、ユーザによりなされた操作入力を検出すると、該操作入力に対応する制御信号を制御部101に出力する。また表示部109がタッチパネルセンサを備えている態様においては、操作入力部110は、表示部109に対してなされたタッチ操作を検出するインタフェースとしても機能する。
以上、デジタルカメラ100の構成と、基本動作について説明した。
次に、本発明実施例1の特徴である画像処理部107の動作について、詳細に説明を行う。本発明実施例1では、ゴルフのスウィングを行う被写体の撮影を例に説明を行う。ここでは、顔領域には動きブレがないが、スウィングしている領域には動きブレが出るよう、領域毎に異なるブレの制御を行いつつ、局所的なノイズが悪化しないような画像を得るための処理について記載する。
まず、画像処理部107が具備する画像合成処理部200の構成例について、図2を参照して説明する。図2は、画像合成処理部200の構成例を示す図である。
画像合成処理部200は、被写体領域決定部201、特徴抽出部202、撮影パラメータ生成部203、領域別合成特性決定部204、位置合わせ処理部205、合成処理部206より構成される。画像合成処理部200は、撮像部105が撮像しRAM103に記録した画像データ207、208を入力し、画像合成結果209を出力する。
また、画像データ207は、撮影準備中にユーザが被写体を表示部で認識しながら撮影タイミングを決めるためのライブビュー動作中に撮影される画像であり、画像データ208は、ユーザが撮影指示を行った後の、本撮影中に、撮影される画像である。画像データ207と208を撮像する際の撮像部の撮像制御は同じでもよい。または、ライブビュー動作中に撮影パラメータ生成部203で決定される、絞り、シャッタースピード、ISO感度を含む撮影パラメータに基づき、208の撮影時に、撮像制御を変更してもよい。
次に、画像合成処理部200の処理について、図3のフローチャートを用いて説明する。
S301で、ユーザはデジタルカメラ100の電源を入れ、構図合わせなどの準備撮影を開始する。制御部101は、準備撮影中に所定のフレームレートを維持して連続的に画像を撮影する。撮影した画像を表示部109に表示し、ユーザは表示された画像を見ながら構図合わせなどを行う。本実施例におけるフレームレートは毎秒120枚とする。つまり撮像部105は1/120秒ごとに1枚の画像を撮影する。また、この時のシャッタースピードは可能な限り短くなるように設定される。連続的に撮影された画像の例を図4に示す。時刻tにおける画像を401、時刻t+1における画像を402とする。また、図4はゴルフのスウィングをしている人物を撮影しようとしている様子を表している。人物被写体403の顔および体の中心は被写体の動きが少なく、スイングしているゴルフクラブの先端の領域404は、動き量が多いものの、短い露光時間で撮影しているため撮影画像に大きなブレは発生していない。
S302で、被写体領域決定処理部201は、制御部101の制御の下、S301において撮影した(取得された)画像データ207を参照し、最終的な、出力画像の動きブレとノイズの再現特性を決定するための基準とする、代表的な被写体領域の決定を行う。例えば、本実施例のゴルフのシーンであれば、図5に示すように、ゴルフをしている人物の顔の領域を第1の代表領域503と設定し、スイングされているゴルフクラブの先端近傍の領域を第2の被写体領域504と設定する。
被写体領域の決定方法の一例としては、表示部に表示された撮影画像をユーザが見ながら、所定の領域をタッチして決める方法がある。具体的には、撮影準備中に、ユーザが表示部において、画像の一部をタッチすると、図5に示すように、タッチされた領域を含む所定の大きさの矩形の枠503、504が、重畳表示される。そして、当該領域内の画像に対して、機械学習などの既知の画像認識処理を適用し、設定された被写体領域の属性を判別する。また、例えば特許文献2で開示されているような手法で、人物被写体や、ゴルフなど特定のスポーツの特徴を持つ被写体を検出対象に設定して、複数の被写体領域を決定してもよい。
いずれの場合も、領域情報の属性、例えば、人物領域、ゴルフのクラブ、などの情報を、複数の代表被写体領域の情報として、RAM103に保持するものとする。
次に、S303では、特徴抽出部202が、制御部101の制御の下、画像データ207を参照し、S303で選択された被写体領域内の画像の特徴から、領域毎の合成特性を決めるための画像特徴量を算出する。本実施例では、被写体領域の動き量とノイズ量に基づいて、合成特性を制御することで、最終的な出力画像において、動き被写体領域の躍動感を出しつつ、静止被写体領域のノイズが良好なレベルで再現することを目的としている。したがって、特徴抽出部202は、図2に示すように、内部に、動きベクトル算出部2022と、ノイズ量算出部2021を有し、それぞれ、選択された領域の画像特徴量として、動きベクトルの情報と、ノイズ量を求める。
まず、動きベクトル算出部2022での動きベクトル算出処理について、図6、図7及び図8を参照して詳しく説明する。
動きベクトルとは、連続的に撮影された画像207の画像間での、被写体領域の水平方向の移動量と垂直方向の移動量をベクトルとして表したものである。図6は、動きベクトル算出部2022による動きベクトル及び動きベクトル信頼度の算出処理を示すフローチャートである。図7は、ブロックマッチング法による動きベクトルの算出方法を示す図である。なお、本実施例では、動きベクトルの算出手法として、ブロックマッチング法を例に挙げて説明するが、動きベクトルの算出手法はこの例に限定されず、例えば勾配法でもよい。
図6のS601において、動きベクトル算出部2022には、時間的に隣接する2枚の撮影画像が入力される。本実施例では、動きベクトル算出部2022は、図4の時刻tにおける撮影画像を基準フレームに設定し、時刻t+1の撮影画像を参照フレームに設定する。
図6のS602において、動きベクトル算出部204は、図7のように、基準フレーム701において、N×N画素の基準ブロック702を配置する。
本実施例では、基準ブロック702を配置する領域を、S302において、被写体領域決定処理部202が設定した、代表被写体領域に設定することで、撮影パラメータを生成するために必要な動き情報だけを効率よく解析することができる。特に後述するS604の相関演算は処理負荷が大きい演算内容であるので、必要な領域のみで演算を行うことによって、より高速に撮影パラメータを生成することが可能となる。
図6のS603において、動きベクトル算出部2022は、図7のように、参照フレーム703に対し、基準フレーム701の基準ブロック702の中心座標と同座標704の周囲(N+n)×(N+n)画素を、探索範囲705として設定する。探索範囲705の設定もS602と同じく、被写体領域決定処理部202が設定した、代表被写体領域の周囲に限定する。
図6のS604において、動きベクトル算出部2022は、基準フレーム701の基準ブロック702と、参照フレーム703の探索範囲705内に存在する異なる座標のN×N画素の参照ブロック706との相関演算を行い、相関値を算出する。相関値は、基準ブロック702及び参照ブロック706の画素に対するフレーム間差分絶対値和に基づき算出する。つまり、フレーム間差分絶対値和の値が最も小さい座標が、最も相関値が高い座標となる。なお、相関値の算出方法は、フレーム間差分絶対値和を求める方法に限定されず、例えばフレーム間差分二乗和や正規相互相関値に基づく相関値を算出する方法でもよい。図7の例では、参照ブロック706が最も相関が高いことを示しているとする。
図6のS605において、動きベクトル算出部2022は、S604で求めた最も高い相関値を示す参照ブロック座標に基づき動きベクトルを算出し、その動きベクトルの相関値を動きベクトル信頼度とする。図7の例の場合、参照フレーム703の探索範囲705の中で、基準フレーム701の基準ブロック702の中心座標に対応した同座標704と、参照ブロック706の中心座標に基づき動きベクトルが求められる。つまり、同座標704から参照ブロック706の中心座標までの座標間距離と方向が動きベクトルとして求められる。また、その動きベクトル算出時における参照ブロック706との相関演算結果である相関値が動きベクトル信頼度として求められる。なお、動きベクトル信頼度は、基準ブロックと参照ブロックとの相関値が高いほど高くなる。
図6のS606において、動きベクトル算出部2022は、基準フレーム701において基準ブロック702を配置すべき対象箇所、つまり本実施例では被写体領域決定処理部202が設定した、代表被写体領において動きベクトルを算出したか否か判定する。動きベクトル算出部204は、すべての対象箇所において動きベクトルを算出したと判定した場合は動きベクトル算出の処理を終了する。一方、対象箇所の動きベクトルを算出していないと判定した場合には、S602に処理を戻して以降の処理を繰り返す。また、本実施例では、基準ブロック702は顔領域とゴルフクラブの領域に含まれるすべての画素における1画素ごとに動きベクトルと動きベクトル信頼度を算出し、動きベクトル信頼度に基づいて、信頼度の高い動きベクトルを平均して、各領域を代表する動きベクトルを求める構成とした。
以上のような処理に基づき算出した撮影画像間の動きベクトルを図8(a)に示す。図8(a)における矢印が動きベクトルを示し、矢印の長さが動きベクトルの大きさ、矢印の方向が動きベクトルの方向を示す。801が人物被写体403の顔領域の動きベクトルであり、802がゴルフクラブの領域の動きベクトルである。ゴルフクラブを高速にスウィングしているため、顔領域よりもフレーム間での移動量が大きくなっていることがわかる。
次に、ノイズ量算出部2021でのノイズ量算出処理について説明する。
ノイズ量算出部2021では、画像207において、S302で被写体領域決定部202が設定した、代表被写体領域内の画素値を参照し、領域内の画素値の分散をノイズ量として算出する。具体的には、第1の代表被写体領域503、第2の代表被写体領域504に対応する、ノイズ量N(A1)、N(A2)を、それぞれ、式(1)、(2)によって算出する。
N(A1)=1/n1 Σ(xi1-x_ave1)^2・・・(1)
N(A2)=1/n2 Σ(xi2-x_ave2)^2・・・(2)
N(A1)=1/n1 Σ(xi1-x_ave1)^2・・・(1)
N(A2)=1/n2 Σ(xi2-x_ave2)^2・・・(2)
ここで、n1,n2は、各代表被写体領域内の画素数であり、xi1、xi2は、各代表被写体領域内の画素値、x1_ave、x2_aveは、各代表被写体領域内の画素の平均値である。
以上、S303で算出した、代表被写体領域毎の、動きベクトル情報と、ノイズ量は、後段の処理で、合成処理の枚数を決定する際に用いられる。
次に、S304では、代表被写体領域内の画像の特徴量に基づき、領域別合成特性決定部204が制御部101の制御の下、本撮影中に、合成処理の特性を決定するための基準領域を推定する処理を行う。まず、S302で決定した、代表被写体領域の属性と、S303で算出した、代表被写体領域の動きベクトル量と方向から、代表被写体領域の近傍の領域で、本撮影時に、代表被写体領域と同程度とみなせる動き量が発生する被写体領域を推定する。この処理は、既知の機械学習などの認識処理を適用してもよい。また、代表被写体領域の属性に基づいて、所定の期間、代表被写体領域の動きが、動きベクトルの方向に連続して発生するように、動きベクトルの対応点を拡張して、所定の動き量が発生する被写体領域を推定してもよい。図8(b)に、推定された領域の一例を示す。第1の基準領域803は、第1の代表被写体領域503に対応し、人物被写体の顔の動きと同程度の動き量が発生すると推定される被写体領域である。第2の基準領域804は、第2の代表被写体領域503に対応し、ゴルフクラブを高速にスイングした際の動き量が発生すると推定される被写体領域である。これらの推定された領域は、後段で、領域毎に異なる合成処理の特性を決定する際の基準領域として参照される。また、基準領域毎に、個々の基準領域の領域名と、基準領域内の代表点の画素位置の情報を対応づけて、RAM103に記憶する。基準領域内の代表点の一例としては、基準領域内の各画素位置の動きベクトルを参照し、基準領域内で、最も動きが大きい領域、または最も動き量が小さい領域を代表点に設定する。図8(c)に、基準領域と代表点の一例を示す。図8(b)のシーンにおける第1の基準領域803の代表点はA1であり、その一座標はA1(x1,y1)となっている。また、図8(b)のシーンにおける第2の基準領域804の代表点はA2であり、その一座標はA2(x2,y2)となっている。
次に、S305では、S303で解析された、代表被写体領域内の画像の特徴量に基づき、制御部101の制御の下、撮影パラメータ生成部203が本撮影に適用する撮影パラメータを決定する(撮影条件決定)。具体的にはシャッタースピード、絞り値、ISO感度の設定と、最終出力画像を得るためのトータルの露光時間、および、合成処理の枚数が決定される。ここで、シャッタースピードは、第1の代表被写体領域である顔領域のブレを軽減するよう、高速なシャッタースピードを設定される。また、絞り値は、第1の代表被写体領域および、第2の代表被写体領域であるゴルフのスイングしているクラブの領域が、被写界深度内に入る絞り値を設定される。ISO感度については、前記のシャッタースピード、絞り値の条件下で、第1の代表被写体領域、及び、第2の代表被写体領域を含む画面内の平均的な明るさのレベルが、所定のレベルとなるように設定される。また、最終出力画像を得るためのトータルの露光時間は、S303で求めた動きベクトルの情報と、ノイズ量を参照し、第2の代表被写体領域の動きブレが所望の動きブレ量となるよう表現され、かつ、ブレを少なく再現したい、第1の代表被写体領域のノイズ量を抑えるような露光時間に基づいて決定される。さらに、トータルの露光時間を、前記シャッタースピードで除した値が、合成に用いる画像の撮影枚数となる。
次に、S306では、S305で決定した撮影パラメータに基づいて、撮像部105で最終出力画像を生成するための本撮影を行い、本撮影に用いる画像208を撮影する。
例えば、シャッタースピードが、1/500秒、絞り値が、F8、ISO感度がISO12800の画像を、10枚連続で撮影する。また、連続した画像の撮影コマの間は、なるべく期間が空かないように撮像部105を駆動制御するものとする。
図9は、連続して撮影された画像208の各画像の撮影順番を示した図になる。後段の位置合わせ処理では、先頭の画像1501を、位置合わせの基準としているが、代表被写体領域の動き量に基づき、先頭以外の画像を位置合わせの基準に設定してもよい。
次に、S307では、S304で決定した、基準領域の属性情報を参照し、画素位置ごとに、制御部101の制御の下、合成特性の算出処理を行う。
まず、S306で連続撮影された画像208を順次入力し、画像内の画素位置毎に、当該画素が複数の基準領域のいずれの領域に該当するかを、画素間距離に基づいて判定する。ここで、図8(c)に示すように、第1の基準領域の代表点の画素位置をA1(X1,Y1)、第2の基準領域の代表点の画素位置をA2(X2,Y2)、入力画像における着目画素Pの画素位置をP(Xp,Yp)とする。このとき画素Pと第1の基準領域との画素間距離D1、画素Pと第2の基準領域との画素間距離D2、は、式(3)、(4)で算出される。
D1=|Xp-X1|+|Yp-Y1|・・・(3)
D2=|Xp-X1|+|Yp-Y1|・・・(4)
D1=|Xp-X1|+|Yp-Y1|・・・(3)
D2=|Xp-X1|+|Yp-Y1|・・・(4)
次に、画素間距離D1,D2と、あらかじめ定められた閾値THminを参照し、着目画素における合成特性を制御するための合成指標Mを、式(5)~(8)によって、算出する。
M=0 (D1<D2 かつ D1<THmin)・・・(5)
M=1023 (D2<D1 かつ D2<THmin)・・・(6)
M=D1/(D1+D2) (D1<D2 かつ D1≧THmin)・・・(7)
M=1023-D2/(D1+D2) (D2<D1 かつ D2≧THmin)・・・(8)
M=0 (D1<D2 かつ D1<THmin)・・・(5)
M=1023 (D2<D1 かつ D2<THmin)・・・(6)
M=D1/(D1+D2) (D1<D2 かつ D1≧THmin)・・・(7)
M=1023-D2/(D1+D2) (D2<D1 かつ D2≧THmin)・・・(8)
例えば着目画素が、第1の基準領域803に含まれる画素位置の場合、式(5)により、合成指標M=0が設定される。一方、着目画素Pが、第2の基準領域804に含まれる画素位置の場合、式(6)により、合成指標M=1023が設定される。また、図8(c)に示すように、着目画素Pが、第1の基準領域803と第2の基準領域804のいずれにも含まれない中間の画素領域に位置する場合には、式(7)または式(8)により、合成指標Mが1~1023までの値が設定される。
以上のように算出された画素毎の合成指標Mに基づき、後段の合成処理において、第1の基準領域803の代表点に近い画素ほど、第1の基準領域803に基づく合成処理の適用度合いを大きくし、第2の基準領域804の代表点に近い画素ほど、第2の基準領域804に基づく合成処理の適用度合いが大きくなるよう、後段の位置合わせ処理、及び、合成処理を制御するものとする。
ここで、領域毎に合成処理の特性を変えることの狙いについて説明する。
薄暗い環境で撮影が行われる場合などでは、撮影対象の代表的な被写体領域を被写界深度内に収め、かつ、顔領域がブレないようにするために、高速なシャッタースピードを設定すると、ISO感度が高い値になる場合がある。例えば、シャッタースピードが、1/500秒、絞り値が、F8、ISO感度がISO12800となるような場合である。このような条件で撮影された複数枚の画像を用いて、動き領域の動きブレを再現し、静止領域をなるべくノイズ少なく再現する画像を生成するためには、静止領域においても、複数枚の画像を合成しないと、静止領域のみノイズレベルが相対的に悪くなる。
例えば、1/50秒で、所望の動きブレとなるような場合、1/500秒で撮影された画像を10枚、加算平均することになり、動き領域では、合成後(加算平均後)の画像のノイズレベルは、1/√10に減衰される。したがって、動きブレを抑制したい被写体領域においても、同程度の加算平均を行い、ノイズレベルを低減しないと、動き領域と静止領域の境界で、ノイズ段差が発生し、画質を損なってしまう。また、静止領域は、手ブレと微小な被写体ブレによる像の局所的な位置のずれを補正してから合成処理を行う必要があるが、動きを再現したい領域では、手ブレのみを補正し、局所的な被写体ブレは、補正せずに合成を行いたい。したがって、本発明では、ブレの再現とノイズ抑圧が所望の程度になるよう、画面内の領域毎に、異なる補正特性で合成処理を実施する構成としている。
S308では、画素位置毎に、S307で決定された合成特性に基づいて、合成に先立ち、制御部101の制御の下、位置合わせ処理部205が位置のずれの補正量を決定し、位置合わせ(位置補正)処理を行う。
S307で、合成特性の指標M=0~511が設定された画素は、第1の基準領域803の近傍の画素である。したがって、位置合わせ処理部205は第1の代表被写体領域である顔のブレを軽減するよう、手ブレ成分に加えて、被写体の局所的な像のブレを検出し、位置合わせを行う。一方、S307で、合成特性の指標M=512~1023が設定された画素は、第2の基準領域804の近傍の画素である。したがって、位置合わせ処理部205は第2の代表被写体領域であるゴルフのスイングの領域での動きブレを再現するよう、手ブレ成分のみ、すなわち、画像全体の画角の位置ずれ量に基づいて、位置合わせ補正を行う。位置合わせ処理の具体的例としては、特許文献3に記載の公知技術適用することができるが、これに限られるものではない。
S309では、画素位置毎に、S307で決定された合成特性に基づいて、制御部101の制御の下、合成処理部206が合成処理を行う。S307で、合成特性の指標M=0~511が設定された画素は、第1の代表被写体領域である顔のブレを軽減し、かつ、ノイズを低減する合成特性を優先し、S308で位置合わせを適用された画像を参照し、所定の枚数加算平均を行う。また、S303で算出されたノイズ量に基づき、合成前の画像において、第1の代表被写体領域のノイズ量が第2の代表被写体領域のノイズ量よりも大きい場合がある。この場合動きブレを再現するための加算平均と同等の加算平均では、ノイズ差がついてしまうため、合成後の画像に対して、画素毎に、着目画素の近傍の画像を参照した平滑化処理を適用してもよい。
S307で、合成特性の指標M=512~1023が設定された画素は、第2の代表被写体領域であるゴルフのスイングの領域での動きブレを再現することを優先する。そこでS308では第1の代表被写体領域とは異なる位置合わせを適用された画像を参照し、所定の枚数加算平均を行う。
以上の処理を、連続して撮影された本画像208を参照し、すべての画素位置において適用、出力結果を記録媒体108に記録して、一連の処理を終了する。
図10に出力画像の例を示す。人物被写体の顔部分には動きブレは発生していない。一方、クラブ領域には動きブレが発生していて躍動感のある画像を撮影することができている。
以上、本発明の好ましい実施形態について説明したが、本発明はこれらの実施形態に限定されず、その要旨の範囲内で種々の変形及び変更が可能である。
[その他の実施形態]
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
100 デジタルカメラ
101 制御部
102 ROM
103 RAM
104 光学系
105 撮像部
106 A/D変換部
107 画像処理部
108 記録媒体
109 表示部
110 操作入力部
101 制御部
102 ROM
103 RAM
104 光学系
105 撮像部
106 A/D変換部
107 画像処理部
108 記録媒体
109 表示部
110 操作入力部
Claims (17)
- 画像を取得する画像取得手段と、
前記画像内で複数の被写体領域を決定する領域決定手段と、
所定の撮影条件で撮像を行う撮像手段から得られた複数枚の画像を合成する合成手段と、を有し、
前記合成手段は、前記複数の被写体領域の特徴にそれぞれ対応した、異なる被写体ブレの補正特性を有し、前記複数の被写体領域毎に、前記異なる被写体ブレの補正特性を参照して、合成処理を行うことを特徴とする画像処理装置。 - 前記複数の被写体領域の特徴は、前記複数の被写体領域におけるそれぞれの動き量、ノイズ量の少なくとも一方に基づいて決定されることを特徴とする請求項1に記載の画像処理装置。
- 前記所定の撮影条件を決定する撮影条件決定手段を有し、
前記撮影条件決定手段は、前記画像内の前記複数の被写体領域の属性と、前記複数の被写体領域内の動き量に基づいて、前記複数の被写体領域毎に、前記異なる被写体ブレの補正特性に対応した露光時間と合成枚数を決定することを特徴とする請求項1または2に記載の画像処理装置。 - 前記被写体領域の属性は画像認識処理によって判別されることを特徴とする請求項3に記載の画像処理装置。
- 前記合成手段は、前記複数枚の画像間の局所的な位置のずれを補正する位置補正手段を有することを特徴とする請求項1乃至4のいずれか1項に記載の画像処理装置。
- 前記合成手段は、前記位置補正手段によって前記局所的な位置のずれを補正した後の前記複数枚の画像を合成することを特徴とする請求項5に記載の画像処理装置。
- 前記位置補正手段は、第1の被写体領域と、前記第1の被写体領域に隣接する被写体領域における前記画像の特徴の少なくともいずれかに基づいて、前記局所的な位置のずれの補正量を決定することを特徴とする、請求項6に記載の画像処理装置。
- 前記合成手段は、第1の被写体領域と、前記第1の被写体領域に隣接する被写体領域とのノイズレベルの差に基づいて、前記第1の被写体領域における合成枚数を決定することを特徴とする、請求項1乃7のいずれか1項に記載の画像処理装置。
- 前記第1の被写体領域は前記複数の被写体領域のうち被写体ブレを抑えたい領域であることを特徴とする請求項7または8に記載の画像処理装置。
- 前記第1の被写体領域は前記複数の被写体領域のうち被写体ブレを再現したい領域であることを特徴とする請求項7または8に記載の画像処理装置。
- 前記複数の被写体領域は、前記画像の特徴量をもとに決定されることを特徴とする請求項1乃至10のいずれか1項に記載の画像処理装置。
- 前記所定の撮影条件はシャッタースピード、絞り値、ISO感度、露光時間および合成枚数の少なくとも1つを含むことを特徴とする請求項1乃至11のいずれか1項に記載の画像処理装置。
- 前記画像を表示する表示手段を有し、
前記複数の被写体領域はユーザが前記表示手段にて決定することを特徴とする請求項1乃至12のいずれか1項に記載の画像処理装置。 - 光学系を介して結像された被写体像を撮像し、前記画像を出力する撮像手段と、
請求項1乃至13のいずれか1項に記載の画像処理装置を有する撮像装置。 - 画像を取得する画像取得工程と、
前記画像内の複数の被写体領域を決定する領域決定工程と、
所定の撮影条件で撮像を行う撮像手段から得られた複数枚の画像を合成する合成工程と、を有し、
前記合成工程は、前記複数の被写体領域の特徴にそれぞれ対応した、異なる被写体ブレの補正特性を有し、前記複数の被写体領域毎に、前記異なる被写体ブレの補正特性を参照して、合成処理を行うことを特徴とする画像処理装置の制御方法。 - 請求項15に記載の制御方法の各工程をコンピュータに実行させるためのプログラム。
- 請求項15に記載の制御方法の各工程をコンピュータに実行させるためのプログラムを記憶したコンピュータが読み取り可能な記憶媒体。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022030258A JP2023125905A (ja) | 2022-02-28 | 2022-02-28 | 画像処理装置、画像処理方法およびプログラム |
US18/172,725 US20230276127A1 (en) | 2022-02-28 | 2023-02-22 | Image processing apparatus and image processing method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022030258A JP2023125905A (ja) | 2022-02-28 | 2022-02-28 | 画像処理装置、画像処理方法およびプログラム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2023125905A true JP2023125905A (ja) | 2023-09-07 |
Family
ID=87761406
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022030258A Pending JP2023125905A (ja) | 2022-02-28 | 2022-02-28 | 画像処理装置、画像処理方法およびプログラム |
Country Status (2)
Country | Link |
---|---|
US (1) | US20230276127A1 (ja) |
JP (1) | JP2023125905A (ja) |
-
2022
- 2022-02-28 JP JP2022030258A patent/JP2023125905A/ja active Pending
-
2023
- 2023-02-22 US US18/172,725 patent/US20230276127A1/en active Pending
Also Published As
Publication number | Publication date |
---|---|
US20230276127A1 (en) | 2023-08-31 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4760973B2 (ja) | 撮像装置及び画像処理方法 | |
US9025049B2 (en) | Image processing method, image processing apparatus, computer readable medium, and imaging apparatus | |
JP4487191B2 (ja) | 画像処理装置および画像処理プログラム | |
JP2008294785A (ja) | 画像処理装置、撮像装置、画像ファイル及び画像処理方法 | |
JP2008085531A (ja) | 画像処理装置、画像処理方法、画像処理プログラム、および、撮像装置 | |
JP2011114823A (ja) | 画像処理装置及び撮像装置 | |
JP2010114752A (ja) | 撮像装置及び撮像方法及びプログラム | |
JP2015144475A (ja) | 撮像装置、撮像装置の制御方法、プログラム及び記憶媒体 | |
JP2019101996A (ja) | 複数の撮像画像を合成することによりノイズを低減する画像処理装置及び画像処理方法 | |
JP2019101997A (ja) | 複数の撮像画像を合成することによりノイズを低減する画像処理装置及び画像処理方法 | |
CN109218602B (zh) | 影像撷取装置、影像处理方法及电子装置 | |
JP6921606B2 (ja) | 画像処理装置、画像処理方法およびプログラム | |
JP6730423B2 (ja) | 画像処理装置、画像処理方法および画像処理プログラム | |
JP2023125905A (ja) | 画像処理装置、画像処理方法およびプログラム | |
JP2015080157A (ja) | 画像処理装置、画像処理方法及びプログラム | |
JP5541956B2 (ja) | 画像合成方法、画像合成プログラムおよび画像合成装置 | |
JPH06133298A (ja) | 動きベクトル検出装置 | |
JP5493839B2 (ja) | 撮像装置、画像合成方法及びプログラム | |
JP2020149589A (ja) | 画像処理装置、撮像装置、画像処理方法、及びプログラム | |
JP7134601B2 (ja) | 画像処理装置、画像処理方法、撮像装置及び撮像装置の制御方法 | |
JP5636660B2 (ja) | 画像処理装置、画像処理方法及びプログラム | |
JP2010278701A (ja) | 画像合成装置、画像合成方法及びプログラム | |
JP2024033748A (ja) | 画像処理装置、撮像装置、画像処理方法および撮像装置の制御方法、プログラム | |
JP5354059B2 (ja) | 撮像装置、画像処理方法及びプログラム | |
JP5131376B2 (ja) | 画像データ処理装置、画像データ処理方法、画像データ処理プログラム、および、撮像装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
RD01 | Notification of change of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7421 Effective date: 20231213 |