JP6230333B2 - 画像処理装置、画像処理方法およびプログラム - Google Patents

画像処理装置、画像処理方法およびプログラム Download PDF

Info

Publication number
JP6230333B2
JP6230333B2 JP2013172634A JP2013172634A JP6230333B2 JP 6230333 B2 JP6230333 B2 JP 6230333B2 JP 2013172634 A JP2013172634 A JP 2013172634A JP 2013172634 A JP2013172634 A JP 2013172634A JP 6230333 B2 JP6230333 B2 JP 6230333B2
Authority
JP
Japan
Prior art keywords
image
images
frame
reference image
shooting time
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2013172634A
Other languages
English (en)
Other versions
JP2015041924A (ja
Inventor
裕介 浜田
裕介 浜田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Original Assignee
Olympus Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Corp filed Critical Olympus Corp
Priority to JP2013172634A priority Critical patent/JP6230333B2/ja
Priority to US14/446,829 priority patent/US9313403B2/en
Priority to CN201410413162.8A priority patent/CN104427246B/zh
Publication of JP2015041924A publication Critical patent/JP2015041924A/ja
Priority to US15/054,486 priority patent/US20160180508A1/en
Priority to US15/085,087 priority patent/US9672608B2/en
Application granted granted Critical
Publication of JP6230333B2 publication Critical patent/JP6230333B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration by the use of more than one image, e.g. averaging, subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/70
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/68Control of cameras or camera modules for stable pick-up of the scene, e.g. compensating for camera body vibrations
    • H04N23/681Motion detection
    • H04N23/6811Motion detection based on the image signal
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20216Image averaging
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20221Image fusion; Image merging
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/68Control of cameras or camera modules for stable pick-up of the scene, e.g. compensating for camera body vibrations
    • H04N23/682Vibration or motion blur correction
    • H04N23/684Vibration or motion blur correction performed by controlling the image sensor readout, e.g. by controlling the integration time
    • H04N23/6845Vibration or motion blur correction performed by controlling the image sensor readout, e.g. by controlling the integration time by combination of a plurality of images sequentially taken
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • H04N23/81Camera processing pipelines; Components thereof for suppressing or minimising disturbance in the image signal generation

Description

本発明は、画像処理装置、画像処理方法およびプログラムに関する。
従来より、複数の画像を合成して時間方向のノイズを除去する処理において、フレームメモリに記憶された画像のうち、最初の画像または最後の画像である基準画像に対して後続の画像のみ、もしくは先行の画像のみを順番に合成する方法が知られている(例えば、特許文献1参照)。
特開2012−186593号公報
しかしながら、特許文献1に記載の技術では、基準画像に対して、時間的に前に撮影した画像のみ、もしくは後に撮影した画像のみを使用している。そのため、基準画像に対して時間的に近い画像のうち、使用することができない画像がある。従って、合成に適する画像が少なく、必要な合成枚数(必要なノイズ低減効果)を得ることができない場合がある。また、必要な合成枚数の画像を得るために必要な処理時間が増大する可能性がある。
そこで、本発明の幾つかの態様は、より合成に適した画像を用いて合成画像を生成することができる画像処理装置、画像処理方法およびプログラムを提供する。
本発明の一態様は、撮影された複数の画像が記憶されるメモリと、前記メモリ内に記憶された複数の画像のうち、撮影時刻が最も古い画像および最も新しい画像以外から合成の基準となる基準画像を選択し、前記複数の画像のうち前記基準画像より撮影時刻が前および後の画像群から、当該基準画像に対して合成する合成対象画像を選択する画像選択部と、前記画像選択部が選択した前記基準画像に対して、前記画像選択部が選択した前記合成対象画像を合成して合成画像を生成する合成処理部と、を備え、前記画像選択部は、前記メモリ内に記憶された複数の画像のうち、前記基準画像の撮影時刻に近い時刻に撮影された画像から順に、前記合成対象画像として用いるか否かを判定し、前記合成対象画像として用いると判定した画像を前記合成対象画像として選択し、選択した合成対象画像の枚数が予め決めた合成対象画像の枚数に到達したかどうかを判定し、予め決めた合成対象画像の枚数に到達したならば、前記合成対象画像として用いるか否かの判定処理を終了することを特徴とする画像処理装置である。
また、本発明の他の態様の画像処理装置において、前記画像選択部は、前記メモリ内に記憶された複数の画像のうち、撮影時刻が最も古い画像の撮影時刻と、撮影時刻が最も新しい画像の撮影時刻との中間の撮影時刻に最も近い画像を前記基準画像として選択することを特徴とする。
また、本発明の他の態様の画像処理装置において、前記画像選択部は、前記メモリ内に記憶された複数の画像のうち、前記基準画像の撮影時刻の前に撮影された画像の枚数と、前記基準画像の撮影時刻の後に撮影された画像の枚数とが、最も近づくように、前記基準画像を選択することを特徴とする。
また、本発明の他の態様の画像処理装置において、前記画像内の被写体の動き量を推定する動き量推定部をさらに備え、前記画像選択部は、前記動き量推定部が推定する推定動き量に基づいて前記基準画像を選択することを特徴とする。
また、本発明の他の態様の画像処理装置において、前記動き量推定部は、複数の画像を比較することで、画像内の被写体の動き量を推定することを特徴とする。
また、本発明の他の態様の画像処理装置において、前記動き量推定部は、前記複数の画像を撮影する撮像素子の動き量を検出することで、画像内の被写体の動き量を推定することを特徴とする。
また、本発明の他の態様の画像処理装置において、前記画像選択部は、前記推定動き量が予め定めた閾値以下の複数の画像の中から、前記基準画像を選択することを特徴とする。
また、本発明の他の態様の画像処理装置において、前記画像選択部は、前記推定動き量が予め定めた閾値以下の複数の画像の中から、撮影時刻が最も古い画像と、撮影時刻が最も新しい画像とを、前記基準画像の選択肢から除外することを特徴とする。
また、本発明の他の態様の画像処理装置において、前記画像選択部は、前記メモリ内に記憶される画像の枚数よりも少ない枚数であって、かつ撮影時刻順に連続する所定枚数の画像によって構成される画像区間から前記基準画像を選択するものであって、前記画像区間は、当該画像区間を構成する複数の画像における、前記推定動き量の積算値が最小となる区間であることを特徴とする。
また、本発明の他の態様の画像処理装置において、前記画像選択部は、前記画像区間を構成する複数の画像のうち、撮影時刻が最も古い画像と、撮影時刻が最も新しい画像とを、前記基準画像の選択肢から除外することを特徴とする。
また、本発明の他の態様の画像処理装置において、前記画像選択部は、前記推定動き量が最低となる画像を前記基準画像として選択することを特徴とする。
また、本発明の他の態様の画像処理装置において、前記画像選択部は、所定枚数の画像を連続して前記合成対象画像として用いないと判定した場合、前記合成対象画像の判定処理を終了することを特徴とする。
また、本発明の他の態様は、前記メモリ内に記憶される前記複数の画像のノイズ量を推定するノイズ量推定部を備え、前記画像選択部は、前記ノイズ量推定部が推定した前記ノイズ量に基づいて、前記合成画像を生成するために必要な画像の枚数である必要合成枚数を決定することを特徴とする画像処理装置である。
また、本発明の他の態様の画像処理装置において、前記画像選択部は、前記推定動き量が予め定めた閾値以下の複数の画像から、前記合成対象画像を選択することを特徴とする。
また、本発明の他の態様は、メモリ内に記憶された複数の画像を合成して合成画像を生成する画像処理方法において、前記メモリ内に記憶された複数の画像のうち、撮影時刻が最も古い画像および最も新しい画像以外から合成の基準となる基準画像を選択する基準画像選択ステップと、前記複数の画像のうち前記基準画像より撮影時刻が前および後の画像群から、当該基準画像に対して合成する合成対象画像を選択する合成対象画像選択ステップと、前記基準画像選択ステップにて選択された基準画像に対して、前記合成対象画像選択ステップにて選択された合成対象画像を合成することで、前記合成画像を生成する合成処理ステップと、を含み、前記合成対象画像選択ステップでは、前記メモリ内に記憶された複数の画像のうち、前記基準画像の撮影時刻に近い時刻に撮影された画像から順に、前記合成対象画像として用いるか否かを判定し、前記合成対象画像として用いると判定した画像を前記合成対象画像として選択し、選択した合成対象画像の枚数が予め決めた合成対象画像の枚数に到達したかどうかを判定し、予め決めた合成対象画像の枚数に到達したならば、前記合成対象画像として用いるか否かの判定処理を終了することを特徴とする画像処理方法である。
また、本発明の他の態様の画像処理方法において、前記基準画像選択ステップでは、前記メモリ内に記憶された複数の画像のうち、撮影時刻が最も古い画像の撮影時刻と、撮影時刻が最も新しい画像の撮影時刻との中間の撮影時刻に最も近い画像を前記基準画像として選択することを特徴とする。
また、本発明の他の態様の画像処理方法において、前記基準画像選択ステップでは、前記メモリ内に記憶された複数の画像のうち、前記基準画像の撮影時刻の前に撮影された画像の枚数と、前記基準画像の撮影時刻の後に撮影された画像の枚数とが、最も近づくように前記基準画像を選択することを特徴とする。
また、本発明の他の態様は、さらに、他の画像と本画像とを比較することで、前記本画像内の被写体の動き量を推定する動き量推定ステップを含み、前記基準画像選択ステップでは、前記動き量推定ステップで推定された推定動き量に基づいて前記基準画像を選択することを特徴とする画像処理方法である。
また、本発明の他の態様の画像処理方法において、前記合成対象画像選択ステップでは、前記推定動き量が予め定めた閾値以下の複数の画像から前記合成対象画像を選択することを特徴とする。
また、本発明は、メモリ内に記憶された複数の画像を合成して合成画像を生成するプログラムにおいて、前記メモリ内に記憶された複数の画像のうち、撮影時刻が最も古い画像および最も新しい画像以外から合成の基準となる基準画像を選択する基準画像選択ステップと、前記複数の画像のうち前記基準画像より撮影時刻が前および後の画像群から、当該基準画像に対して合成する合成対象画像を選択する合成対象画像選択ステップと、前記基準画像選択ステップにて選択された基準画像に対して、前記合成対象画像選択ステップにて選択された合成対象画像を合成することで、前記合成画像を生成する合成処理ステップと、をコンピュータに実行させるためのプログラムであって、前記合成対象画像選択ステップでは、前記メモリ内に記憶された複数の画像のうち、前記基準画像の撮影時刻に近い時刻に撮影された画像から順に、前記合成対象画像として用いるか否かを判定し、前記合成対象画像として用いると判定した画像を前記合成対象画像として選択し、選択した合成対象画像の枚数が予め決めた合成対象画像の枚数に到達したかどうかを判定し、予め決めた合成対象画像の枚数に到達したならば、前記合成対象画像として用いるか否かの判定処理を終了することを特徴とするプログラムである。
本発明の幾つかの態様によれば、メモリには、撮影された複数の画像が記憶される。また、画像選択部は、メモリ内に記憶された複数の画像のうち、撮影時刻が最も古い画像および最も新しい画像以外から合成の基準となる基準画像を選択し、複数枚の画像のうち基準画像より撮影時刻が前および後の画像群から、当該基準画像に対して合成する合成対象画像を選択する。また、合成処理部は、画像選択部が選択した基準画像に対して、画像選択部が選択した合成対象画像を合成して合成画像を生成する。これにより、より合成に適した画像を用いて合成画像を生成することができる。
第1の実施形態における画像処理装置の構成を示したブロック図である。 第1の実施形態におけるフレームメモリが記憶するフレームの例を示した概略図である。 第1の実施形態において、撮像素子が画像を撮像するタイミングと撮像素子の位置との関係を示した概略図である。 従来知られている、フレームFとフレームFとを合成し、合成画像を生成する際の処理手順を示した概略図である。 第1の実施形態において、時刻tに撮影したフレームFを基準画像とした場合での、許容される撮像素子の動き量Xを示したグラフである。 第1の実施形態において、時刻tN/2に撮影したフレームFN/2を基準画像とした場合での、許容される撮像素子の動き量Xを示したグラフである。 第1の実施形態における画像処理装置が合成画像を生成する手順を示したフローチャートである。 第2の実施形態における画像処理装置の構成を示したブロック図である。 第2の実施形態における画像処理装置が合成画像を生成する手順を示したフローチャートである。 第2の実施形態において、撮像素子の動きの一例を示した概略図である。 第2の実施形態において、撮像素子の動き量と、時刻tとの関係の一例を示したグラフである。 第2の実施形態において、撮像素子の動きの一例を示した概略図である。 第2の実施形態において、撮像素子の動き量と、時刻tとの関係の一例を示したグラフである。 第3の実施形態における画像処理装置の構成を示したブロック図である。 第3の実施形態における画像処理装置が合成画像を生成する手順を示したフローチャートである。 第4の実施形態における画像処理装置の構成を示したブロック図である。 第4の実施形態における画像処理装置が合成画像を生成する手順を示したフローチャートである。 第4の実施形態において、フレームメモリ内の各フレームにおける撮像素子の動き量と時刻tとの関係の一例を示したグラフである。 第4の実施形態において、撮像素子の動き量と、時刻tとの関係の一例を示したグラフである。 第4の実施形態において、基準画像の選択例を示した概略図である。 第5の実施形態における内視鏡装置の構成を示したブロック図である。
(第1の実施形態)
以下、本発明の第1の実施形態について図面を参照して説明する。図1は、本実施形態における画像処理装置10の構成を示したブロック図である。図示する例では、画像処理装置10は、合成制御部11とフレームメモリ12とを備えている。合成制御部11は、画像選択部13と合成処理部14とを備えており、合成画像を生成する。フレームメモリ12は、入力された映像信号を記憶する。映像信号は、例えば動画像であり、連続して撮影されたフレームを含んでいる。
画像選択部13は、合成指示が入力されると、フレームメモリ12が記憶している映像信号に含まれるフレームの中から合成の基準となる基準画像と、基準画像に対して合成する複数の合成対象画像とを選択する。合成処理部14は、画像選択部13が選択した基準画像に対して合成対象画像を合成し、合成画像を生成する。合成処理部14が生成する合成画像は、基準画像の時間方向のノイズを除去した画像である。すなわち、合成処理部14は、基準画像に対して合成対象画像を合成することにより、基準画像のノイズ除去処理を行う。
次に、フレームメモリ12が記憶するフレームの例について説明する。図2は、本実施形態におけるフレームメモリ12が記憶するフレームの例を示した概略図である。図示する例では、フレームメモリ12は、撮影時刻tが異なるN枚のフレームF,F,F・・・FM−1,F,FM+1・・・FN−2,FN−1,Fを記憶している(Nは自然数、Mは0以上N以下の整数)。また、図示する例では、フレームFからフレームFまで順に撮影されており、フレームFの撮影時刻が最も古く、フレームFの撮影時刻が最も新しい。例えば、フレームFの撮影時刻はtであり、フレームFの撮影時刻はtである。その他のフレームF〜Fの撮影時刻も同様にt〜tである。
次に、フレームメモリ12に入力される映像信号について説明する。例えば、フレームメモリ12に入力される映像信号は、内視鏡装置の先端部が備える撮像素子が撮像した映像信号である。図3は、内視鏡装置の先端部に設けられた撮像素子104が画像を撮像するタイミングと撮像素子104の位置との関係を示した概略図である。図示する例では、撮像素子104は、時刻tから時刻tまでの間、被写体を撮像する。そして、撮像素子104は、時刻tでフレームFを出力し、時刻TでフレームFを出力する(図2参照)。また、時刻tと時刻tとでは撮像素子104の位置が異なっている。この撮像素子104の位置の変化量を動き量Xとする。図示する例では、時刻tにおける撮像素子104と時刻tにおける撮像素子104との間の動き量XはXである。
従って、被写体が静止している場合には、撮像素子104が動いているため、フレームFでの被写体の位置とフレームFでの被写体の位置とは異なる。従って、フレームFとフレームFとを合成して合成画像を生成する場合には、フレームFの被写体の位置とフレームFの被写体の位置とが同じ位置となるように位置合わせを行った後に合成処理を行う必要がある。
図4は、フレームFとフレームFとを合成し、合成画像を生成する際の、既知の処理手順を示した概略図である。図示する例では、図3に示した撮像素子104が出力したフレームFを基準画像とし、フレームFを合成対象画像としている(フレームについては図2を参照のこと)。また、被写体として「A」という文字を撮影している。また、フレームFとフレームFには共にノイズが含まれている。
図4(A)は、フレームFとフレームFとを重ね合わせた画像を示した概略図である。フレームFを撮影した時刻tと、フレームFを撮影した時刻tとでは撮像素子104の位置が異なっている。そのため、図示する例では、フレームFにおける被写体「A」401の位置と、フレームFにおける被写体「A」402の位置とは、動き量Xだけ異なる。なお、合成対象画像(フレームF)における被写体「A」が、基準画像(フレームF)における被写体「A」からずれている量をぶれ量とする。
図4(B)は、フレームFの被写体「A」と、フレームFの被写体「A」の位置を合わせた状態の、互いのフレームを示した概略図である。図示する例では、フレームFが基準画像であるため、合成処理部14では合成対象画像であるフレームFにおける被写体「A」402の位置を、フレームFにおける被写体「A」401の位置に合わせる処理を行う。このようにフレームFの位置を移動させるため、被写体の位置合わせを行った場合には、フレームFとフレームFが重複する領域と、重複しない領域とが生じる。
図4(C)は、位置合わせを行ったフレームFとフレームFとを加重平均して生成した合成画像500を示した概略図である。合成画像500の領域は、基準画像であるフレームFの領域と同一である。図示する例では、フレームFとフレームFとが重複する領域のノイズは低減されている。しかしながら、合成画像500は、フレームFとフレームFとを加重平均することにより生成されるため、フレームFとフレームFとが重複しない領域501は、その輝度が暗くなる。
従って、領域501の許容範囲に応じて、許容される合成対象画像の最大ぶれ量が決まる。つまり、合成画像500を生成する際に用いる合成対象画像には最大ぶれ量が規定される。例えば、領域501の許容範囲が広い場合には、合成画像500を生成する際にぶれ量が大きい合成対象画像を用いることができる。また、領域501の許容範囲が狭い場合には、合成画像500を生成する際にぶれ量が大きい合成対象画像を用いることができない。なお、撮像素子104の動き量Xが大きくなると合成対象画像のぶれ量が大きくなる。従って、領域501の許容範囲に応じて、許容される撮像素子104の動き量Xが決まる。
次に、基準画像と、許容される撮像素子104の動き量Xと、合成対象画像として選択が許容される範囲との関係について説明する。
図5は、フレームメモリ12内に記憶されている複数のフレームのうち、最も撮影時刻が古い時刻tに撮影したフレームFを基準画像に設定した場合での、許容される撮像素子104の動き量Xを示したグラフである。図示するグラフの縦軸は、撮像素子104の動き量であり、横軸は時刻tである。なお、撮像素子104は、等速直線運動している。また、許容される撮像素子104の動き量XをXとする。
図示する例では、撮像素子104の動き量Xは、時刻tの時点で許容される動き量Xを超える。従って、合成画像500を生成する際に合成対象画像として用いることができるフレームFは、時刻tから時刻tまでに撮影されたフレームF〜Fである(図2参照)。すなわち、フレームFを基準画像に設定した場合には、時刻tより後に撮影されたフレームFM+1〜Fは、合成対象画像として用いることができない。
図6は、本実施形態において、時刻tN/2に撮影したフレームFN/2を基準画像に設定した場合での、許容される撮像素子104の動き量Xを示したグラフである。なお、図示するグラフの縦軸、横軸、許容される撮像素子104の動き量Xについては図5と同様である。
本実施形態においては、基準画像としては、フレームメモリ12内において、撮影時刻が最も古い撮影時刻tにときに撮影したフレームF0、及び撮影時刻が最も新しい撮影時刻tにときに撮影したフレームFを除き、残ったフレームの中から選択される。より具体的には、フレームFの撮影時刻とフレームFの撮影時刻との中間の時刻に最も近い時刻tN/2に撮影したフレームFN/2が基準画像として選択されている。
図示する例では、時刻tN/2に撮影したフレームFN/2が基準画像に設定されている。そのため、基準画像であるフレームFN/2を撮影した際の撮像素子104の位置と、時刻tでの撮像素子104の位置とに基づいた動き量X、及び、基準画像であるフレームFN/2を撮影した際の撮像素子104の位置と、時刻tでの撮像素子104の位置とに基づいた動き量Xは、共に許容される動き量Xを超えない。従って、合成画像500を生成する際には、基準画像であるフレームFN/2より前のフレームのすべて、及び基準画像であるフレームFN/2より後のフレームのすべてを、合成対象画像として用いることができる。すなわち、時刻tから時刻tまでに撮影された全てのフレームF〜Fを合成対象画像として用いることができる。
このように、撮影時刻が最も古いフレームFの撮影時刻tと、撮影時刻が最も新しいフレームFの撮影時刻tとの中間の時刻tN/2に最も近い時刻に撮影したフレームFN/2を基準画像として用いることで、フレームメモリ12が記憶している、より多くのフレームを合成対象画像として用いることができ、これにより高いノイズ低減効果が期待できる。特に、フレームメモリ12内において、基準画像の撮影時刻よりも古い撮影時刻のフレーム群及びその基準画像の撮影時刻よりも新しい撮影時刻のフレーム群の両方から合成対象画像を選択することで、より多くのフレームを合成対象画像として用いることができる。
なお、本実施形態では、時刻tN/2に最も近い時刻に撮影したフレームFN/2を基準画像として用いたが、これに限られることはなく、フレームメモリ12内において、撮影時刻が最も古い撮影時刻tにときに撮影したフレームF0、及び撮影時刻が最も新しい撮影時刻tにときに撮影したフレームFを除き、残ったフレームの中から基準画像を選択してもよい。
次に、画像処理装置10が、合成画像を生成する手順について説明する。図7は、本実施形態における画像処理装置10が合成画像を生成する手順を示したフローチャートである。なお、本実施形態では、フレームメモリ12には、外部からフレームが一枚ずつ入力される。
(ステップS101)フレームメモリ12は、入力されたフレーム(映像信号)を記憶する。その後、ステップS102の処理に進む。
(ステップS102)合成制御部11は、合成指示の入力を受け付けたか否かを判定する。合成指示の入力を受け付けたと合成制御部11が判定した場合にはステップS103の処理に進み、それ以外の場合にはステップS101の処理に戻る。なお、以降の説明では、フレームメモリ12には複数のフレームが記憶されているものとして説明する。
(ステップS103)画像選択部13は、フレームメモリ12が記憶する複数のフレームのうち、まず、撮影時刻が最も古い撮影時刻に撮影したフレーム及び撮影時刻が最も新しい撮影時刻に撮影したフレームFを除き、残ったフレーム群の中から基準画像を選択する。なお、本実施形態では、撮影時刻が最も古いフレームの撮影時刻と、撮影時刻が最も新しいフレームの撮影時刻との中間の時刻に最も近い時刻に撮影したフレームを基準画像として選択する。その後、ステップS104の処理に進む。
(ステップS104)画像選択部13は、基準画像として選択されたフレーム以外の複数のフレームの中から、基準画像として選択したフレームの撮影時刻に最も近いフレームを1つ、参照画像として選択する。参照画像は、合成対象画像を選択する際の合成対象画像の候補となる画像である。その後、ステップS105の処理に進む。なお、後述するステップS106の処理を経て再びステップS104の処理を行う場合には、画像選択部13は、まだステップS106の判定処理を行っていないフレームの中から、基準画像として選択したフレームの撮影時刻に最も近いフレームを1つ選択する。なお、画像選択部13は、基準画像に対して、撮影時刻が古いフレーム及び撮影時刻が新しいフレームの両方から参照画像を順次選択していく。
(ステップS105)画像選択部13は、ステップS104の処理で選択した参照画像としてのフレームを、合成対象画像として用いることができるか否かを判定する。画像選択部13は、合成対象画像として用いることができると判定したフレームを合成対象画像として設定する。その後、ステップS106の処理に進む。なお、合成対象画像として用いることができるか否かの判定は、例えば、以下の方法で行われる。画像選択部13は、基準画像における被写体と参照画像における被写体との位置合わせを行い、基準画像の被写体に対する参照画像における被写体のぶれ量を算出する。そして、算出したぶれ量が閾値未満である場合には合成対象画像として用いることができると判定し、算出したぶれ量が閾値以上である場合には合成対象画像として用いることができないと判定する。なお、閾値は、例えば図4に示した領域501の許容範囲に応じて設定する。また、閾値は予め決められていてもよく、任意に設定できるようにしてもよい。
(ステップS106)画像選択部13は、フレームメモリ12が記憶するフレームのうち、基準画像として選択されたフレームを除いた全てのフレームに対して、ステップS105の判定処理を行ったか否かを判定する。基準画像として選択されたフレームを除く全てのフレームに対して、ステップS105の処理を行ったと画像選択部13が判定した場合には、ステップS107の処理に進み、それ以外の場合にはステップS104の処理に戻る。
(ステップS107)合成処理部14は、ステップS103の処理で選択した基準画像に対して、ステップS105の処理で設定した全ての合成対象画像を合成し、合成画像を生成する。その後、処理を終了する。
上述したとおり、本実施形態では、画像選択部13は、フレームメモリ12に記憶された複数のフレームの中から、撮影時刻が最も古いフレームの撮影時刻と、撮影時刻が最も新しいフレームの撮影時刻との中間の時刻に最も近い時刻に撮影されたフレームを基準画像として選択する。また、画像選択部13は、基準画像の撮影時刻よりも撮影時刻が前のフレーム群および後のフレーム群の両方から、参照画像としてのフレームを選択することが可能となる。そして、画像選択部13は、参照画像として選択されたフレームのうち、合成対象画像として用いることができるフレームを合成対象画像として設定する。すなわち、基準画像の撮影時刻よりも撮影時刻が前のフレーム群および後のフレーム群の両方から、合成対象画像としてのフレームを選択することが可能となる。このため、本実施形態によれば、画像処理装置10は、フレームメモリ12が記憶している、より多くのフレームを合成対象画像として用いて合成画像を生成することができるため、より高いノイズ低減効果が期待できる。
なお、本実施形態では、フレームメモリ12内において、撮影時刻が最も古い撮影時刻tにときに撮影したフレームF0、及び撮影時刻が最も新しい撮影時刻tにときに撮影したフレームFを除き、残ったフレームの中から基準画像を選択する好適な例として、フレームメモリ12に記憶された複数のフレームの中から、撮影時刻が最も古いフレームの撮影時刻と、撮影時刻が最も新しいフレームの撮影時刻との中間の時刻に最も近い時刻に撮影されたフレームを基準画像として選択したが、これに限定されない。例えば、基準画像として設定するフレームの撮影時刻よりも前に撮影され記憶されたフレームの枚数と、基準画像として設定するフレームの撮影時刻よりも後に撮影され記憶されたフレームの枚数とが、最も近づくように、より好ましくは同一になるように、基準画像を選択してもよい。
なお、上述した例では、画像選択部13がフレームメモリ12に記憶されている全てのフレーム(基準画像を除く)を参照画像として選択・設定し、その参照画像のすべてを合成対象画像として用いることができるか否かを判定しているが、これに限らない。例えば、合成対象画像の枚数を予め決めておくこともできる。この場合、ステップS106では、合成対象画像として設定された枚数を計数し、その計数結果が予め決められた合成対象画像枚数に到達したかどうかを判定する。そして、まだ合成対象画像として用いるか否かの判定を行っていない参照画像が残っていたとしても、合成対象画像として設定された枚数が予め決められた枚数に到達した時点で、ステップS107の処理に進むようにすればよい。
また、このように、合成対象画像の枚数を予め決めておく場合では、特に、基準画像の撮影時刻と撮影時刻が近いフレームから順に参照画像を選択することは、後段の合成処理の効率化の点で有用である。基準画像の撮影時刻と撮影時刻が近い参照画像は、基準画像に対してぶれ量が小さいフレームである可能性が極めて高いため、設定される合成対象画像は、基準画像とのぶれ量が小さいフレームから優先的に設定される可能性が高くなるからである。よって、合成画像を生成するにあたり効率化を図ることができる。
(第2の実施形態)
次に、本発明の第2の実施形態について図面を参照して説明する。なお、本実施形態では、後述する動き量推定部21が推定する被写体の動き量に基づいて基準画像を選定する。
図8は、本実施形態における画像処理装置20の構成を示したブロック図である。図示する例では、画像処理装置20は、合成制御部11と、フレームメモリ12と、動き量推定部21とを備えている。合成制御部11と、フレームメモリ12とは、第1の実施形態における各部と同様である。動き量推定部21は、被写体の動き量Xを推定する。なお、被写体の動き量の推定方法はいくつかある。例えば、新たに入力されたフレームと、このフレームの1つ前に入力されたフレームとの輝度値を比較することで、新たに入力されたフレーム内の被写体の動き量を推定する方法や、被写体そのものの動きがほとんど無い環境においては撮像素子104の動き量Xをセンサで検出し、検出された撮像素子の動き量Xでもって被写体の動き量としてみなす方法など考えられるが、本実施形態における動き量推定部21はいずれの推定方法を採用しても良い。
なお、ここではフレーム処理として説明しているが、インターレースで処理する場合においては、新たに入力されたインターレース画像と1つ前に入力されたインターレース画像を用いて被写体の動き量Xを推定してもよい。
以下、本実施形態における合成画像の生成手順について説明する。図9は、本実施形態における画像処理装置20が合成画像を生成する手順を示したフローチャートである。なお、ぶれ量については、前述した実施形態の説明と重複するため、極力説明を割愛することとする。
(ステップS201)フレームメモリ12は、外部から一枚ずつ入力されるフレーム(映像信号)を記憶する。その後、ステップS202の処理に進む。
(ステップS202)動き量推定部21は、ステップS201の処理でフレームメモリ12が記憶したフレームを撮影した際の被写体の動き量Xを推定する。その後、ステップS202の処理に進む。なお、被写体の動き量Xは、例えば上述したとおり、ステップS201の処理でフレームメモリ12が記憶したフレームと、このフレームの1つ前のフレームとを比較することで推定できる。
(ステップS203)フレームメモリ12は、ステップS202の処理で動き量推定部21が推定した動き量Xを、ステップS201の処理で記憶したフレームに関連付けて記憶する。その後、ステップS204の処理に進む。
(ステップS204)合成制御部11は、合成指示の入力を受け付けたか否かを判定する。合成指示の入力を受け付けたと合成制御部11が判定した場合にはステップS205の処理に進み、それ以外の場合にはステップS201の処理に戻る。
(ステップS205)画像選択部13は、被写体の動き量Xが閾値としての規定動き量X以下のときに撮影された複数のフレームの中から基準画像を選択する。本実施形態では、画像選択部13は、被写体の動き量Xが規定動き量X以下のときに撮影された複数のフレームのうち、撮影時刻が最も古いフレームFと撮影時刻が最も新しいフレームFとを除き、さらに、その残った複数のフレームから被写体の動き量Xが最低のときに撮影されたフレームを基準画像として選択する。なお、上記の条件に当てはまるフレームが複数存在する場合には、撮影時刻が最も古いフレームFの撮影時刻tと、撮影時刻が最も新しいフレームFの撮影時刻tとの中間の時刻tN/2に最も近い時刻に撮影したフレームを基準画像として用いる。その後、ステップS206の処理に進む。
(ステップS206)画像選択部13は、フレームメモリ12が記憶する複数のフレームの中から参照画像を1つ選択する。詳細には、画像選択部13は、基準画像として選択されたフレーム及びステップS207の処理を既に行ったフレームを除き、残ったフレームの中から基準画像の撮影時刻に最も近いフレームを選択し、その選択したフレームの推定動き量Xが後述する閾値となる既定の規定動き量X未満であれば、その選択したフレームを参照画像として選択する。つまり、合成対象画像は、推定動き量Xが規定動き量X未満のフレーム群から選択されることになる。言い換えると、画像選択部13は、各フレームに関連付けて記憶されている推定動き量Xを読み出し、その推定動き量Xが規定動き量X以上のフレームを参照画像、すなわち合成対象画像として選択しないようにしている。この処理により、後述する合成対象画像か否かの判定の処理の負荷を軽減することが可能となる。その後、ステップS207の処理に進む。
(ステップS207)画像選択部13は、ステップS206の処理で選択した参照画像を合成対象画像として用いることができるか否かを判定する。合成対象画像として用いることができるか否かの判定及び合成対象画像の設定の処理は、第1の実施形態と同様であるので説明を割愛する。その後、ステップS208の処理に進む。
(ステップS208)画像選択部13は、フレームメモリ12が記憶する複数のフレームのうち基準画像として選択されたフレーム及び推定動き量Xが規定動き量X以上のフレームを除く全てのフレームに対して、ステップS207の処理を行ったか否かを判定する。画像選択部13が、全てのフレームに対して、ステップS207の処理を行ったと判定した場合にはステップS208の処理に進み、それ以外の場合にはステップS206の処理に戻る。
(ステップS209)合成処理部14は、選択された基準画像に対して、ステップS207の処理で設定した合成対象画像を合成することで、合成画像を生成する。その後、処理を終了する。
なお、被写体の動き量Xが規定動き量X以上の場合、被写体のぶれ量が許容値を超えて撮影される。そのため、被写体の動き量Xが規定動き量X以上のときに撮影されたフレームを、参照画像に用いないことが、合成処理の効率化の観点で望ましい。つまり、画像処理装置20は、被写体の動き量Xが規定動き量X未満の時に撮影されたフレームのみを用いて合成対象画像として用いるか否かを判定することが、合成処理の効率化の観点で望ましいといえる。さらに言い換えると、画像処理装置20は、被写体の動き量Xが規定動き量X未満の時に撮影されたフレームから合成対象画像を選択することになるので、合成処理の効率化の観点で望ましいといえる。
このため、本実施形態では、被写体の動き量Xが規定動き量X以上のときに撮影されたフレームを参照画像として選択しないことで、合成対象画像か否かの判定の処理の負荷を軽減している。
なお、閾値としての規定動き量Xは、予め決められていてもよく、任意に設定できるようにしてもよい。例えば、シャッター速度が速い場合には、撮像素子104の速度が速くても被写体の動き量は小さくぶれにくい。また、シャッター速度が遅い場合には、撮像素子104の速度が遅くても被写体の動き量は大きくなりぶれやすい。そのため、シャッター速度が速い場合には規定動き量Xをより遅い速度に設定し、シャッター速度が遅い場合には規定動き量Xをより速い速度に設定するようにしてもよい。このように、フレームを撮影する際のシャッター速度によって規定動き量Xは異なるため、規定動き量Xは、シャッター速度に応じて変更するようにしてもよい。
本実施形態の理解を促進する上で、被写体の動きの要因が撮像素子の動きにあるものと捉え、撮像素子104の動き方に応じて、本実施形態がどのように適用されるかを、以下参考例を用いて説明する。
まず、撮像素子104が規則的な振動をしている参考例1について説明する。図10は撮像素子104の動きの一例を示した概略図、図11は撮像素子104が図10に図示するような振動運動を行った場合の、各フレームの撮影時における撮像素子104の動き量Xと、撮影時刻tとの関係を示したグラフである。図示する例では、撮像素子104は時刻t〜tまでの間、規則的な振動を行っている。
図示する例では、時刻tから時刻tまで撮像素子104の動き量Xは、常に規定動き量X未満である。従って、画像選択部13は、時刻tから時刻tまでに撮影された全てのフレームF〜Fを基準画像および参照画像として用いることができると判定する。
次に、本参考例1における基準画像の選択方法について説明する。画像選択部13は、図9のステップS205にて説明したように、まず、撮像素子104の動き量Xが規定動き量X以下のときに撮影されたフレームのうち、撮影時刻が最も古いフレームFと撮影時刻が最も新しいフレームFとを除く。そして画像選択部13は、残ったフレームの中から、撮像素子104の動き量が最低のときに撮影されたフレームFとフレームFとを選択し、これらを基準画像の候補フレームとする。
このように、基準画像の選定条件に当てはまるフレームが複数存在する場合には、撮影時刻が最も古いフレームFの撮影時刻tと、撮影時刻が最も新しいフレームFの撮影時刻tとの中間の時刻tN/2に最も近い時刻に撮影したフレームを基準画像として用いる。従って、本参考例1では、画像選択部13は、フレームFを基準画像として選択する。そして、時刻tから時刻tまでに撮影された全てのフレームF〜Fから基準画像を除いたフレーム群が参照画像の候補となる。
次に参照画像の選択方法について説明する。本参考例1では、図11に示すように、参照画像の候補となる全てのフレームが、規定動き量Xを下回る動き量のときに撮影されている。このため、基準画像を除くフレームメモリ12内のすべてのフレームが参照画像として選択されうる。
次に、撮像素子104が不規則に動く参考例2について説明する。図12は、撮像素子104の動きの一例を示した概略図、図13は、撮像素子104が図12に図示するような不規則な運動を行った場合の、各フレームの撮影時における撮像素子104の動き量Xと、撮影時刻tとの関係を示したグラフである。図示する例では、撮像素子104は時刻t〜tまでの間、不規則に動いている。
図示する例では、撮像素子104の動き量が規定動き量X以上のときに撮影されたフレームが存在する。例えば、フレームFがそうであり、図示するように、フレームFにおける被写体「A」403のぶれは大きい。
また、例えば、フレームFとフレームFとは、撮像素子104の動き量Xが規定動き量X未満のときに撮影されたフレームである。従って、画像選択部13は、撮像素子104の動き量Xが規定動き量X未満のときに撮影されたフレーム群(フレームFとフレームFとを含む)を、基準画像および参照画像として用いることができると判定する。
次に、本参考例2における基準画像の選択方法について説明する。画像選択部13は、図9のステップS205にて説明したように、まず、撮像素子104の動き量Xが規定動き量X未満のときに撮影されたフレームのうち、撮影時刻が最も古いフレームFと撮影時刻が最も新しいフレームFとを除く。そして画像選択部13は、残ったフレームの中から、撮像素子104の動き量Xが最低のときに撮影されたフレームFを選択し、これを基準画像として選択し、設定する。
次に、参照画像の選択方法について説明する。画像選択部13は、基準画像の撮影時刻に近いフレームから順に、推定動き量Xが規定動き量X未満かどうかを判断しながら参照画像を選択していく。本参考例2では、図13に示すように、フレームメモリ12内の複数のフレームの中には、推定動き量Xが規定動き量X以上のフレームが存在している。例えばフレームFである。
画像選択部13は、各フレームに関連付けてフレームメモリ12内に記憶された各フレームの推定動き量Xを読み出し、フレームFのような推定動き量Xが既定動き量X以上のフレームをそもそも参照画像として選択せず、次あるいは別のフレームを確認しにいく。この結果、画像選択部13は、推定動き量Xが既定動き量X未満のフレームのみを参照画像として選択することになる。このため、本参考例2の場合、参照画像として選択されるフレームの枚数が、上述した参考例1に比して少なくなる。しかしながら、推定動き量Xが規定動き量X以上のフレームは、そもそも合成対象画像にはなり得ないことが明白である故、そのようなフレームを合成対象画像か否かの判定処理にまわすことは、処理速度の低下や処理の高負荷を招くことになる。よって、そのような不適格フレームを合成対象画像か否かの判定処理にまわすことなく、その前段の処理である参照画像の選択処理の際に参照画像として選択しないことで、合成対象画像か否かの判定処理の負荷軽減につながり、処理の効率化が図れる。
上述したとおり、本実施形態では、画像選択部13は、被写体の動き量Xが規定動き量X以下のときに撮影された複数のフレームの中から、基準画像を選択する。より好ましくは、被写体の動き量Xが規定動き量X以下のときに撮影された複数のフレームの中から、撮影時刻が最も古いフレームFと撮影時刻が最も新しいフレームFとを除くと共に、残った複数のフレームの中から被写体の動き量Xが最低のときに撮影されたフレームを基準画像として選択する。もし被写体の動き量Xが最低のときに撮影されたフレームが複数ある場合には、画像選択部13は、撮影時刻が最も古いフレームFの撮影時刻tと、撮影時刻が最も新しいフレームFの撮影時刻tとの中間の時刻tN/2に最も近い時刻に撮影したフレームを基準画像として選択する。
また、画像選択部13は、基準画像よりも撮影時刻が前および後のフレームの両方から、被写体の動き量Xが規定動き量X未満のときに撮影されたフレームのみを参照画像として選択する。つまり、合成対象画像として不適切であることが明らかなフレームを、合成対象画像か否かを判定する処理にまわさない、即ち合成対象画像として選択することができないようにすることで、当該処理の負荷を軽減することができる。
なお、上述した例では、参照画像として選択された全てのフレームに対して合成対象画像として用いることができるか否かを判定しているが、これに限らない。例えば、あらかじめ所定の枚数を設定しておき、合成対象画像として設定されたフレーム数がその所定枚数に達した時点で、まだ未判断の参照画像が残っていたとしても、ステップS209の処理に進むようにしてもよい。特に、この場合、合成対象画像か否かの判断処理を、基準画像の撮影時刻により近い参照画像から優先的に行うことで、より合成画像の生成処理を効率的に行うことが可能となる。
なお、被写体の動き量を推定する方法は、既知の技術を用いても良い。例えば、連続する2枚のフレームのそれぞれの輝度値を比較することで、あるいは、撮像素子の動き量をセンサで検出することで、被写体の動きを推定しても良い。さらに、被写体の動き量を直接求めもよいし、また被写体の動き量に代えられる他の動き量含めた要素を求めてもよい。例えば、フレームの撮影間隔がわかっている場合には、動き量の代わりに速度、即ち被写体や撮像素子の速度を求めてもよい。
(第3の実施形態)
次に、本発明の第3の実施形態について図面を参照して説明する。本実施形態では、各フレームに含まれるノイズ量に基づいて、基準画像と合成対象画像との合計の必要最低限枚数(以下、必要合成枚数と称する)を設定する。
図14は、本実施形態における画像処理装置30の構成を示したブロック図である。図示する例では、画像処理装置30は、合成制御部11と、フレームメモリ12と、ノイズ量推定部31とを備えている。合成制御部11と、フレームメモリ12とは、第2の実施形態における各部と同様である。
ノイズ量推定部31は、フレームのノイズ量を推定する。ノイズ量の推定方法としては、例えば、ゲイン値に基づいて推定する。ノイズ量推定部31は、AE制御等により決定されるゲイン値を用いる。一般的にゲイン値が高いほどノイズ量は増え、ゲイン値が低いほどノイズ量は減る。よって、例えば、ゲイン値が高い場合にはノイズ量推定部31が推定するノイズ量はより多くなり、ゲイン値が低い場合にはノイズ量推定部31が推定するノイズ量はより少なくなる。なお、フレームのノイズ量を推定することができる方法であれば、どのような方法を用いてもよい。
一般的には、合成するフレーム(合成対象画像)の枚数が多くなるほど、ノイズの除去量も多くなる。従って、本実施形態では、ノイズ量推定部31が推定したノイズ量が多い場合には、画像選択部13は合成対象画像の枚数を多く設定する。また、ノイズ量推定部31が推定したノイズ量が少ない場合には、画像選択部13は合成対象画像の枚数を少なく設定する。以下では、ノイズ量に応じて必要とする合成対象画像の枚数に、基準画像の枚数(1枚)を加えた枚数を、必要合成枚数Kと呼ぶことにする。
次に、本実施形態における合成画像の生成手順について説明する。図15は、本実施形態における画像処理装置30が合成画像を生成する手順を示したフローチャートである。なお、第1,2の実施形態で説明した内容と重複する場合には、極力説明を割愛することとする。
(ステップS301)フレームメモリ12は、外部から一枚ずつ入力されるフレーム(映像信号)を記憶する。
(ステップS302)ノイズ量推定部31は、フレームメモリ12が記憶する各フレームのノイズ量を推定する。その後、ステップS303の処理に進む。
(ステップS303)フレームメモリ12は、ステップS302の処理でノイズ量推定部21が推定したノイズ量を、ステップS301の処理で記憶したフレームに関連付けて記憶する。その後、ステップS304の処理に進む。
(ステップS304)合成制御部11は、合成指示の入力を受け付けたか否かを判定する。合成指示の入力を受け付けたと合成制御部11が判定した場合にはステップS305の処理に進み、それ以外の場合にはステップS301の処理に戻る。
(ステップS305)ノイズ量推定部31は、フレームメモリ12に記憶された各フレームのノイズ量に基づき、フレームメモリ12に記憶されたフレームのノイズ量の平均値を算出する。その後、ステップS306の処理に進む。
(ステップS306)画像選択部13は、ステップS305の処理で算出されたノイズ量の平均値に基づいて、必要合成枚数Kを算出する。その後、ステップS307の処理に進む。
(ステップS307)画像選択部13は、フレームメモリ12が記憶する複数のフレームのうち、撮影時刻が最も古いフレームの撮影時刻と、撮影時刻が最も新しいフレームの撮影時刻との中間の時刻に最も近い時刻に撮影したフレームを基準画像として選択する。この処理は、図7のステップS103と同様である。その後、ステップS308の処理に進む。
(ステップS308)画像選択部13は、フレームメモリ12が記憶する複数のフレームの中から参照画像を1つ選択する。詳細には、参照画像は、基準画像として選択されたフレーム及びステップS309の処理を既に行ったフレームを除き、残ったフレームの中から、基準画像の撮影時刻に最も近いフレームから優先的に選択される。この処理は、図9のステップS206と同様である。すなわち、後述する合成対象画像の選択は、基準画像の撮影時刻に最も近いフレームから優先的に選択される。その後、ステップS309の処理に進む。
(ステップS309)画像選択部13は、ステップS308の処理で選択した参照画像を合成対象画像として用いることができるか否かを判定する。判定処理の方法は図7のステップS105と同様であるので、ここでは説明を割愛する。画像選択部13は、合成対象画像として用いることができると判定した参照画像を、合成対象画像として設定する。その後、ステップS310の処理に進む。
(ステップS310)画像選択部13は、基準画像の枚数と、設定された合成対象画像の枚数との合計が、ステップS306の処理で求めた必要合成枚数Kと同じか否かを判定する。画像選択部13が「同じ」であると判定した場合には、まだ参照画像として選択していないフレームが残っていたとしても、合成対象画像として用いることができるか否かを判定する処理を終了する。そしてステップS311の処理に進む。また、画像選択部13が「同じでない(Kに達していない)」と判定した場合には、ステップS308の処理に戻り、基準画像の枚数と、設定された合成対象画像の枚数との合計が、必要合成枚数Kに達するまでステップS308、S309の処理を繰り返す。
(ステップS311)合成処理部14は、ステップS307の処理で選択された基準画像に対して、ステップS309の処理で選択された合成対象画像((K−1)枚)を合成し、合成画像を生成する。その後、処理を終了する。
上述したとおり、本実施形態によれば、画像選択部13は、フレームメモリ12が記憶する複数のフレームのうち、撮影時刻が最も古いフレームの撮影時刻と、撮影時刻が最も新しいフレームの撮影時刻との中間の時刻に最も近い時刻に撮影したフレームを基準画像として選択する。
また、ノイズ量推定部31は、各フレームのノイズ量を推定し、その平均値を求める。また、画像選択部13は、ノイズ量推定部31が求めたノイズ量の平均値に基づいて、合成画像の生成に用いるフレームの枚数(必要合成枚数K)を決定する。そして、この必要合成枚数K分だけ用いて合成処理を行う。従って、合成処理部14は、ノイズ量に応じた枚数のフレームのみ、即ち必要最低限の枚数のフレームを用いて合成画像を生成するため、合成処理の負荷を軽減することができる。
また、画像選択部13によって選択される合成対象画像は、基準画像の撮影時刻に近い、比較的ぶれの小さいフレームから優先的に設定されうるので、より合成画像の生成処理を効率的に行うことが可能となる。
(第4の実施形態)
次に、本発明の第4の実施形態について図面を参照して説明する。本実施形態では、基準画像を選択する前に、複数枚(フレームメモリに記憶されているフレーム枚数よりも少ない枚数)のフレームからなるフレーム区間を、被写体の推定動き量Xに基づいて設定する。言い換えると、被写体の推定動き量Xに基づいて、撮影時刻順に連続する複数枚のフレームからなる基準画像選定フレーム区間を設定し、その基準画像選定フレーム区間を構成する複数のフレームの中から基準画像を選択するようにしている。
なお、本実施形態では、フレーム区間を構成するフレームの枚数を必要合成枚数Kであり、基準画像選定フレーム区間は推定動き量の積算値が最小となるフレーム区間として説明する。
図16は、本実施形態における画像処理装置40の構成を示したブロック図である。図示する例では、画像処理装置40は、合成制御部11と、フレームメモリ12と、動き量推定部21と、ノイズ量推定部31とを備えている。合成制御部11と、フレームメモリ12と、動き量推定部21とは、第2の実施形態における各部と同様である。ノイズ量推定部31は、第3の実施形態におけるノイズ量推定部31と同様である。
図17は、本実施形態における画像処理装置40が合成画像を生成する手順を示したフローチャートである。なお、第1,2,3の実施形態で説明した内容と重複する場合には、極力説明を割愛することとする。
(ステップS401)フレームメモリ12は、外部から一枚ずつ入力されるフレーム(映像信号)を記憶する。
(ステップS402、S403)動き量推定部21は、ステップS401の処理でフレームメモリ12に記憶されている各フレームについて、そのフレームが撮影された際の被写体の動き量Xを推定する。その後、フレームメモリ12は、推定した動き量Xを、フレームに関連付けて記憶する。なお、この処理は図9のステップS202、S203と同様である。
(ステップS404、S405)ノイズ量推定部31は、フレームメモリ12が記憶する各フレームのノイズ量を推定する。その後、フレームメモリ12は、推定されたノイズ量をフレームに関連付けて記憶する。なお、この処理は図15のステップS302、S303と同様である。
(ステップS406)合成制御部11は、合成指示の入力を受け付けたか否かを判定する。合成指示の入力を受け付けたと合成制御部11が判定した場合にはステップS407の処理に進み、それ以外の場合にはステップS401の処理に戻る。
(ステップS407)ノイズ量推定部31は、フレームメモリ12に記憶された各フレームのノイズ量に基づき、フレームメモリ12に記憶されたフレームのノイズ量の平均値を算出する。その後、ステップS408の処理に進む。
(ステップS408)画像選択部13は、ステップS407の処理でノイズ量推定部31が算出したノイズ量の平均値に基づいて、合成画像の生成に用いる必要最低限のフレーム枚数、即ち基準画像と合成対象画像のそれぞれの合計の枚数である必要合成枚数Kを算出する。その後、ステップS409の処理に進む。なお、この処理は図15のステップS306と同様である。
(ステップS409)画像選択部13は、基準画像を選択するにあたり、まず、フレームメモリ12内の複数のフレームから、閾値となる規定動き量X未満のフレームがK枚含まれるフレーム区間を特定する。フレーム区間は、撮影時刻が古いフレームを先頭とする、連続する複数フレーム群である。そして、フレーム区間の先頭フレームを1つずつ後ろにずらすことで、複数のフレーム区間を順次特定していく。この処理について、図18を参照して説明する。
図18は、フレームメモリ12内の各フレームにおける撮像素子104の動き量Xと、時刻tとの関係の一例を示したグラフである。グラフ内の丸印はフレームを示し、黒丸は規定動き量X未満のフレーム、白丸は規定動き量X以上のフレームを示す。
画像選択部13は、まず撮影時刻が最も古い撮影時刻tのときに撮影されたフレームFを先頭とするフレーム区間Tを特定する。先頭フレームであるフレームFの推定動き量Xをフレームメモリ12から読み出し、その推定動き量Xが規定動き量X未満か否かを判断する。推定動き量Xが規定動き量X未満であれば、画像選択部13は、フレームFが規定動き量X未満のフレームであるとして計数する。画像選択部13は、フレームFの判断が終了したならば、フレームFの次に撮影されたフレームFについて、その推定動き量Xが規定動き量X未満か判断し、推定動き量Xが規定動き量X未満であれば、フレームFを規定動き量X未満のフレームとして計数する。この処理を、計数した枚数が必要合成枚数Kに達するまで繰り返す。そして、計数結果が必要合成枚数Kに達したところで、K枚目として計数されたフレームをフレーム区間Tの末尾フレームとする。こうすることで、フレーム区間Tを特定する。なお、図18ではK=9の例について図示されており、フレーム区間TはフレームFからフレームF11までの区間となる。
画像選択部13は、フレーム区間Tが特定できたならば、次のフレーム区間を特定する。先頭となるフレームを、次に撮影されたフレームFにずらし、このフレームFを先頭フレームとするフレーム区間Tの特定処理に移行する。以降、フレーム区間Tの特定作業と同様に、規定動き量X未満のフレームの探索及びその枚数の計数を行い、計数結果が必要合成枚数Kに達した時点でそのフレームをフレーム区間の末尾に設定し、フレーム区間Tを特定する。画像選択部13はこの処理を、フレームメモリ12内に記憶されているフレームの中で、撮影時刻が最も新しいフレームFを先頭フレームに設定するまで繰り返す。そして、画像選択部13は、フレーム区間内に規定動き量X未満のフレームがK枚含まれなかった区間については、その区間をフレーム区間として設定しない。以上の処理を行うことで、フレーム区間T,T,T,T・・・が特定される。
(ステップS410)次に画像選択部13は、特定された複数のフレーム区間T,T,T,T・・・の中から、被写体の動き量Xの積算値が最小となる基準画像選定フレーム区間を特定する。画像選択部13は、各フレーム区間に含まれる規定動き量X未満のフレームに基づいて、それぞれの推定動き量の積算値を各フレーム区間毎に算出する。そして、画像選択部13は、この算出処理をステップS409で求めた全てのフレーム区間T,T,T,T・・・に対して行う。そして画像選択部13は、算出した動き量の積算値が最も小さいフレーム区間を基準画像選定フレーム区間として特定する。
図19には、複数のフレーム区間の中から、フレームFを先頭とするフレーム区間TとフレームFを先頭とするフレーム区間Tのみを表示したグラフが示されている。フレーム区間Tに含まれる、規定動き量X未満のフレームにおける被写体の推定動き量Xは、全般的にフレーム区間Tに含まれる規定動き量X未満のフレームにおけるそれよりも小さかったとする。このような場合、画像選択部13は、フレーム区間Tを基準画像選定フレーム区間として特定する。
(ステップS411)画像選択部13は、特定した基準画像選定フレーム区間に含まれる複数のフレームから基準画像を選択する。具体的には、画像選択部13は、まず基準画像選定フレーム区間内の、撮影時刻が最も古いフレームと、撮影時刻が最も新しいフレームとを基準画像の候補から除外する。そして、残りのフレームの中から、被写体の推定動き量Xが最低のときに撮影されたフレームを基準画像として選択する。
この処理を、図20を参照して説明する。図20は、図19で示した基準画像選定フレーム区間Tに関して、グラフ内に黒丸でフレームを示している。画像選択部13は、まず、基準画像選定フレーム区間T内の先頭フレームFと末尾フレームFとを、基準画像の候補から除外する。そして残ったフレームについて推定動き量をフレームメモリ12から読み出し、推定動き量が最も小さいフレームを探索する。そして画像選択部13は、撮影時刻tのときに撮影されたフレームFを基準画像として選択する。
(ステップS412)画像選択部13は、基準画像の選択処理が終了した後、次に参照画像の選択処理に移行する。画像選択部13は、まずフレームメモリ12内の複数のフレームの中から、基準画像及び後述するステップS413の処理を既に行ったフレームを除く。そして、残ったフレームの中から、基準画像の撮影時刻に最も近いフレームを参照画像の候補として選択する。次に、参照画像の候補として選択したフレームの動き量Xが規定動き量X未満であれば、画像選択部13は、選択したフレームを参照画像として選択する。もし、参照画像の候補として選択したフレームの動き量が規定動き量X以上の場合には、当該フレームの次に基準画像の撮影時刻に近いフレームを参照画像の候補として選択する。この処理は、図9のステップS206と同様である。
なお、画像選択部13は、参照画像の候補として選択したフレームが参照画像でないと判定され、次に選択した参照画像の候補も参照画像でないと判定され、結果的に所定回数連続して参照画像ではないと判定した場合、参照画像の選択処理を終了してもよい。この場合、再度基準画像の選択処理からやり直す。なお、所定回数は予め決められていてもよく、任意に設定できるようにしてもよい。
また、ここで選択される参照画像は、先に求めた基準画像選定フレーム区間内のフレームから優先的に選択されるものの、基準画像選定フレーム区間外のフレームから選択されてもよい。画像選択部13は、基準画像選定フレーム区間内のフレーム全てについて参照画像として選択し、合成対象画像か否かを判定した結果、合成対象画像として設定されたフレーム数が、基準画像を含めて必要合成枚数Kに達しなかった場合には、画像選択部13は基準画像選定フレーム区間外のフレームであって、かつ基準画像の撮影時刻に最も近いフレームを参照画像として選択する。その後、ステップS413の処理に進む。
(ステップS413)画像選択部13は、ステップS412の処理で選択した参照画像を合成対象画像として用いることができるか否かを判定し、用いることができると判定されたならば、その参照画像として選択されたフレームを合成対象画像として設定する。判定処理の方法は図9のステップS207と同様である。その後、ステップS414の処理に進む。
なお、画像選択部13は、参照画像として選択したフレームが合成対象画像として用いることができないと、所定回数連続して判定した場合、合成対象画像として用いるか否かの判定処理を終了してもよい。この場合、再度基準画像の選択処理からやり直す。なお、所定回数は予め決められていてもよく、任意に設定できるようにしてもよい。
(ステップS414)画像選択部13は、基準画像の枚数と、設定された合成対象画像の枚数との合計が、ステップS408で求めた必要合成枚数Kと同じか否かを判定する。画像選択部13が「同じである」と判定した場合には、ステップS415の処理に進み、それ以外の場合にはステップS412の処理に戻り、基準画像の枚数と、設定された合成対象画像の枚数との合計が、必要合成枚数Kに達するまでステップS412及びS413の処理を繰り返す。
(ステップS415)合成処理部14は、合成対象画像として設定された(K−1)枚のフレームを、基準画像に対して合成し、合成画像を生成する。
上述したとおり、本実施形態によれば、被写体の動き量が最小となるフレーム区間(基準画像選定フレーム区間)内のフレームの中から基準画像を選択するとともに、その基準画像に対して撮影時刻が近いフレームから優先的に合成対象画像を設定することになるので、基準画像に対するぶれ量や動き量が比較的小さい合成対象画像を優先的に設定することができる。これにより、より合成に適したフレームを用いて合成画像を生成することができるため、合成処理の効率化を図ることができる。
(第5の実施形態)
次に、本発明の第5の実施形態について図面を参照して説明する。図21は、本実施形態における内視鏡装置の構成を示したブロック図である。図示する例では、内視鏡装置101は、細長の挿入部102と、本体部103と、LCD(Liquid Crystal Display、液晶ディスプレイ)130とを有する。また、本体部103には記録媒体132が取り付け可能であり、記録媒体132に、内視鏡装置101が撮影した静止画像や動画像などを記録することが可能である。
挿入部102は、対物レンズ127と、撮像素子(CCD(Charge Coupled Device、電荷結合素子))104と、LED(Light Emitting Diode、発光ダイオード)106と、ワイヤー固定部119とを有する。対物レンズ127と、撮像素子104と、LED106と、ワイヤー固定部119とは、挿入部102の先端部128(内視鏡先端部)に配置されている。
本体部103は、撮像素子ドライブ回路105と、プリアンプ131と、画像処理手段107と、AFE(Analog Front End、アナログフロントエンド)109と、システム制御手段110と、ユーザインターフェース111と、LEDドライブ回路113と、UD(上下)湾曲モータ120と、RL(左右)湾曲モータ121と、湾曲制御手段122と、画像記録手段115と、LCDコントローラ117とを有する。また、内視鏡装置101は、挿入部102の先端部128を上下左右に湾曲させるための4本のワイヤー123〜126を有する。
ユーザインターフェース111は、スイッチや内視鏡の先端を湾曲させるためのジョイスティックなどを備え、ユーザからの指示の入力を受け付け、受け付けた入力に基づいた信号をシステム制御手段110に出力する。ユーザからの指示としては、例えば、ズーム倍率の指示や、撮像する画像の明るさの指示や、LED106の点灯および消灯の指示や、挿入部102の先端部128の湾曲の指示や、記録媒体132に画像を記録させる指示や、LCD130への画像の表示指示などがある。
システム制御手段110は、ユーザインターフェース111から入力された信号に基づいた処理を実行するように、内視鏡装置101が有する各部の制御を行う。例えば、ユーザインターフェース111が、ズーム倍率を指示する入力や、撮像する画像の明るさを指示する入力を受け付けた場合、システム制御手段110は、ユーザインターフェース111が受け付けた入力に基づいた処理を実行するように、画像処理手段107を制御する。また、ユーザインターフェース111が、LED106の点灯および消灯を指示する入力を受け付けた場合、システム制御手段110は、ユーザインターフェース111が受け付けた入力に基づいた処理を実行するように、LEDドライブ回路113を制御する。また、ユーザインターフェース111が、挿入部102の先端部128の湾曲を指示する入力を受け付けた場合、システム制御手段110は、ユーザインターフェース111が受け付けた入力に基づいた処理を実行するように、湾曲制御手段122を制御する。また、ユーザインターフェース111が、記録媒体132への画像の記録を指示する入力や、LCD130への画像の表示を指示する入力を受け付けた場合、システム制御手段110は、ユーザインターフェース111が受け付けた入力に基づいた処理を実行するように、画像記録手段115を制御する。
ワイヤー固定部119は、挿入部102の先端部128を上下左右に湾曲させるための4本のワイヤー123〜126を固定する。4本のワイヤー123〜126のうち、挿入部102の先端部128を上下方向に湾曲させるための2本のワイヤー123,124は、UD湾曲モータ120に接続されている。また、挿入部102の先端部128を左右方向に湾曲させるための2本のワイヤー125,126は、RL湾曲モータ121に接続されている。
UD湾曲モータ120及びRL湾曲モータ121は、湾曲制御手段122に接続されている。湾曲制御手段122はシステム制御手段110と接続されている。湾曲制御手段122は、システム制御手段110から入力される上下方向に関する湾曲指示信号に基づいてUD湾曲モータ120の駆動を制御し、システム制御手段110から入力される左右方向に関する湾曲指示信号に基づいてRL湾曲モータ121の駆動を制御する。UD湾曲モータ120は、湾曲制御手段122の制御に基づいて、2本のワイヤー123,124を牽引することで挿入部102の先端部128を上下方向に湾曲させる。また、RL湾曲モータ121は、湾曲制御手段122の制御に基づいて、2本のワイヤー125,126を牽引することで挿入部102の先端部128を左右方向に湾曲させる。
この構成により、ユーザが、ユーザインターフェース111が備えるジョイスティックを上下方向に傾倒させると、システム制御手段110は湾曲制御手段122に上下方向に関する湾曲指示信号を送信する。湾曲制御手段122は受信した湾曲指示信号に基づいてUD湾曲モータ120を駆動制御して、UD湾曲モータ120に接続されているワイヤー123,124を牽引する。これにより、内視鏡装置101は、挿入部102の先端部128を上下方向に湾曲させることができる。左右方向の湾曲も同様であり、ユーザが、ジョイスティックを左右方向に傾倒させると、システム制御手段110は湾曲制御手段122に左右方向に関する湾曲指示信号を送信する。湾曲制御手段122は受信した湾曲指示信号に基づいて、RL湾曲モータ121を駆動制御してRL湾曲モータ121に接続されているワイヤーを牽引する。これにより、内視鏡装置101は、挿入部102の先端部128を左右方向に湾曲させることができる。
LED106は、ケーブルを通してLEDドライブ回路113と接続されている。LEDドライブ回路113は、システム制御手段110と接続されている。LEDドライブ回路113は、システム制御手段110から入力されるLED点灯信号に基づいて、LED106の点灯および消灯を制御する。LED106は、LEDドライブ回路113の制御に基づいて点灯および消灯する。
対物レンズ103は、LED106によって照明された被写体の像を撮像素子104の受光面に結像する。撮像素子104は、複合同軸ケーブルにより、撮像素子ドライブ回路105及びプリアンプ131に接続されている。撮像素子ドライブ回路105は、画像処理手段107内に設けられているタイミングジェネレータから、撮像素子104を駆動するためのタイミング信号を受信する。そして、撮像素子ドライブ回路105は、受信したタイミング信号に対して撮像素子104までの伝送路長(複合同軸ケーブルの長さ)に応じたドライブ処理を施して、処理されたタイミング信号を撮像素子駆動信号として撮像素子104に伝送する。
撮像素子104は、伝送された撮像素子駆動信号のタイミングに基づいて、受光面に結像された光を光電変換し、光電変換した信号を撮像素子出力信号として出力する。撮像素子104が出力した撮像素子出力信号は、複合同軸ケーブルを介してプリアンプ131に入力される。プリアンプ131は、複合同軸ケーブルでの伝送により減衰した信号レベルを補うために撮像素子出力信号を増幅する。プリアンプ131で増幅された撮像素子出力信号はAFE109に入力される。AFE109は、入力された撮像素子出力信号に対して、CDS処理(相関2重サンプリング処理)や、AGC処理(オートゲイン処理)や、AD変換処理(アナログ/デジタル変換処理)を行う。AFE109で処理された撮像素子出力信号(フレーム)は、画像処理手段107に入力される。
画像処理手段107は、第1の実施形態における画像処理装置10と、第2の実施形態における画像処理装置20と、第3の実施形態における画像処理装置30と、第4の実施形態における画像処理装置40とのうち、1つまたは複数を備えている。画像処理手段107は、システム制御手段110の制御に基づいて、入力された撮像素子出力信号(フレーム)を用いて合成画像を生成することでノイズ除去処理を行う。なお、本実施形態における画像処理手段107は、自身が備えている画像処理装置10,20,30,40に応じて、第1の実施形態〜第4の実施形態における複数の生成方法のうち、いずれかの生成方法を用いて合成画像を生成する。
また、画像処理手段107は、ホワイトバランス補正、ガンマ補正、輪郭補正、電子ズーム処理、色補正、コントラスト補正、AE制御、等の各種カメラ信号処理を行うようにしてもよい。また、画像処理手段107は、生成した合成画像を画像データとして画像記録手段115に出力する。
画像記録手段115は、入力された画像データをLCDコントローラ117に出力する。また、画像記録手段115は、LCD130に表示する画像を静止画とするフリーズ処理を行う。また、画像記録手段115は、入力された画像データを、エンコーダにて圧縮し、静止画像データもしくは動画像データとして記録媒体106に記録する。この画像記録動作は、ユーザインターフェース111からの入力に基づいて、システム制御手段110が記録信号を画像記録手段115に送信し、画像記録手段115が記録信号を受信した場合に行われる。
なお、内視鏡装置101は、画像記録手段115がフリーズ処理を行った後に画像の記録を行う場合には静止画の撮影を行い、フリーズ処理を行わずに画像の記録を行う場合には動画像の撮影を行う。また、画像記録手段115は、記録媒体132から静止画像データや動画像データを読み出し、デコーダにて伸張してLCDコントローラ117に出力する画像再生動作を行う。この画像再生動作は、システム制御手段110がユーザインターフェース111から画像表示信号を受信した場合に行われる。
LCDコントローラ117は、画像記録手段115から入力された各種画像データに対して、接続されているLCD130に最適な画像処理(ガンマ補正、スケーリング、RGB変換など)を施し、LCD130に出力する。LCD130は、入力された画像データに基づいて画像を表示する。
上述したとおり、内視鏡装置101の画像処理手段107は、第1の実施形態における画像処理装置10と、第2の実施形態における画像処理装置20と、第3の実施形態における画像処理装置30と、第4の実施形態における画像処理装置40とのうち、1つまたは複数を備えている。従って、画像処理手段107は、内視鏡装置101の撮像素子104が撮像したフレームのうち、より合成に適したフレームを用いて合成画像を生成することができる。また、画像処理手段107は、自身が備えている画像処理装置10,20,30,40に応じて、各画像処理装置10,20,30,40と同様の効果を得ることができる。
以上、この発明の複数の実施形態について図面を参照して詳述してきたが、具体的な構成は上述した複数の実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の設計等も含まれる。
なお、上述した実施形態における画像処理装置10,20,30,40が備える各部の機能全体あるいはその一部は、これらの機能を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することによって実現しても良い。なお、ここでいう「コンピュータシステム」とは、OSや周辺機器等のハードウェアを含む。
また、典型的には「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記録部を含むが、必ずしもこれらに限定されるものではない。さらに「コンピュータ読み取り可能な記録媒体」に代え、以下の手段を用いてもよい。例えば、インターネット等のネットワークや電話回線等の通信回線を介してプログラムを送信する場合の通信線のように、短時間の間、動的にプログラムを保持する媒体を用いてもよい。また、その場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリのように、一定時間プログラムを保持している媒体を用いてもよい。また上記プログラムは、前述した機能の一部を実現しても良く、さらに前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現してもよい。
10,20,30,40・・・画像処理装置、11・・・合成制御部、12・・・フレームメモリ、13・・・画像選択部、14・・・合成処理部、21・・・動き量推定部、31・・・ノイズ量推定部、101・・・内視鏡装置、102・・・挿入部、103・・・本体部、104・・・撮像素子、105・・・撮像素子ドライブ回路、106・・・LED、107・・・画像処理手段、109・・・AFE、110・・・システム制御手段、111・・・ユーザインターフェース、113・・・LEDドライブ回路、115・・・画像記録手段、117・・・LCDコントローラ、119・・・ワイヤー固定部、120・・・UD湾曲モータ、121・・・RL湾曲モータ、122・・・湾曲制御手段、123〜126・・・ワイヤー、127・・・対物レンズ、128・・・先端部、130・・・LCD、131・・・プリアンプ、132・・・記録媒体

Claims (21)

  1. 撮影された複数の画像が記憶されるメモリと、
    前記メモリ内に記憶された複数の画像のうち、撮影時刻が最も古い画像および最も新しい画像以外から合成の基準となる基準画像を選択し、前記複数の画像のうち前記基準画像より撮影時刻が前および後の画像群から、当該基準画像に対して合成する合成対象画像を選択する画像選択部と、
    前記画像選択部が選択した前記基準画像に対して、前記画像選択部が選択した前記合成対象画像を合成して合成画像を生成する合成処理部と、
    を備え
    前記画像選択部は、
    前記メモリ内に記憶された複数の画像のうち、前記基準画像の撮影時刻に近い時刻に撮影された画像から順に、前記合成対象画像として用いるか否かを判定し、前記合成対象画像として用いると判定した画像を前記合成対象画像として選択し、
    選択した合成対象画像の枚数が予め決めた合成対象画像の枚数に到達したかどうかを判定し、予め決めた合成対象画像の枚数に到達したならば、前記合成対象画像として用いるか否かの判定処理を終了する
    ことを特徴とする画像処理装置。
  2. 前記画像選択部は、前記メモリ内に記憶された複数の画像のうち、撮影時刻が最も古い画像の撮影時刻と、撮影時刻が最も新しい画像の撮影時刻との中間の撮影時刻に最も近い画像を前記基準画像として選択する
    ことを特徴とする請求項に記載の画像処理装置。
  3. 前記画像選択部は、前記メモリ内に記憶された複数の画像のうち、前記基準画像の撮影時刻の前に撮影された画像の枚数と、前記基準画像の撮影時刻の後に撮影された画像の枚数とが、最も近づくように、前記基準画像を選択する
    ことを特徴とする請求項に記載の画像処理装置。
  4. 前記画像内の被写体の動き量を推定する動き量推定部
    をさらに備え、
    前記画像選択部は、前記動き量推定部が推定する推定動き量に基づいて前記基準画像を選択する
    ことを特徴とする請求項に記載の画像処理装置。
  5. 前記動き量推定部は、複数の画像を比較することで、画像内の被写体の動き量を推定する
    ことを特徴とする請求項に記載の画像処理装置。
  6. 前記動き量推定部は、前記複数の画像を撮影する撮像素子の動き量を検出することで、画像内の被写体の動き量を推定する
    ことを特徴とする請求項に記載の画像処理装置。
  7. 前記画像選択部は、前記推定動き量が予め定めた閾値以下の複数の画像の中から、前記基準画像を選択する
    ことを特徴とする請求項に記載の画像処理装置。
  8. 前記画像選択部は、前記推定動き量が予め定めた閾値以下の複数の画像の中から、撮影時刻が最も古い画像と、撮影時刻が最も新しい画像とを、前記基準画像の選択肢から除外する
    ことを特徴とする請求項に記載の画像処理装置。
  9. 前記画像選択部は、前記メモリ内に記憶される画像の枚数よりも少ない枚数であって、かつ撮影時刻順に連続する所定枚数の画像によって構成される画像区間から前記基準画像を選択するものであって、
    前記画像区間は、当該画像区間を構成する複数の画像における、前記推定動き量の積算値が最小となる区間である
    ことを特徴とする請求項に記載の画像処理装置。
  10. 前記画像選択部は、前記画像区間を構成する複数の画像のうち、撮影時刻が最も古い画像と、撮影時刻が最も新しい画像とを、前記基準画像の選択肢から除外する
    ことを特徴とする請求項に記載の画像処理装置。
  11. 前記画像選択部は、前記推定動き量が最低となる画像を前記基準画像として選択する
    ことを特徴とする請求項から請求項10のいずれか1項に記載の画像処理装置。
  12. 前記画像選択部は、所定枚数の画像を連続して前記合成対象画像として用いないと判定した場合、前記合成対象画像の判定処理を終了する
    ことを特徴とする請求項に記載の画像処理装置。
  13. 前記メモリ内に記憶される前記複数の画像のノイズ量を推定するノイズ量推定部
    を備え、
    前記画像選択部は、前記ノイズ量推定部が推定した前記ノイズ量に基づいて、前記合成画像を生成するために必要な画像の枚数である必要合成枚数を決定する
    ことを特徴とする請求項1から請求項12のいずれか1項に記載の画像処理装置。
  14. 前記画像選択部は、前記推定動き量が予め定めた閾値以下の複数の画像から、前記合成対象画像を選択する
    ことを特徴とする請求項に記載の画像処理装置。
  15. メモリ内に記憶された複数の画像を合成して合成画像を生成する画像処理方法において、
    前記メモリ内に記憶された複数の画像のうち、撮影時刻が最も古い画像および最も新しい画像以外から合成の基準となる基準画像を選択する基準画像選択ステップと、
    前記複数の画像のうち前記基準画像より撮影時刻が前および後の画像群から、当該基準画像に対して合成する合成対象画像を選択する合成対象画像選択ステップと、
    前記基準画像選択ステップにて選択された基準画像に対して、前記合成対象画像選択ステップにて選択された合成対象画像を合成することで、前記合成画像を生成する合成処理ステップと、
    を含み、
    前記合成対象画像選択ステップでは、
    前記メモリ内に記憶された複数の画像のうち、前記基準画像の撮影時刻に近い時刻に撮影された画像から順に、前記合成対象画像として用いるか否かを判定し、前記合成対象画像として用いると判定した画像を前記合成対象画像として選択し、
    選択した合成対象画像の枚数が予め決めた合成対象画像の枚数に到達したかどうかを判定し、予め決めた合成対象画像の枚数に到達したならば、前記合成対象画像として用いるか否かの判定処理を終了する
    ことを特徴とする画像処理方法。
  16. 前記基準画像選択ステップでは、前記メモリ内に記憶された複数の画像のうち、撮影時刻が最も古い画像の撮影時刻と、撮影時刻が最も新しい画像の撮影時刻との中間の撮影時刻に最も近い画像を前記基準画像として選択する
    ことを特徴とする請求項15に記載の画像処理方法。
  17. 前記基準画像選択ステップでは、前記メモリ内に記憶された複数の画像のうち、前記基準画像の撮影時刻の前に撮影された画像の枚数と、前記基準画像の撮影時刻の後に撮影された画像の枚数とが、最も近づくように前記基準画像を選択する
    ことを特徴とする請求項15に記載の画像処理方法。
  18. さらに、他の画像と本画像とを比較することで、前記本画像内の被写体の動き量を推定する動き量推定ステップを含み、
    前記基準画像選択ステップでは、前記動き量推定ステップで推定された推定動き量に基づいて前記基準画像を選択する
    ことを特徴とする請求項15に記載の画像処理方法。
  19. 前記基準画像選択ステップでは、前記動き量推定ステップで推定された動き量が最低の画像を前記基準画像として選択する
    ことを特徴とする請求項18に記載の画像処理方法。
  20. 前記合成対象画像選択ステップでは、前記推定動き量が予め定めた閾値以下の複数の画像から前記合成対象画像を選択する
    ことを特徴とする請求項18に記載の画像処理方法。
  21. メモリ内に記憶された複数の画像を合成して合成画像を生成するプログラムにおいて、
    前記メモリ内に記憶された複数の画像のうち、撮影時刻が最も古い画像および最も新しい画像以外から合成の基準となる基準画像を選択する基準画像選択ステップと、
    前記複数の画像のうち前記基準画像より撮影時刻が前および後の画像群から、当該基準画像に対して合成する合成対象画像を選択する合成対象画像選択ステップと、
    前記基準画像選択ステップにて選択された基準画像に対して、前記合成対象画像選択ステップにて選択された合成対象画像を合成することで、前記合成画像を生成する合成処理ステップと、
    をコンピュータに実行させるためのプログラムであって、
    前記合成対象画像選択ステップでは、
    前記メモリ内に記憶された複数の画像のうち、前記基準画像の撮影時刻に近い時刻に撮影された画像から順に、前記合成対象画像として用いるか否かを判定し、前記合成対象画像として用いると判定した画像を前記合成対象画像として選択し、
    選択した合成対象画像の枚数が予め決めた合成対象画像の枚数に到達したかどうかを判定し、予め決めた合成対象画像の枚数に到達したならば、前記合成対象画像として用いるか否かの判定処理を終了する
    ことを特徴とするプログラム。
JP2013172634A 2013-08-22 2013-08-22 画像処理装置、画像処理方法およびプログラム Active JP6230333B2 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2013172634A JP6230333B2 (ja) 2013-08-22 2013-08-22 画像処理装置、画像処理方法およびプログラム
US14/446,829 US9313403B2 (en) 2013-08-22 2014-07-30 Image processing device, image processing method, and program
CN201410413162.8A CN104427246B (zh) 2013-08-22 2014-08-20 图像处理装置以及图像处理方法
US15/054,486 US20160180508A1 (en) 2013-08-22 2016-02-26 Image processing device, endoscope apparatus, image processing method, and program
US15/085,087 US9672608B2 (en) 2013-08-22 2016-03-30 Image processing device, endoscope apparatus, image processing method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013172634A JP6230333B2 (ja) 2013-08-22 2013-08-22 画像処理装置、画像処理方法およびプログラム

Publications (2)

Publication Number Publication Date
JP2015041924A JP2015041924A (ja) 2015-03-02
JP6230333B2 true JP6230333B2 (ja) 2017-11-15

Family

ID=52480018

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013172634A Active JP6230333B2 (ja) 2013-08-22 2013-08-22 画像処理装置、画像処理方法およびプログラム

Country Status (3)

Country Link
US (2) US9313403B2 (ja)
JP (1) JP6230333B2 (ja)
CN (1) CN104427246B (ja)

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10170157B2 (en) * 2015-06-07 2019-01-01 Apple Inc. Method and apparatus for finding and using video portions that are relevant to adjacent still images
JP6626319B2 (ja) * 2015-11-18 2019-12-25 キヤノン株式会社 符号化装置、撮像装置、符号化方法、及びプログラム
WO2017086091A1 (ja) * 2015-11-18 2017-05-26 オリンパス株式会社 画像処理装置、画像処理方法およびプログラム
JP6522539B2 (ja) * 2016-03-18 2019-05-29 富士フイルム株式会社 内視鏡システム及びその作動方法
JP6602713B2 (ja) * 2016-03-29 2019-11-06 オリンパス株式会社 内視鏡装置
CN106303570B (zh) * 2016-08-22 2019-07-05 北京奇艺世纪科技有限公司 一种视频编码参考帧选择方法和装置
CN106791380B (zh) 2016-12-06 2020-04-21 周民 一种动感照片的拍摄方法和装置
JP2018102564A (ja) 2016-12-26 2018-07-05 オリンパス株式会社 内視鏡システム及び内視鏡システムの情報処理方法
CN107230192B (zh) * 2017-05-31 2020-07-21 Oppo广东移动通信有限公司 图像处理方法、装置、计算机可读存储介质和移动终端
JP6869841B2 (ja) * 2017-07-20 2021-05-12 キヤノン株式会社 画像処理装置、画像処理装置の制御方法、およびプログラム
EP3734345B1 (en) 2019-04-30 2023-08-02 Leica Microsystems CMS GmbH Image processing device, system, and method for improving signal-to-noise of microscopy images
US11948280B2 (en) * 2020-01-14 2024-04-02 Samsung Electronics Co., Ltd System and method for multi-frame contextual attention for multi-frame image and video processing using deep neural networks
CN112672056A (zh) * 2020-12-25 2021-04-16 维沃移动通信有限公司 图像处理方法及装置

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6778210B1 (en) * 1999-07-15 2004-08-17 Olympus Optical Co., Ltd. Image pickup apparatus with blur compensation
US6535624B1 (en) * 1999-09-01 2003-03-18 Large Scale Proteomics Corporation Gel electrophoresis image combining for improved dynamic range
JP4151793B2 (ja) * 2004-11-15 2008-09-17 オリンパス株式会社 撮像装置および画像の高解像化方法
JP4497001B2 (ja) * 2005-03-22 2010-07-07 株式会社ニコン 画像処理装置、電子カメラ、および画像処理プログラム
JP4483841B2 (ja) * 2006-09-06 2010-06-16 カシオ計算機株式会社 撮像装置
JP4825093B2 (ja) * 2006-09-20 2011-11-30 富士通株式会社 手ぶれ補正機能付き撮像装置、手ぶれ補正方法、および、手ぶれ補正処理プログラム
JP5471917B2 (ja) * 2010-07-14 2014-04-16 株式会社ニコン 撮像装置、および画像合成プログラム
CN107277349B (zh) * 2010-07-14 2021-07-02 株式会社尼康 摄像装置及计算机可读存储介质
JP5643563B2 (ja) * 2010-07-22 2014-12-17 キヤノン株式会社 画像処理装置及びその制御方法
JP5146498B2 (ja) * 2010-07-23 2013-02-20 カシオ計算機株式会社 画像合成装置、画像合成方法、及びプログラム
JP2012186593A (ja) 2011-03-04 2012-09-27 Sony Corp 画像処理装置、および画像処理方法、並びにプログラム

Also Published As

Publication number Publication date
US20160180508A1 (en) 2016-06-23
JP2015041924A (ja) 2015-03-02
CN104427246B (zh) 2019-02-22
US9313403B2 (en) 2016-04-12
CN104427246A (zh) 2015-03-18
US20150054970A1 (en) 2015-02-26

Similar Documents

Publication Publication Date Title
JP6230333B2 (ja) 画像処理装置、画像処理方法およびプログラム
CN107026960B (zh) 摄像装置
US8760526B2 (en) Information processing apparatus and method for correcting vibration
JP6767383B2 (ja) 画像処理装置、画像処理方法およびプログラム
JP2011199493A (ja) カメラ
US9672608B2 (en) Image processing device, endoscope apparatus, image processing method, and program
JP5480025B2 (ja) 撮像装置、撮像システム、撮像方法
JP4390274B2 (ja) 撮像装置及び制御方法
JP2006033023A (ja) 撮像装置
JP6985898B2 (ja) 撮像装置及び表示方法
JP4748375B2 (ja) 撮像装置、画像再生装置及びそのプログラム
JP2014220690A (ja) 信号処理装置、信号処理方法
JP2011135409A (ja) 画像処理装置及び方法、並びにプログラム
JP2010273268A (ja) 画像再生装置、撮像装置、画像再生方法、画像再生プログラム
JP5217709B2 (ja) 画像処理装置および撮像装置
JP2013252260A (ja) 内視鏡装置
JP2011135537A (ja) 撮像装置及び撮像装置の制御方法
JP6226536B2 (ja) 撮像装置及びその制御方法
JP2016032180A (ja) 撮像装置、制御方法およびプログラム
JP2010093451A (ja) 撮像装置および撮像装置用プログラム
US9641741B2 (en) Focus detection apparatus and method for controlling the same
JP2020017851A (ja) 撮像装置、撮像装置の制御方法およびプログラム
JP2018151415A (ja) 撮像装置、撮像装置の制御方法、及びプログラム
JP6521752B2 (ja) 画像処理装置及びその制御方法、撮像装置
JP6786346B2 (ja) 画像処理装置、画像処理方法、及びプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160805

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170406

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170411

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170609

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20170612

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20171003

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20171017

R151 Written notification of patent or utility model registration

Ref document number: 6230333

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R371 Transfer withdrawn

Free format text: JAPANESE INTERMEDIATE CODE: R371

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250