JP6624048B2 - 画像処理装置、画像処理方法、およびプログラム - Google Patents

画像処理装置、画像処理方法、およびプログラム Download PDF

Info

Publication number
JP6624048B2
JP6624048B2 JP2016508656A JP2016508656A JP6624048B2 JP 6624048 B2 JP6624048 B2 JP 6624048B2 JP 2016508656 A JP2016508656 A JP 2016508656A JP 2016508656 A JP2016508656 A JP 2016508656A JP 6624048 B2 JP6624048 B2 JP 6624048B2
Authority
JP
Japan
Prior art keywords
image
unit
time exposure
long
exposure image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016508656A
Other languages
English (en)
Other versions
JPWO2015141487A1 (ja
Inventor
友己 小野
友己 小野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Publication of JPWO2015141487A1 publication Critical patent/JPWO2015141487A1/ja
Application granted granted Critical
Publication of JP6624048B2 publication Critical patent/JP6624048B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/76Circuitry for compensating brightness variation in the scene by influencing the image signals
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration by the use of more than one image, e.g. averaging, subtraction
    • G06T5/75
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/62Control of parameters via user interfaces
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/68Control of cameras or camera modules for stable pick-up of the scene, e.g. compensating for camera body vibrations
    • H04N23/681Motion detection
    • H04N23/6811Motion detection based on the image signal
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/743Bracketing, i.e. taking a series of images with varying exposure conditions
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/2621Cameras specially adapted for the electronic generation of special effects during image pickup, e.g. digital cameras, camcorders, video cameras having integrated special effects capability
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10141Special mode during image acquisition
    • G06T2207/10144Varying exposure
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20221Image fusion; Image merging

Description

本開示は、画像処理装置、画像処理方法、およびプログラムに関し、特に、簡単にスローシャッタ撮影を行うことができるようにした画像処理装置、画像処理方法、およびプログラムに関する。
シャッタスピードを遅くすることで光の軌跡や水の流れ、物体の動きを記録するスローシャッタ撮影を行うことができるが、露光中のぶれを防ぐため、カメラなどの撮像装置を三脚などで固定する必要があった。しかしながら、三脚の運搬・設置の負担や構図の制約など、ユーザは手間のかかる撮影をしなければならなかった。
そこで、例えば、特許文献1に提案されているように、露光時間の短い画像を連続で撮影して、それらを合成することで疑似的にスローシャッタ効果を得る方法があった。しかしながら、この方法は、シャッタを閉じている際の被写体の動きをとらえられないため、合成画像が不自然になってしまっていた。
特開2012−83848号公報
以上のように、簡単にスローシャッタ撮影を行う方法が確立されておらず、昨今においては、そのような方法が早急に求められていた。
本開示は、このような状況に鑑みてなされたものであり、簡単にスローシャッタ撮影を行うことができるものである。
本開示の一側面の画像処理装置は、連続撮影された露光時間の異なる長時間露光画像と短時間露光画像とからなる複数の画像のうちの前記長時間露光画像における被写体動き方向の勾配強度に基づいて、初期ラベルマップを生成するラベルマップ生成部と、前記ラベルマップ生成部により生成された前記初期ラベルマップに基づいて、前景を抽出して、動きのある被写体の領域を示す合成用マスクを生成するマスク生成部と、前記合成用マスクが示す前記被写体の領域には、前記長時間露光画像を用い、前記被写体の領域以外の背景領域には、前記短時間露光画像を用いて、前記複数の画像を合成する画像合成部とを備える。
本開示の一側面の画像処理方法は、連続撮影された露光時間の異なる長時間露光画像と短時間露光画像とからなる複数の画像のうちの前記長時間露光画像における被写体動き方向の勾配強度に基づいて、初期ラベルマップを生成し、前記初期ラベルマップに基づいて、前景を抽出して、動きのある被写体の領域を示す合成用マスクを生成し、前記合成用マスクが示す前記被写体の領域には、前記長時間露光画像を用い、前記被写体の領域以外の背景領域には、前記短時間露光画像を用いて、前記複数の画像を合成する。
本開示の一側面のプログラムは、連続撮影された露光時間の異なる長時間露光画像と短時間露光画像とからなる複数の画像のうちの前記長時間露光画像における被写体動き方向の勾配強度に基づいて、初期ラベルマップを生成するラベルマップ生成部と、前記ラベルマップ生成部により生成された前記初期ラベルマップに基づいて、前景を抽出して、動きのある被写体の領域を示す合成用マスクを生成するマスク生成部と、前記合成用マスクが示す前記被写体の領域には、前記長時間露光画像を用い、前記被写体の領域以外の背景領域には、前記短時間露光画像を用いて、前記複数の画像を合成する画像合成部として、コンピュータを機能させる。
本開示の一側面においては、連続撮影された露光時間の異なる長時間露光画像と短時間露光画像とからなる複数の画像のうちの前記長時間露光画像における被写体動き方向の勾配強度に基づいて、初期ラベルマップが生成され、前記初期ラベルマップに基づいて、前景を抽出して、動きのある被写体の領域を示す合成用マスクが生成される。そして、前記合成用マスクが示す前記被写体の領域には、前記長時間露光画像を用い、前記被写体の領域以外の背景領域には、前記短時間露光画像を用いて、前記複数の画像が合成される。
本開示によれば、スローシャッタ撮影を行うことができる。特に、本開示によれば、簡単にスローシャッタ撮影を行うことができる。
なお、ここに記載された効果は必ずしも限定されるものではなく、本開示中に記載されたいずれかの効果であってもよい。
本技術を適用した撮像装置の構成例を示すブロック図である。 撮像装置の機能構成例を示すブロック図である。 マスク生成部の構成例を示すブロック図である。 ラベルマップについて説明する図である。 初期ラベルマップ生成部の構成例を示すブロック図である。 ラベルの判定について説明する図である。 ラベルマップ更新部の構成例を示すブロック図である。 色相ヒストグラムを示す図である。 更新領域の設定方法を説明する図である。 スローシャッタモードの場合の撮影処理を説明するフローチャートである。 マスク生成処理を説明するフローチャートである。 ラベルマップ更新処理を説明するフローチャートである。 被写体動き方向を選択するためのUIの例を示す図である。 本技術により得られる画像の一例について説明する図である。 再生処理を説明するフローチャートである。 撮像装置の他の機能構成例を示すブロック図である。 スローシャッタモードの場合の撮影処理を説明するフローチャートである。 コンピュータの構成例を示すブロック図である。
以下、本開示を実施するための形態(以下実施の形態とする)について説明する。なお、説明は以下の順序で行う。
0.概要
1.第1の実施の形態(撮像装置)
2.第2の実施の形態(コンピュータ)
<0.概要>
(本技術の概要)
三脚などの固定手段がない状況下におけるスローシャッタ撮影は、カメラの本体のぶれに起因する背景や被写体以外の動体のぶれによる影響を受けやすい。このぶれは、画像全体に等しく影響するが、人の目からは、スローシャッタで撮影したい光の軌跡や水の流れ、物体の動きなどの被写体(以下、単に被写体と称する)よりも本来静止しているはずの背景や人物などの領域ほど影響を大きく感じやすい。
そこで、本技術においては、露光時間の異なる複数枚の画像(以下、画像のうち、最も露光時間の長い画像を長時間露光画像、それ以外を短時間露光画像とする)を撮影し、長時間露光画像から被写体を検出し、合成用マスクを作成し、合成用マスクに基づき、スローシャッタで表現したい領域は長時間露光画像を、それ以外の背景領域を短時間露光画像を使って合成される。なお、長時間露光画像としては、合成用に用いる画像のうち、最も露光時間の短い画像の露光時間よりも露光時間の長い画像を用いることもできる。
これによりユーザは三脚などの固定手段がない状況下においてカメラ本体のぶれを抑制したスローシャッタ撮影を行うことができる。すなわち、高品質のスローシャッタ撮影による画像(以下、スローシャッタ画像とも称する)を得ることができる。
以下、上述した本技術について詳細に説明する。
<1.第1の実施の形態>
(本技術を適用する撮像装置の構成例)
図1は、本技術の画像処理装置を適用する撮像装置の一実施の形態を示すブロック図である。なお、図1に示される各部は、回路で構成されてもよい。
図1に示される撮像装置11は、撮影系である、レンズなどの光学系21、そのレンズ駆動部22、撮像素子23、AFE(Analog Front End)部24、現像処理部25、解像度変換部26、コーデック部27、位置合わせ部28、マスク生成部29、画像合成処理部30により構成されている。撮像装置11には、さらに、撮像装置11は、バス31、RAM(Random Access Memory)32、CPU(Central Processing Unit)33、GPU(Graphics Processing Unit)34、各種センサ35、装着可能なリムーバブル記録媒体41が挿入されている画像記録、読み出し用のドライブ36、ディスプレイ37により構成されている。
なお、AFE部24乃至画像合成処理部30、およびRAM32乃至ディスプレイ37は、バス31を介して相互に接続されている。
また、AFE部24、現像処理部25、解像度変換部26、およびコーデック部27は、少なくとも2枚以上の画像を連続撮影することが可能なデジタル信号処理LSI(Large Scale Integration)からなる。また、図1の例においては、撮影系と処理系が一つになった例を記載されているが、別々になっていてもよい。
光学系21より撮像された光は、撮像素子23上に集結されて、画像信号として、AFE部24に出力される。
AFE部24は、アンプやA/Dコンバータ、フィルタなどの半導体チップで構成される。AFE部24は、撮像素子23からの画像信号を調整して、デジタルデータに変換し、現像処理部25に供給する。
現像処理部25は、AFE部24からの画像データに、デモザイクなどの信号処理を行う。現像処理部25は、スローシャッタ機能時には、信号処理後の画像データを、位置合わせ部28に供給する。現像処理部25は、スローシャッタ機能以外の場合、信号処理後の画像データを、解像度変換部26に供給する。
解像度変換部26は、現像処理部25または画像合成処理部30からの画像データの解像度変換を行い、その後、コーデック部27に供給する。
コーデック部27は、解像度変換部26からの画像データを記録するため、符号化処理し、符号化処理後の符号化データを、例えば、ドライブ36に供給する。コーデック部27は、また、ドライブ36から読み出された符号化データをデコードし、デコードした結果の画像データを位置合わせ部28に供給する。
位置合わせ部28は、現像処理部25またはコーデック部27からの複数の画像の位置合わせを行い、位置合わせ後の画像データを、マスク生成部29および画像合成処理部30に供給する。
マスク生成部29は、位置合わせ部28により位置合わせが行われた複数の画像のうち、長秒(長時間)露光画像を用いて、合成用マスクを生成し、生成した合成用マスクを、画像合成処理部30に供給する。
画像合成処理部30は、マスク生成部29からの合成用マスクを用いて、位置合わせ部28からの位置合わせ後の画像データを合成することで、スローシャッタ画像を生成する。生成したスローシャッタ画像は、例えば、解像度変換部26に供給される。生成したスローシャッタ画像は、コーデック部27やドライブ36に供給されてもよい。
RAM32は、プログラムやデータを一時的に記憶する。CPU33は、例えば、リムーバブル記録媒体41または図示せぬ記憶部に記憶されているプログラムを、バス31を介して、RAM32にロードして実行することにより、所定の処理を行う。CPU33においては、例えば、レンズ駆動部22や光学系21を制御しての撮影処理や画像処理、UIなどの表示処理などが行われる。
GPU34は、3Dグラフィックスの表示に必要な計算処理を行う。各種センサ35は、例えば、カメラ機能に必要な測距センサや明度センサなどで構成される。
ドライブ36は、コーデック部27からの符号化データをリムーバブル記録媒体41に記録したり、リムーバブル記録媒体41からの符号化データを読み出し、コーデック部27に供給する。リムーバブル記録媒体41は、磁気ディスク、光ディスク、光磁気ディスク、又は半導体メモリなどよりなる。
ディスプレイ37は、LCD(Liquid Crystal Display)などで構成され、各部からのデータや画像を表示する。
(撮像装置の機能構成例)
図2は、撮像装置の機能構成例を示している。なお、図2の例においては、最小構成例が示されている。
図2に示されるように、撮像装置11は、位置合わせ部28、マスク生成部29および画像合成処理部30を含むように構成されている。
位置合わせ部28には、現像処理部25により信号処理が行われた長時間露光画像51および短時間露光画像52が入力される。この撮像装置11においては、三脚で固定されていない状況も想定されているので、撮影した画像間で位置合わせをする必要がある。
なお、短時間露光画像52は、複数枚であってもよいし、1枚であってもよい。複数枚の場合、例えば、露光量を変えて撮ることで、よりよいものを使用できる。また、夜景の場合、短時間露光画像を重ねることで、ノイズを減らすことができる。
位置合わせ部28は、入力されたこれらの画像の位置合わせを行う。位置合わせの方法としては、ブロックマッチングを用いた手法や特徴点検出でホモグラフィ行列を算出する手法などがある。
位置合わせ部28は、位置合わせ後の長時間露光画像51と短時間露光画像52とを、画像合成処理部30に供給する。また、位置合わせ部28は、位置合わせ後の長時間露光画像51をマスク生成部29に供給する。
マスク生成部29は、位置合わせ後の長時間露光画像51を用いて、長時間露光画像51と短時間露光画像52とを合成する際に用いるマスク(以下、合成用マスクと称する)53を生成する。マスク生成部29は、生成した合成用マスク53を画像合成処理部30に供給する。合成用マスク53においては、スローシャッタで撮影したい被写体領域とそれ以外の領域が示されている。
画像合成処理部30は、マスク生成部29から供給された合成用マスク53に基づいて、位置合わせ後の長時間露光画像51と短時間露光画像52とを合成し、出力画像54を得る。例えば、長時間露光画像51と短時間露光画像52とは、αブレンディングされる。このとき、合成用マスク53境界付近でのブレンド率をなだらかに変化させることで境界を目立たなくさせることができる。
(マスク生成部の構成例)
図3は、マスク生成部の構成例を示すブロック図である。
マスク生成部29は、画像勾配抽出部71、初期ラベルマップ生成部72、前景抽出部73、およびラベルマップ更新部74を含むように構成されている。
画像勾配抽出部71には、入力画像として、位置合わせされた長時間露光画像61が入力される。画像勾配抽出部71は、長時間露光画像から、撮影時動いている被写体が合った場合、その被写体の動きの方向を示す被写体動き方向の画像勾配成分を抽出する。長時間露光画像61は、カメラぶれ、手ぶれなどによりぼけた画像になる傾向がある。そのため、被写体以外の領域に被写体と同方向の勾配が存在しても、その強度は弱まるので、被写体領域を抽出しやすい。
なお、勾配抽出の手法としては、隣接画素の差分を求めてもよいし、”Navneet Dslal etal.,”Histogras of Oriented Gradients forHuman Detection”,Proc. CVPR,pp.886-893,2005”(以下、非特許文献1と称する)のように、局所領域毎の勾配ヒストグラムとして算出してもよい。
画像勾配抽出部71は、抽出した画像の勾配抽出結果62を、初期ラベルマップ生成部72に供給する。
初期ラベルマップ生成部72は、画像勾配抽出部71からの勾配抽出結果62に基づいて、初期のラベルマップ63を生成する。初期ラベルマップ生成部72は、各画素あるいは各局所領域の特定方向勾配強度が予め設定された閾値未満であれは、背景確定領域に割り当て、閾値以上であれば、被写体側未定領域に割り当て、その結果、初期のラベルマップ63を生成する。初期ラベルマップ生成部72は、長時間露光画像61と生成した初期のラベルマップ63とを前景抽出部73に供給する。
前景抽出部73は、初期ラベルマップ生成部72またはラベルマップ更新部74からのラベルマップ63を基に、長時間露光画像61から前景を抽出して、合成用マスク53を生成する。また、前景抽出部73は、初期のラベルマップ63に基づき前景抽出で生成された合成用マスク53の被写体検出精度を向上するために、指定回数だけ前景抽出を繰り返す。指定回数に満たない場合、前景抽出部73は、長時間露光画像61と生成した合成用マスク53とをラベルマップ更新部74に供給する。指定回数を満たした場合、前景抽出部73は、合成用マスク53を画像合成処理部30に出力する。
ラベルマップ更新部74は、合成用マスク53と長時間露光画像61とを用いて、ラベルマップ63を更新する。ラベルマップ更新部74は、更新したラベルマップ63を前景抽出部73に供給する。
なお、前景抽出部73においては、画素単位で被写体領域を特定するために、前景抽出アルゴリズムが適用される。前景抽出アルゴリズムには、” Carsten Rother et al., “GrabCut - Interactive Foreground Extraction using Iterated Graph Cuts,” Trans. ACM GRAPH, pp.309-314, 2004.” (以下、非特許文献2と称する)や、” Yuri Boykov, et al., “Fast Approximate Energy Minimization via Graph Cuts,” Trans. PAMI, 1999.” (以下、非特許文献3と称する)などがあげられる。
前景を抽出するためには、図4に示されるラベルマップ63が必要である。通常はユーザが別途作成して与えることもあるが、本技術においては、初期ラベルマップ生成部72およびラベルマップ更新部74において、長時間露光画像61の被写体動き方向のみからラベルマップ63が生成、更新される。
本技術においては、図4に示されるように、長時間露光画像と被写体動き方向から、背景確定領域、背景側未定領域、被写体側未定領域、被写体領域の4種類のラベルが割り当てられる。
(初期ラベルマップ生成部の構成例)
図5は、初期ラベルマップ生成部の構成例を示すブロック図である。
図5の例において、初期ラベルマップ生成部72は、ラベル判定処理部81を含むように構成される。
ラベル判定処理部81は、長時間露光画像61と被写体動き方向とを用いて、ラベルを割り当てる。すなわち、ラベル判定処理部81は、図6に示されるように、各画素あるいは各局所領域の被写体動き方向勾配強度が予め指定された閾値θ未満であれば、背景確定領域のラベルに割り当て、閾値θ以上であれば、被写体側未定領域のラベルに割り当てる。初期ラベルマップ生成部72においては、そのようにして、ラベルマップ63が生成される。
(ラベルマップ更新部の構成例)
図7は、ラベルマップ更新部の構成例を示すブロック図である。
図7の例において、ラベルマップ更新部74は、前景内代表色決定処理部91、更新領域設定処理部92、およびラベル判定処理部93を含むように構成される。
前景内代表色決定処理部91は、長時間露光画像61と合成用マスク53と用い、合成用マスク53の前景領域内の色ヒストグラムを算出し、代表色を決定する。前景内代表色決定処理部91は、長時間露光画像61、合成用マスク53、および代表色を更新領域設定処理部92に供給する。代表色は最も頻出頻度が高い色成分でもよいし、図8に示されるように、一定以上の頻度を持つ色成分を使ってもよい。
図8の例においては、合成用マスク53の前景領域内の色相ヒストグラムが示されている。なお、図8の場合、色相が用いられているが、輝度を用いてもよいし、その他特定チャネルを用いてもよい。
更新領域設定処理部92は、ラベルマップ63の更新領域を設定する。すなわち、更新領域設定処理部92は、図9に示されるように、前景領域の外接矩形を指定した割合で、縦方向、横方向拡大した領域を更新領域として設定する。更新領域設定処理部92は、長時間露光画像61、合成用マスク53、代表色、および更新領域をラベル判定処理部93に供給する。
ラベル判定処理部93は、合成用マスク53、代表色、および更新領域に基づいて、長時間露光画像61のラベルマップ63を更新する。
(撮影処理の例)
次に、図10のフローチャートを参照して、撮像装置11のスローシャッタモードの場合の撮影処理を説明する。例えば、撮像装置11において、本技術の方法がスローシャッタモードとして設定されており、いま、ユーザによりそのモードが選択されているものとする。
例えば、ユーザの操作に基づき、ステップS21において、撮像装置11のCPU33は、露光中の被写体動き方向(すなわち、特定方向)を設定する。例えば、画面上から下に向かって流れる滝を撮影する場合、垂直方向が被写体動き方向として設定される。なお、被写体動き方向は、ユーザが操作することなく、画像解析などにより自動的に設定されてもよい。例えば、画像解析の結果、画像内で最も大きい領域を持つ画像勾配成分の方向が、被写体動き方向として設定される。
次に、ステップS22において、ユーザの操作に基づき、CPU33は、長時間露光画像および短時間露光画像の露出時間、絞り、ISO、などの露出設定を行う。これらの設定値は、ユーザが操作して設定してもよいし、検波値から自動で設定するようにしてもよい。
ステップS23において、シャッタを切るなどのユーザの操作に基づき、CPU33は、連続撮影を行う。これにより、光学系21より撮像された光は、撮像素子23上に集結されて、画像信号として、AFE部24に出力される。AFE部24は、撮像素子23からの画像信号を調整して、デジタルデータに変換し、現像処理部25に供給する。
ステップS24において、現像処理部25は、AFE部24からの画像データに、デモザイクなどのカメラ信号処理を行い、カメラ信号処理後の画像データを、位置合わせ部28に供給する。
ステップS25において、位置合わせ部28は、現像処理部25からの複数の画像間の位置合わせを行い、位置合わせ後の画像データを、マスク生成部29および画像合成処理部30に供給する。
ステップS26において、マスク生成部29は、位置合わせ後の長時間露光画像を用いて、マスク生成処理を行う。このマスク生成処理の詳細は、図11を参照して後述する。マスク生成処理により、合成用マスク53が生成され、画像合成処理部30に供給される。
画像合成処理部30は、ステップS27において、合成用マスク53と、長時間露光画像および短時間露光画像を用いて、画像合成処理を行い、スローシャッタ画像を生成する。生成したスローシャッタ画像は、解像度変換部26に供給される。
ステップS28において、解像度変換部26、コーデック部27、およびドライブ36は、メディア記録を行う。すなわち、スローシャッタ画像は、解像度変換部26により解像度変換され、コーデック部27により符号化されて、符号化データがドライブ36に供給される。ドライブ36は、その符号化データをリムーバブル記録媒体41に記録する。
なお、図10の例においては、ステップS21において被写体動き方向が選択されたが、被写体動き方向が選択されるタイミングは、マスク生成を行う前であれば、ステップS21乃至S25のどのタイミングであってもよい。
(マスク生成処理の例)
次に、図11のフローチャートを参照して、マスク生成処理について説明する。
ステップS51において、画像勾配抽出部71は、長時間露光画像61から、被写体動き方向画像勾配を抽出する。画像勾配抽出部71は、抽出した画像の勾配抽出結果62を、初期ラベルマップ生成部72に供給する。
ステップS52において、初期ラベルマップ生成部72は、画像勾配抽出部71からの勾配抽出結果62に基づいて、初期のラベルマップ63を生成する。すなわち、初期ラベルマップ生成部72は、図6に示されるように、各画素あるいは各局所領域の特定方向勾配強度が予め設定された閾値未満であれは、背景確定領域に割り当て、閾値以上であれば、被写体側未定領域に割り当て、その結果、初期のラベルマップ63を生成する。初期ラベルマップ生成部72は、長時間露光画像61と生成した初期のラベルマップ63とを前景抽出部73に供給する。
ステップS53において、前景抽出部73は、初期ラベルマップ生成部72またはラベルマップ更新部74からのラベルマップを基に、長時間露光画像61から前景を抽出して、合成用マスク53を生成する。
ステップS54において、前景抽出部73は、指定回数前景抽出したか否かを判定し、指定回数前景抽出していないと判定した場合、長時間露光画像61と生成した合成用マスク53とをラベルマップ更新部74に供給する。その後、処理は、ステップS55に進む。
ステップS55において、ラベルマップ更新部74は、合成用マスク53と長時間露光画像61とを用いて、ラベルマップ63を更新する。このラベルマップ更新処理の詳細は、図12を参照して後述する。ラベルマップ更新処理により、ラベルマップが更新され、更新されたラベルマップ63は、前景抽出部73に供給され、処理は、ステップS53に戻る。
ステップS54において、指定回数前景抽出したと判定された場合、処理は、ステップS56に進む。ステップS56において、前景抽出部73は、合成用マスク53を画像合成処理部30に出力する。
(ラベルマップ更新処理の例)
次に、図12のフローチャートを参照して、ラベルマップ更新処理について説明する。
ステップS71において、前景内代表色決定処理部91は、長時間露光画像61と合成用マスク53と用い、合成用マスク53の前景領域内の色ヒストグラムを算出し、代表色を決定する。前景内代表色決定処理部91は、長時間露光画像61、合成用マスク53、および代表色を更新領域設定処理部92に供給する。
ステップS72において、更新領域設定処理部92は、図9を参照して上述したように、ラベルマップ63の更新領域を設定する。更新領域設定処理部92は、長時間露光画像61、合成用マスク53、代表色、および更新領域をラベル判定処理部93に供給する。
なお、次のステップS74乃至S81は、ラベル判定処理部93により画素単位で行われる処理である。
ステップS74において、ラベル判定処理部93は、長時間露光画像61の画素(x,y)を入力する。ステップS74において、ラベル判定処理部93は、入力した画素(x,y)が更新領域内か否かを判定する。ステップS74において、入力した画素(x,y)が更新領域外であると判定された場合、処理は、ステップS75に進む。ステップS75において、ラベル判定処理部93は、入力した画素(x,y)を、背景確定領域とする。その後、処理は、ステップS81に進む。
ステップS74において、入力した画素(x,y)が更新領域内であると判定された場合、処理は、ステップS76に進む。ステップS76において、ラベル判定処理部93は、入力した画素(x,y)が代表色であるか否かを判定する。ステップS76において、入力した画素(x,y)が代表色ではないと判定された場合、処理は、ステップS77に進む。ステップS77において、ラベル判定処理部93は、入力した画素(x,y)を、背景側未定領域とする。その後、処理は、ステップS81に進む。
ステップS76において、入力した画素(x,y)が代表色であると判定された場合、処理は、ステップS78に進む。ステップS78において、ラベル判定処理部93は、入力した画素(x,y)は、合成用マスク53において前景であるか否かを判定する。
ステップS78において、入力した画素(x,y)が合成用マスク53において前景ではないと判定された場合、処理は、ステップS79に進む。ステップS79において、ラベル判定処理部93は、入力した画素(x,y)を、被写体側未定領域とする。その後、処理は、ステップS81に進む。
ステップS78において、入力した画素(x,y)が合成用マスク53において前景であると判定された場合、処理は、ステップS80に進む。ステップS80において、ラベル判定処理部93は、入力した画素(x,y)を、被写体側未定領域とする。その後、処理は、ステップS81に進む。
ステップS81において、ラベル判定処理部93は、すべての画素について終了したか否かを判定する。ステップS81において終了していないと判定された場合、処理は、ステップS73に戻り、以降の処理を繰り返す。ステップS81において終了したと判定された場合、ラベルマップ更新処理は終了し、処理は、図11のステップS55に戻る。
(被写体動き方向の選択UI)
図13のA乃至図13のCは、被写体動き方向を選択するためのUIの例を示す図である。なお、図13のA乃至図13のCの画面には、露光時間を変えて撮影した複数枚の画像のうちの1つの画像(好ましくは、長時間露光画像)が表示されてもよい。被写体動き方向などの特定方向を選択する場合、長時間露光画像を見ながら選んだほうが簡単に選ぶことができるからである。
図10のステップS21において上述したように、被写体動き方向を選択する場合、図13のAに示されるように、タッチパネル操作が可能なディスプレイであれば、ユーザが被写体が動いている方向に指をスライドさせるといった操作で選択するようにしてもよい。
また、図13のBに示されるように、いくつかの方向候補を表示(提示)させて、ユーザに所望のものを選択させるようにしてもよい。図13のBの例においては、4つの方向が提示されている。
さらに、図13のCに示されるように、枠を設定し、ユーザが操作することに応じて、枠内に撮りたい流れ(被写体)の画が入るように枠または画像を移動させた後、CPU33が、枠内の画素の勾配方向から判別するなど、検波値やシーン解析などを用いてもよい。
以上のようにすることで、本技術においては、次のような効果があげられる。
(画像の一例)
図14は、本技術により得られる画像の一例について説明する図である。
ここでは、2枚の画像(長時間露光画像51および短時間露光画像52)を用いて説明する。なお、撮像装置11において、被写体の動き方向は、垂直方向に、前景抽出回数は2回に設定されている。
長時間露光画像51において、滝はスローシャッタの狙い通り水の流れが表現されている。が、手ぶれの影響により全体的にぼけた印象を与える画像になっている。一方、連続撮影した短時間露光画像52は、左端に人物も明確に写っているが、滝の流れも止まって写っている。
画像勾配抽出部71は、長時間露光画像51から、被写体動き方向の画像勾配成分を抽出し、長時間露光画像51に対する勾配抽出結果62を得る。勾配抽出結果62においては、例えば、勾配の方向と大きさが矢印により示されている。
勾配抽出結果62から垂直方向の勾配に対して、初期ラベルマップ生成部72により閾値判定が行われることで、初期のラベルマップ63が得られる。この初期のラベルマップ63に対して、前景が抽出されることで、合成用マスク53が得られる。
さらにこの合成用マスク53と長時間露光画像51とを用いてラベルマップ63が更新されて、ラベルマップ63´が生成される。それに対して、さらに、前景が抽出されることで、合成用マスク53´が得られる。
以上のような本技術により生成された合成用マスク53´を用いて、長時間露光画像51と短時間露光画像52とを合成することで、スローシャッタ撮影の出力画像54を得ることができる。
出力画像54においては、長時間露光画像51から生成された合成用マスク53´を用いることで、背景領域は静止し、滝だけ流れている画像を得ることができる。さらに、長時間露光画像51においては露光中に人物が動いてしまい、ぶれた印象があったが、本技術によれば、流れの被写体以外の画像を、短時間露光画像52に置き換えることで、流して撮影したい被写体だけを流し、それ以外の動体は静止させることが可能である。これにより、たとえば、流れや動きのある被写体と記念撮影するなど、困難であった構図での撮影が可能になる。
その他、例えば、車や遊園地のメリーゴーランドなど、特定方向に動く物体をスローシャッタで撮影する際に本技術を適用することができる。
なお、上記説明においては、撮像装置11による撮影処理の例を説明したが、本技術の処理は、長時間露光画像と短時間露光画像とが連続露光されて記録されているものを再生する際にも行うことが可能である。
(再生処理の例)
次に、図15のフローチャートを参照して、撮像装置11による再生処理について説明する。例えば、撮像装置11においては、長時間露光画像と短時間露光画像とが連続露光されてリムーバブル記録媒体41などに記録されているものとする。
例えば、ユーザの操作に基づき、ステップS91において、撮像装置11のCPU33は、ドライブ36を制御し、リムーバブル記録媒体41に記録されている画像(長時間露光画像51および短時間露光画像52)を読み込ませる。ドライブ36は、リムーバブル記録媒体41からの符号化データを読み出し、コーデック部27に供給する。コーデック部27は、また、ドライブ36から読み出された符号化データをデコードし、デコードした結果の画像データを位置合わせ部28に供給する。
ステップS92において、位置合わせ部28は、コーデック部27からの複数の画像間の位置合わせを行い、位置合わせ後の画像データを、マスク生成部29および画像合成処理部30に供給する。
例えば、ユーザの操作に基づき、ステップS93において、CPU33は、露光中の被写体動き方向を設定する。例えば、画面上から下に向かって流れる滝を撮影する場合、垂直方向が被写体動き方向として設定される。
ステップS94において、マスク生成部29は、位置合わせ後の長時間露光画像を用いて、マスク生成処理を行う。このマスク生成処理の詳細は、図11を参照して上述された処理と同様であるので、その説明は省略される。このマスク生成処理により、合成用マスク53が生成され、画像合成処理部30に供給される。
画像合成処理部30は、ステップS95において、合成用マスク53と、長時間露光画像および短時間露光画像を用いて、画像合成処理を行い、スローシャッタ画像を生成する。生成したスローシャッタ画像は、解像度変換部26に供給される。
ステップS96において、解像度変換部26、コーデック部27、およびドライブ36は、メディア記録を行う。すなわち、スローシャッタ画像は、解像度変換部26により解像度変換され、コーデック部27により符号化されて、符号化データがドライブ36に供給される。ドライブ36は、その符号化データをリムーバブル記録媒体41に記録する。
以上のように、予め連続撮影された長時間露光画像と短時間露光画像とが記録されている場合、本技術による処理を再生時に行うことも可能である。
(撮像装置の他の機能構成例)
図16は、撮像装置の機能構成例を示している。
図16の撮像装置11は、位置合わせ部28、マスク生成部29および画像合成処理部30を含むように構成されている点は、図2の撮像装置11と共通している。図16の撮像装置11は、マスク生成部29の前段に、画像縮小処理部111が追加された点が、図2の撮像装置11と異なっている。
位置合わせ部28は、位置合わせ後の長時間露光画像51と短時間露光画像52とを、画像合成処理部30に供給する。また、位置合わせ部28は、位置合わせ後の長時間露光画像51を画像縮小処理部111に供給する。
画像縮小処理部111は、位置合わせ後の長時間露光画像51を縮小し、縮小した長時間露光画像51をマスク生成部29に供給する。
マスク生成部29は、位置合わせ後に縮小された長時間露光画像51を用いて、合成用マスク53を生成する。
(撮影処理の例)
次に、図17のフローチャートを参照して、撮像装置11のスローシャッタモードの場合の撮影処理を説明する。なお、図17のステップS111乃至S115、およびS117乃至S119は、図10のステップS21乃至S28と基本的に同様な処理を行うので、その説明は繰り返しになるので省略する。
ステップS115の後、位置合わせ部28は、位置合わせ後の長時間露光画像51を画像縮小処理部111に供給する。
ステップS116において、画像縮小処理部111は、位置合わせ後の長時間露光画像51を縮小し、縮小した長時間露光画像51をマスク生成部29に供給する。
ステップS117において、マスク生成部29は、位置合わせ後縮小された長時間露光画像51を用いて、マスク生成処理を行う。
以上のように、マスク生成には、縮小画像を用いるように構成することで、処理の高速化を図ることができる。
上述した一連の処理は、ハードウエアにより実行することもできるし、ソフトウエアにより実行することもできる。一連の処理をソフトウエアにより実行する場合には、そのソフトウエアを構成するプログラムが、コンピュータにインストールされる。ここで、コンピュータには、専用のハードウエアに組み込まれているコンピュータや、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば汎用のパーソナルコンピュータなどが含まれる。
<2.第2の実施の形態>
(コンピュータの構成例)
図18は、上述した一連の処理をプログラムにより実行するコンピュータのハードウエアの構成例を示している。すなわち、図18の例においては、撮像系と処理系とが独立している場合の構成例が示されている。
コンピュータ201において、入力部211、出力部212、CPU(Central Processing Unit)213、GPU(Graphics Processing Unit)802、通信部215、RAM(Random Access Memory)216、は、バス217により相互に接続されている。
バス217には、さらに、記憶部218およびドライブ219が接続されている。
入力部211は、キーボード、マウス、マイクロホンなどよりなる。出力部212は、ディスプレイ、スピーカなどよりなる。GPU213は、3Dグラフィックスの表示に必要な計算処理を行う。通信部215は、ネットワークインタフェースなどよりなる。記憶部218は、ハードディスクや不揮発性のメモリなどよりなる。ドライブ219は、磁気ディスク、光ディスク、光磁気ディスク、又は半導体メモリなどのリムーバブル記録媒体220を駆動する。
以上のように構成されるコンピュータでは、CPU213が、例えば、記憶部218に記憶されているプログラムを、バス217を介して、RAM216にロードして実行することにより、上述した一連の処理が行われる。
例えば、記憶部218には、位置合わせプログラム221、マスク生成プログラム222、画像生成プログラム223、UI(User Interface)プログラム224、カメラ通信プログラム225が記憶されている。
位置合わせプログラム221は、図1の位置合わせ部28と基本的に同様の処理を行う。マスク生成プログラム222は、図1のマスク生成部29と基本的に同様の処理を行う。画像生成プログラム223は、図1の画像合成処理部30と基本的に同様の処理を行う。UIプログラム224は、UIに関する表示の制御を行う。カメラ通信プログラム225は、図示せぬ撮像系の装置と通信を行う。
コンピュータ(CPU213)が実行するプログラムは、例えば、パッケージメディア等としてのリムーバブル記録媒体220に記録して提供することができる。また、プログラムは、ローカルエリアネットワーク、インターネット、デジタル衛星放送といった、有線または無線の伝送媒体を介して提供することができる。
コンピュータでは、プログラムは、リムーバブル記録媒体220をドライブ219に装着することにより、バス217を介して、記憶部218にインストールすることができる。また、プログラムは、有線または無線の伝送媒体を介して、通信部215で受信し、記憶部218にインストールすることができる。その他、プログラムは、図示せぬROMや記憶部218に、あらかじめインストールしておくことができる。
なお、コンピュータが実行するプログラムは、本明細書で説明する順序に沿って時系列に処理が行われるプログラムであっても良いし、並列に、あるいは呼び出しが行われたとき等の必要なタイミングで処理が行われるプログラムであっても良い。
以上のように、本技術は、画像処理装置のみに限らず、撮像装置、サーバなどにも適用される。
なお、本明細書において、上述した一連の処理を記述するステップは、記載された順序に沿って時系列的に行われる処理はもちろん、必ずしも時系列的に処理されなくとも、並列的あるいは個別に実行される処理をも含むものである。
例えば、本技術は、1つの機能を、ネットワークを介して複数の装置で分担、共同して処理するクラウドコンピューティングの構成をとることができる。
また、本開示における実施の形態は、上述した実施の形態に限定されるものではなく、本開示の要旨を逸脱しない範囲において種々の変更が可能である。
また、上述のフローチャートで説明した各ステップは、1つの装置で実行する他、複数の装置で分担して実行することができる。
さらに、1つのステップに複数の処理が含まれる場合には、その1つのステップに含まれる複数の処理は、1つの装置で実行する他、複数の装置で分担して実行することができる。
また、以上において、1つの装置(または処理部)として説明した構成を分割し、複数の装置(または処理部)として構成するようにしてもよい。逆に、以上において複数の装置(または処理部)として説明した構成をまとめて1つの装置(または処理部)として構成されるようにしてもよい。また、各装置(または各処理部)の構成に上述した以外の構成を付加するようにしてももちろんよい。さらに、システム全体としての構成や動作が実質的に同じであれば、ある装置(または処理部)の構成の一部を他の装置(または他の処理部)の構成に含めるようにしてもよい。つまり、本技術は、上述した実施の形態に限定されるものではなく、本技術の要旨を逸脱しない範囲において種々の変更が可能である。
以上、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、開示はかかる例に限定されない。本開示の属する技術の分野における通常の知識を有するであれば、請求の範囲に記載された技術的思想の範疇内において、各種の変更例また修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。
なお、本技術は以下のような構成も取ることができる。
(1) 連続撮影された露光時間の異なる複数の画像のうちの長時間露光画像に関する特定方向の情報に基づいて、合成用マスクを生成するマスク生成部と、
前記マスク生成部により生成された合成用マスクを用いて、前記複数の画像を合成する画像合成部と
を備える画像処理装置。
(2) 前記長時間露光画像に関する特定方向の情報は前記長時間露光画像における被写体動き方向に基づいて設定される
前記(1)に記載の画像処理装置。
(3) 前記マスク生成部は、前記長時間露光画像の特定方向の勾配強度に基づいて、前記合成用マスクの初期ラベルマップを生成するラベルマップ生成部と、
前記ラベルマップ生成により生成された初期ラベルマップに基づいて、前景を抽出して、前記合成用マスクを生成する前景抽出部と
を有する
前記(1)または(2)に記載の画像処理装置。
(4) 前記マスク生成部は、
前記合成用マスクの前景における代表色および更新領域のうちの少なくとも1つに基づいて、前記初期ラベルマップを更新するラベルマップ更新部を
さらに有し、
前記前景抽出部は、前記ラベルマップ更新部により更新されたラベルマップに基づいて、前景を抽出して、前記合成用マスクを生成する
前記(3)に記載の画像処理装置。
(5) 前記長時間露光画像の特定方向を設定するためのUI(User Interface)の表示を制御する表示制御部を
さらに備える前記(1)乃至(4)のいずれかに記載の画像処理装置。
(6)前記表示の画面には、前記複数の画像のうちの1つの画像が表示される
前記(5)に記載の画像処理装置。
(7)前記1つの画像は、長時間露光画像である
前記(6)に記載の画像処理装置。
(8) 前記表示制御部は、ユーザによる前記複数の画像における被写体動き方向の指示により、前記長時間露光画像の特定方向を設定するためのUIの表示を制御する
前記(5)に記載の画像処理装置。
(9) 前記表示制御部は、ユーザによる前記複数の画像における被写体動き方向候補の中からの選択により、前記長時間露光画像の特定方向を設定するためのUIの表示を制御する
前記(5)に記載の画像処理装置。
(10) 前記表示制御部は、前記複数の画像における被写体動き方向を検出するための領域を表示させることで、前記長時間露光画像の特定方向を設定するためのUIの表示を制御する
前記(5)に記載の画像処理装置。
(11) 前記複数の画像を位置合わせする位置合わせ部を
さらに備え、
前記マスク生成部は、前記位置合わせ部により位置合わせされた長時間露光画像の勾配情報に基づいて、合成用マスクを生成し、
前記画像合成部は、前記マスク生成部により生成された合成用マスクを用いて、前記位置合わせ部により位置合わせされた複数の画像を合成する
前記(1)乃至(10)のいずれかに記載の画像処理装置。
(12) 画像処理装置が、
連続撮影された露光時間の異なる複数の画像のうちの長時間露光画像に関する特定方向の情報に基づいて、合成用マスクを生成し、
生成された合成用マスクを用いて、前記複数の画像を合成する
画像処理方法。
(13) 連続撮影された露光時間の異なる複数の画像のうちの長時間露光画像に関する特定方向の情報に基づいて、合成用マスクを生成するマスク生成部と、
前記マスク生成部により生成された合成用マスクを用いて、前記複数の画像を合成する画像合成部と
して、コンピュータを機能させるためのプログラム。
11 撮像装置, 21 光学系, 22 駆動部, 23 撮像素子, 24 AFE部, 25 現像処理部, 26 解像度変換部, 27 コーデック部, 28 位置合わせ部, 29 マスク生成部, 30 画像合成処理部, 31 バス, 32 RAM, 33 CPU, 34 GPU, 35 各種センサ, 36 ドライブ, 37 ディスプレイ, 41 リムーバブル記録媒体, 51 長時間露光画像, 52 短時間露光画像, 53 合成用マスク, 54 出力画像, 61 長時間露光画像, 62 勾配抽出結果, 63 ラベルマップ, 71 画像勾配抽出部, 72 初期ラベルマップ生成部, 73 前景抽出部, 74 ラベルマップ更新部, 81 ラベル判定処理部, 91 前景内代表色決定部, 92 更新領域設定処理部, 93 ラベル判定処理部, 111 画像縮小処理部, 201 コンピュータ, 221 位置合わせプログラム, 222 マスク生成プログラム, 223 画像生成プログラム, 224 UIプログラム, 225 カメラ通信プログラム

Claims (13)

  1. 連続撮影された露光時間の異なる長時間露光画像と短時間露光画像とからなる複数の画像のうちの前記長時間露光画像における被写体動き方向の勾配強度に基づいて、初期ラベルマップを生成するラベルマップ生成部と、
    前記ラベルマップ生成部により生成された前記初期ラベルマップに基づいて、前景を抽出して、動きのある被写体の領域を示す合成用マスクを生成するマスク生成部と、
    前記合成用マスクが示す前記被写体の領域には、前記長時間露光画像を用い、前記被写体の領域以外の背景領域には、前記短時間露光画像を用いて、前記複数の画像を合成する画像合成部と
    を備える画像処理装置。
  2. 前記ラベルマップ生成部は、前記被写体動き方向と同じ方向の勾配を有する画素または局所領域についての前記勾配強度と閾値との比較結果に基づいて、前記初期ラベルマップを生成する
    請求項1に記載の画像処理装置。
  3. 前記画像合成部は、αブレンディングにより、前記複数の画像を合成する
    請求項1または2に記載の画像処理装置。
  4. 前記合成用マスクの前記前景における代表色および更新領域のうちの少なくとも1つに基づいて、前記初期ラベルマップを更新して、ラベルマップを生成するラベルマップ更新部をさらに備え
    前記マスク生成部は、前記ラベルマップに基づいて、前記前景を抽出して、前記合成用マスクを生成する
    請求項1乃至3のいずれかに記載の画像処理装置。
  5. 前記長時間露光画像の前記被写体動き方向を設定するためのUI(User Interface)の表示を制御する表示制御部を
    さらに備える請求項1乃至4のいずれかに記載の画像処理装置。
  6. 前記表示の画面には、前記複数の画像のうちの1つの画像が表示される
    請求項5に記載の画像処理装置。
  7. 前記1つの画像は、前記長時間露光画像である
    請求項6に記載の画像処理装置。
  8. 前記表示制御部は、ユーザによる前記複数の画像における前記被写体動き方向の指示により、前記長時間露光画像の前記被写体動き方向を設定するためのUIの表示を制御する
    請求項5に記載の画像処理装置。
  9. 前記表示制御部は、ユーザによる前記複数の画像における前記被写体動き方向候補の中からの選択により、前記長時間露光画像の前記被写体動き方向を設定するためのUIの表示を制御する
    請求項5に記載の画像処理装置。
  10. 前記表示制御部は、前記複数の画像における前記被写体動き方向を検出するための領域を表示させることで、前記長時間露光画像の前記被写体動き方向を設定するためのUIの表示を制御する
    請求項5に記載の画像処理装置。
  11. 前記複数の画像を位置合わせする位置合わせ部を
    さらに備え、
    前記ラベルマップ生成部は、前記位置合わせ部により位置合わせされた前記長時間露光画像における前記被写体動き方向の前記勾配強度に基づいて、前記初期ラベルマップを生成し、
    前記画像合成部は、前記合成用マスクが示す前記被写体の領域には、前記位置合わせ部により位置合わせされた前記長時間露光画像を用い、前記背景領域には、前記位置合わせ部により位置合わせされた前記短時間露光画像を用いて、前記位置合わせ部により位置合わせされた前記複数の画像を合成する
    請求項1乃至10のいずれかに記載の画像処理装置。
  12. 画像処理装置が、
    連続撮影された露光時間の異なる長時間露光画像と短時間露光画像とからなる複数の画像のうちの前記長時間露光画像における被写体動き方向の勾配強度に基づいて、初期ラベルマップを生成し、
    前記初期ラベルマップに基づいて、前景を抽出して、動きのある被写体の領域を示す合成用マスクを生成し、
    前記合成用マスクが示す前記被写体の領域には、前記長時間露光画像を用い、前記被写体の領域以外の背景領域には、前記短時間露光画像を用いて、前記複数の画像を合成する
    画像処理方法。
  13. 連続撮影された露光時間の異なる長時間露光画像と短時間露光画像とからなる複数の画像のうちの前記長時間露光画像における被写体動き方向の勾配強度に基づいて、初期ラベルマップを生成するラベルマップ生成部と、
    前記ラベルマップ生成部により生成された前記初期ラベルマップに基づいて、前景を抽出して、動きのある被写体の領域を示す合成用マスクを生成するマスク生成部と、
    前記合成用マスクが示す前記被写体の領域には、前記長時間露光画像を用い、前記被写体の領域以外の背景領域には、前記短時間露光画像を用いて、前記複数の画像を合成する画像合成部と
    して、コンピュータを機能させるためのプログラム。
JP2016508656A 2014-03-18 2015-03-06 画像処理装置、画像処理方法、およびプログラム Active JP6624048B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2014054627 2014-03-18
JP2014054627 2014-03-18
PCT/JP2015/056595 WO2015141487A1 (ja) 2014-03-18 2015-03-06 画像処理装置、画像処理方法、およびプログラム

Publications (2)

Publication Number Publication Date
JPWO2015141487A1 JPWO2015141487A1 (ja) 2017-04-06
JP6624048B2 true JP6624048B2 (ja) 2019-12-25

Family

ID=54144460

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016508656A Active JP6624048B2 (ja) 2014-03-18 2015-03-06 画像処理装置、画像処理方法、およびプログラム

Country Status (5)

Country Link
US (1) US10567671B2 (ja)
EP (1) EP3091731A4 (ja)
JP (1) JP6624048B2 (ja)
CN (1) CN106165389B (ja)
WO (1) WO2015141487A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022108235A1 (ko) * 2020-11-17 2022-05-27 삼성전자 주식회사 슬로우 셔터를 제공하기 위한 방법, 장치 및 저장 매체

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105683937B (zh) 2013-11-01 2018-07-10 慧与发展有限责任合伙企业 在软件定义网络拓扑结构中的协议无关存储访问
JP2017126304A (ja) * 2016-01-15 2017-07-20 富士ゼロックス株式会社 画像処理装置、画像処理方法、画像処理システムおよびプログラム
EP3579545B1 (en) * 2016-08-17 2021-02-24 Google LLC Camera setting adjustment based on predicted environmental factors and tracking systems employing the same
CN106791380B (zh) 2016-12-06 2020-04-21 周民 一种动感照片的拍摄方法和装置
CN108573467A (zh) * 2017-03-09 2018-09-25 南昌黑鲨科技有限公司 基于图像的轨迹合成方法、装置及终端
JP2020144691A (ja) * 2019-03-07 2020-09-10 株式会社Screenホールディングス 代表色決定方法、検査装置、検査方法およびプログラム
US11095829B2 (en) * 2019-06-11 2021-08-17 Samsung Electronics Co., Ltd. Apparatus and method for high dynamic range (HDR) image creation of dynamic scenes using graph cut-based labeling
CN113630545B (zh) * 2020-05-07 2023-03-24 华为技术有限公司 一种拍摄方法及设备

Family Cites Families (34)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3630905B2 (ja) * 1997-02-28 2005-03-23 キヤノン株式会社 撮像方法及び撮像装置
JP4282113B2 (ja) 1998-07-24 2009-06-17 オリンパス株式会社 撮像装置および撮像方法、並びに、撮像プログラムを記録した記録媒体
US6693962B1 (en) * 1999-02-01 2004-02-17 Thomson Licensing S.A. Process to extract regions of homogeneous texture in a digital picture
US7262794B2 (en) * 2001-08-20 2007-08-28 Photographic Art Research Laboratory Method of making digital photograph and digital photograph made by that method
US7409104B2 (en) * 2002-07-18 2008-08-05 .Sightic Vista Ltd Enhanced wide dynamic range in imaging
JP3747230B2 (ja) * 2002-11-15 2006-02-22 独立行政法人理化学研究所 動画解析システム
US7643066B2 (en) * 2004-02-19 2010-01-05 Robert Bosch Gmbh Method and apparatus for producing frame accurate position data in a PTZ dome camera with open loop control
US9210312B2 (en) * 2004-06-02 2015-12-08 Bosch Security Systems, Inc. Virtual mask for use in autotracking video camera images
US7391907B1 (en) * 2004-10-01 2008-06-24 Objectvideo, Inc. Spurious object detection in a video surveillance system
US8018999B2 (en) * 2005-12-05 2011-09-13 Arcsoft, Inc. Algorithm description on non-motion blur image generation project
JP2007166198A (ja) * 2005-12-13 2007-06-28 National Univ Corp Shizuoka Univ フレームレート変換方法および装置
JP2007166539A (ja) * 2005-12-16 2007-06-28 Canon Inc 撮像装置、撮像方法、プログラムおよび記憶媒体
JP2007336394A (ja) * 2006-06-16 2007-12-27 Samsung Techwin Co Ltd 撮像装置及び画像合成方法
US7800825B2 (en) * 2006-12-04 2010-09-21 3M Innovative Properties Company User interface including composite images that float
US8459807B2 (en) * 2007-07-11 2013-06-11 3M Innovative Properties Company Sheeting with composite image that floats
JP4661922B2 (ja) * 2008-09-03 2011-03-30 ソニー株式会社 画像処理装置、撮像装置、固体撮像素子、画像処理方法およびプログラム
JP2010136239A (ja) * 2008-12-08 2010-06-17 Fujifilm Corp 撮影装置および撮影装置の制御方法並びにプログラム
JP5214476B2 (ja) * 2009-01-15 2013-06-19 富士フイルム株式会社 撮像装置及び画像処理方法並びにプログラム
JP5146335B2 (ja) * 2009-01-22 2013-02-20 ソニー株式会社 画像処理装置および方法、並びにプログラム
US8228400B2 (en) 2009-04-17 2012-07-24 Sony Corporation Generation of simulated long exposure images in response to multiple short exposures
JP2011114823A (ja) * 2009-11-30 2011-06-09 Sanyo Electric Co Ltd 画像処理装置及び撮像装置
CN102414720B (zh) * 2010-03-19 2015-08-19 松下电器(美国)知识产权公司 特征量计算装置、特征量计算方法
JP2012083848A (ja) 2010-10-07 2012-04-26 Olympus Corp 画像処理装置、画像処理方法、撮像装置、および画像処理プログラム
US8810663B2 (en) * 2011-01-27 2014-08-19 Aptina Imaging Corporation Methods for motion correction for high-dynamic-range imaging systems
CN102214355B (zh) * 2011-05-20 2013-04-03 西安工程大学 一种服装展示素材的抠图方法
SE1150505A1 (sv) 2011-05-31 2012-12-01 Mobile Imaging In Sweden Ab Metod och anordning för tagning av bilder
KR101699919B1 (ko) * 2011-07-28 2017-01-26 삼성전자주식회사 다중 노출 퓨전 기반에서 고스트 흐림을 제거한 hdr 영상 생성 장치 및 방법
US9456146B2 (en) * 2011-12-22 2016-09-27 Panasonic Intellectual Property Management Co., Ltd. Exposure control device, imaging device, image display device, and exposure control method
US9338349B2 (en) * 2013-04-15 2016-05-10 Qualcomm Incorporated Generation of ghost-free high dynamic range images
JP5610245B2 (ja) * 2013-08-27 2014-10-22 株式会社モルフォ 画像合成装置、画像合成方法、画像合成プログラム及び記録媒体
CN103456010B (zh) * 2013-09-02 2016-03-30 电子科技大学 一种基于特征点定位的人脸卡通画生成方法
CN105100579B (zh) * 2014-05-09 2018-12-07 华为技术有限公司 一种图像数据的采集处理方法及相关装置
GB2536904B (en) * 2015-03-30 2017-12-27 Imagination Tech Ltd Image filtering based on image gradients
US9865062B2 (en) * 2016-02-12 2018-01-09 Qualcomm Incorporated Systems and methods for determining a region in an image

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022108235A1 (ko) * 2020-11-17 2022-05-27 삼성전자 주식회사 슬로우 셔터를 제공하기 위한 방법, 장치 및 저장 매체

Also Published As

Publication number Publication date
EP3091731A1 (en) 2016-11-09
US20170019608A1 (en) 2017-01-19
EP3091731A4 (en) 2017-08-30
CN106165389B (zh) 2020-02-14
CN106165389A (zh) 2016-11-23
JPWO2015141487A1 (ja) 2017-04-06
US10567671B2 (en) 2020-02-18
WO2015141487A1 (ja) 2015-09-24

Similar Documents

Publication Publication Date Title
JP6624048B2 (ja) 画像処理装置、画像処理方法、およびプログラム
CN105323425B (zh) 融合图像系统中的场景运动校正
EP3457683B1 (en) Dynamic generation of image of a scene based on removal of undesired object present in the scene
CN105323497B (zh) 恒定包围的高动态范围(cHDR)操作
CN102893595B (zh) 图像处理装置和方法以及程序
CN115702572A (zh) 电子设备和电子设备的控制方法
US20180109711A1 (en) Method and device for overexposed photography
US10359498B2 (en) Image pickup apparatus having function of generating simulation image,control method therefor, and storage medium
US20190180107A1 (en) Colour look-up table for background segmentation of sport video
CN105264567A (zh) 用于图像稳定化的图像融合方法
KR20130018330A (ko) 촬상 장치, 화상 처리 방법 및 프로그램을 기록하기 위한 기록 매체
JP2011237907A (ja) 画像処理装置、画像処理方法、およびプログラム
US11610461B2 (en) Video compression stream
US9437026B2 (en) Image creating device, image creating method and recording medium
JP2019070872A (ja) 画像処理装置、画像処理方法及びプログラム
KR20160063794A (ko) 촬영 장치 및 그 제어 방법
JP2010114752A (ja) 撮像装置及び撮像方法及びプログラム
US9686470B2 (en) Scene stability detection
JP2011172192A (ja) 画像処理装置及びプログラム
US20220398704A1 (en) Intelligent Portrait Photography Enhancement System
JP6396932B2 (ja) 画像合成装置、画像合成装置の動作方法およびコンピュータプログラム
JP4774857B2 (ja) 画像処理装置及びプログラム
JP6157238B2 (ja) 画像処理装置、画像処理方法及び画像処理プログラム
JP2011151454A (ja) 画像処理装置、撮像機器及び画像処理方法
KR101831138B1 (ko) 비디오를 이용한 애니메이션 스티커 제작 방법 및 장치

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180129

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180129

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190402

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190523

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20191029

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20191111

R151 Written notification of patent or utility model registration

Ref document number: 6624048

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151