JP6157238B2 - 画像処理装置、画像処理方法及び画像処理プログラム - Google Patents

画像処理装置、画像処理方法及び画像処理プログラム Download PDF

Info

Publication number
JP6157238B2
JP6157238B2 JP2013133100A JP2013133100A JP6157238B2 JP 6157238 B2 JP6157238 B2 JP 6157238B2 JP 2013133100 A JP2013133100 A JP 2013133100A JP 2013133100 A JP2013133100 A JP 2013133100A JP 6157238 B2 JP6157238 B2 JP 6157238B2
Authority
JP
Japan
Prior art keywords
subject
image
target image
region
filter
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2013133100A
Other languages
English (en)
Other versions
JP2015008428A (ja
Inventor
堀内 一仁
一仁 堀内
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Original Assignee
Olympus Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Corp filed Critical Olympus Corp
Priority to JP2013133100A priority Critical patent/JP6157238B2/ja
Publication of JP2015008428A publication Critical patent/JP2015008428A/ja
Application granted granted Critical
Publication of JP6157238B2 publication Critical patent/JP6157238B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、撮影された複数の画像を用いて被写体の動きを強調する画像処理を施す画像処理装置、画像処置方法及び画像処理プログラムに関する。
写真撮影の技法の一つとして「流し撮り」が知られている。流し撮りは、被写体の位置が画角に対して固定されるように、撮影者が被写体の動きに合わせてカメラを移動させながら撮影する技法である。流し撮りでは、被写体がぶれずに背景が流れるような効果が生まれることから、被写体のスピード感を強調させた画像を得ることができる。ここで、流し撮りは、通常の撮影よりも長い露光時間で行われることが多い。露光時間が長くなると手ぶれが発生しやすくなる。このため、流し撮りの際に背景だけでなく被写体もぶれてしまうことが多い。
流し撮り時の被写体ぶれを抑える手法の1つとして、流し撮り中に発生した手ぶれに応じて撮像素子又はレンズを機械的に移動させることによって被写体のぶれを抑える手法が考えられる。この場合、通常撮影用とは別個に流し撮り用の手ぶれ補正の制御をすることになり、システムが複雑化しやすい。また、機械的な手ぶれ補正が行われた後でなければ被写体ぶれが発生してしまうので、シャッタボタンを押してから撮影が行われるまでにタイムラグが発生する。このため、撮影者が本来撮影したいと考える構図の画像が得られない可能性がある。
流し撮り時の被写体ぶれを抑える別の手法として、特許文献1の手法が提案されている。特許文献1の手法は、露光時間を短時間にすることで被写体のぶれを抑えた画像を得つつ、この画像を被写体領域と背景領域とに分離し、背景領域の画像が流れるように被写体の動きに応じて背景領域にぼかしの画像処理を施す手法である。
特開2011−114823号公報
特許文献1の手法が有効に機能するのは、被写体の動きが撮影画面に対して平行でありかつ背景の物体間と被写体との奥行きの関係が不変である場合に限られる。実際の流し撮りは、被写体の奥行き方向の動き(被写体が撮影者に迫るような動き等)を伴う状況で行われることも多い。このとき、撮影画面上での背景領域の動きは、必ずしも被写体の動きから一意に決まらない。このため、特許文献1のようを背景に対して一律の「動きぼけ」を適用する手法では、実際には起こりえない不自然なぼけが発生する可能性がある。
本発明は、前記の事情に鑑みてなされたもので、手持ちによる撮影でも被写体及び背景の動きに対する違和感のない画像を簡単に生成できる画像処理装置、画像処理方法及び画像処理プログラムを提供することを目的とする。
前記の目的を達成するために、本発明の第1の態様の画像処理装置は、被写体を連続的に撮像して複数の画像を取得する撮像部と、前記取得された複数の画像のそれぞれにおける主要被写体の領域と背景被写体の領域とを判定する被写体判定部と、前記取得された複数の画像の中から対象画像を決定する対象画像決定部と、前記対象画像と該対象画像が撮像された時刻と時間的に前後する時刻に撮像された画像との間の少なくとも前記背景被写体の領域の動きベクトルを推定する動きベクトル推定部と、前記推定された動きベクトルに基づき前記対象画像に適用するフィルタを構成するフィルタ構成部と、前記構成されたフィルタを前記対象画像に適用するフィルタ適用部とを具備し、前記対象画像決定部は、前記被写体判定部で判定された前記主要被写体の領域の位置と画面の構図に基づいて決定される理想被写体の領域の位置の位置関係に基づいて前記対象画像を決定する
前記の目的を達成するために、本発明の第2の態様の画像処理方法は、被写体を連続的に撮像して複数の画像を取得することと、前記取得された複数の画像のそれぞれにおける主要被写体の領域と背景被写体の領域とを判定することと、前記取得された複数の画像の中から対象画像を決定することと、前記対象画像と該対象画像が撮像された時刻と時間的に前後する時刻に撮像された画像との間の少なくとも前記背景被写体の領域の動きベクトルを推定することと、前記推定された動きベクトルに基づき前記対象画像に適用するフィルタを構成することと、前記構成されたフィルタを前記対象画像に適用することとを具備し、前記対象画像を決定することは、前記判定された前記主要被写体の領域の位置と画面の構図に基づいて決定される理想被写体の領域の位置の位置関係に基づいて前記対象画像を決定することを含む
前記の目的を達成するために、本発明の第3の態様の画像処理プログラムは、被写体を連続的に撮像して複数の画像を取得する機能と、前記取得された複数の画像のそれぞれにおける主要被写体の領域と背景被写体の領域とを判定する機能と、前記取得された複数の画像の中から対象画像を決定する機能と、前記対象画像と該対象画像が撮像された時刻と時間的に前後する時刻に撮像された画像との間の少なくとも前記背景被写体の領域の動きベクトルを推定する機能と、前記推定された動きベクトルに基づき前記対象画像に適用するフィルタを構成する機能と、前記構成されたフィルタを前記対象画像に適用する機能とをコンピュータに実現させるための画像処理プログラムであって、前記対象画像を決定する機能は、前記判定された前記主要被写体の領域の位置と画面の構図に基づいて決定される理想被写体の領域の位置の位置関係に基づいて前記対象画像を決定することを含む
本発明によれば、手持ちによる撮影でも被写体及び背景の動きに対する違和感のない画像を簡単に生成できる画像処理装置、画像処理方法及び画像処理プログラムを提供することができる。
本発明の第1の実施形態に係る画像処理方法を用いて画像処理を行う画像処理装置の適用例としての撮像装置の一例の構成を示す図である。 本発明の第1の実施形態における撮像装置の撮影動作を示すフローチャートである。 流し撮りによって得られる画像の例を示す図である。 第1の実施形態における連写動作の例を示す図である。 被写体判定の概要を示す図である。 対象画像決定の処理を示すフローチャートである。 三分割法による理想被写体重心位置を表す図である。 連写動作によって得られた3画像に対して算出される実際の主要被写体の領域から算出される重心位置と理想被写体重心位置との関係を示す図である。 動きベクトル推定について説明するための図である。 推定された動きベクトルの例を示す図である。 フィルタカーネルのサイズの設定を示す図である。 構成されたフィルタの例を示す図である。 境界領域について示す図である。 境界領域に対して適用されるフィルタの例を示す図である。 境界領域を設定するための処理を示すフローチャートである。 本発明の第2の実施形態に係る画像処理方法を用いて画像処理を行う画像処理装置の適用例としての撮像装置の一例の構成を示す図である。 本発明の第2の実施形態における撮像装置の撮影動作を示すフローチャートである。 図18(a)は画面内における背景被写体としての動きを推定する領域を示す図であり、図18(b)は動きベクトルを推定するブロックの構成を示す図である。 被写体判定が行われるシーンの例を示す図である。 図20(a)は撮影モードが流し撮りモードの場合に推定される動きベクトルを示す図であり、図20(b)は流し撮りモードの場合に推定される動きベクトルを小領域単位で統合することにより得られる動きベクトルを示す図である。 図21(a)は撮影モードが手持ち長時間撮影モードの場合に推定される動きベクトルを示す図であり、図21(b)は手持ち長時間撮影モードの場合に推定される動きベクトルを小領域単位で統合することにより得られる動きベクトルを示す図である。 本発明の第3の実施形態に係る画像処理方法を用いて画像処理を行う画像処理装置の適用例としての撮像装置の一例の構成を示す図である。 対象画像の選択の際に表示部に表示される内容の具体例を図である。
以下、図面を参照して本発明の実施形態を説明する。
(第1の実施形態)
[構成]
図1は、第1の実施形態に係る画像処理方法を用いて画像処理を行う画像処理装置の適用例としての撮像装置の一例の構成を示す図である。ここで、図1の実線矢印は、画像の流れを表している。また、図1の破線矢印は、画像以外の制御情報の流れを表している。図1に示す撮像装置100は、撮像部102と、操作部104と、撮影条件設定部106と、処理制御部108と、情報記録部110と、画像記憶部112と、被写体判定部114と、対象画像決定部116と、動きベクトル推定部118と、フィルタ構成部120と、フィルタ適用部122とを有している。
撮像部102は、レンズ1021と、撮像素子1022と、撮像制御部1023とを有している。レンズ1021は、被写体からの光束を撮像素子1022の像面に結像させる単一又は複数のレンズである。撮像素子1022は、レンズ1021を介して像面に入射した光束を、光電変換によって電気信号(画像信号)に変換する。以下、画像信号を、単に画像と言う。撮像制御部1023は、撮像素子1022の撮像動作を制御する。例えば、撮像制御部1023は、撮像素子1022の露光時間、感度等を制御することによって撮像素子1022の露光量を制御する。また、撮像制御部1023は、撮像素子1022の連写動作を制御する。さらに、撮像制御部1023は、撮像素子1022で得られた画像に対して色復元処理(撮像素子1022が単板カラーフィルタを有している場合のデモザイキング処理等)、ノイズ低減処理、エッジ強調処理等の画像処理を施す。
操作部104は、撮像装置100の操作のために撮影者によって操作される操作部材である。操作部104は、ボタンやスイッチ等の操作部材であってもよいし、タッチパネル等の操作部材であってもよい。操作部104の操作により、例えば撮像装置100の撮影モードが選択される。本実施形態における撮影モードは、例えば「流し撮り」モードと「手持ち長時間撮影」モードとを含む。流し撮りモードは、流し撮りのための撮影モードである。手持ち長時間撮影モードは、撮影者による手持ちでの長時間撮影をするための撮影モードである。
撮影条件設定部106は、撮影時の撮影条件を設定する。撮影条件は、例えば撮影時の撮像素子1022の露光量に関する条件(例えば、露光時間、感度)と、画像処理に関する条件(例えばノイズ低減処理におけるノイズ低減レベル)と、連写実行時の撮影枚数を含む。これらの撮影条件は、例えば、撮影者が操作部104を操作することによる手動操作に従って設定される。また、撮影条件は、例えば本撮影前のライブビューの際に得られる画像における被写体の明るさに基づいて設定されてもよい。ライブビューは、本撮影前に撮像素子1022を連続駆動させて得られる画像をリアルタイムに表示部に表示させる動作である。
処理制御部108は、情報記録部110に記録されたプログラムに従って、撮像装置100の各ブロックを制御する。例えば、処理制御部108は、撮影条件設定部106によって設定された撮影条件に従って撮像制御部1023を制御する。また、処理制御部108は、被写体判定部114の動作の開始を指示する。
情報記録部110は、例えばフラッシュROMであり、処理制御部108によって実行されるプログラムや画像処理に必要なパラメータ等を記録している。画像記憶部112は、例えばRAMであり、撮像部102で得られた画像を記憶する。画像記憶部112に記憶された画像は、被写体判定部114からの指示に応じて読み出される。
被写体判定部114は、画像記憶部112に記憶された画像における主要被写体の領域と背景被写体の領域とをそれぞれ判定し、主要被写体及び背景被写体の領域情報を表す被写体/背景領域情報(例えば主要被写体の領域と背景被写体の領域とを分けた2値画像)を生成する。対象画像決定部116は、被写体判定部114からの被写体/背景領域情報に従って、連写動作によって得られた複数の画像のうち、フィルタ適用部122においてフィルタが適用される対象である対象画像を決定する。動きベクトル推定部118は、連写動作によって得られた複数の画像間での被写体の動きベクトルを推定する。フィルタ構成部120は、動きベクトル推定部118で推定された動きベクトルに基づき、画像に動きぼけを与えるためのフィルタを構成する。フィルタ適用部122は、フィルタ構成部120で構成されたフィルタを対象画像に対して適用する。
[動作]
次に、本実施形態に係る撮像装置100の動作を説明する。図2は、第1の実施形態における撮像装置100の撮影動作を示すフローチャートである。図2において、撮影条件設定部106は、撮影時の撮影条件を設定する(ステップS101)。撮影条件は、例えば撮影モードに応じて設定される。撮影モードの選択は、例えば撮影者による操作部104の操作によってなされる。以下では、流し撮りモードと手持ち長時間撮影モードの何れかが選択されたとする。撮影モードが選択されると、選択された撮影モードの情報は、撮影条件設定部106に入力される。撮影条件設定部106は、入力された撮影モードの情報に応じて撮影条件を設定する。ステップS101においては、撮像条件として、撮影枚数、露光時間、感度、ノイズ低減レベル等が設定される。撮影条件の設定の詳細については後で説明する。
撮影条件が設定されると、処理制御部108は、撮像制御部1023を制御して撮影動作を実行する(ステップS102)。撮影者は、撮影モードが流し撮りであれば、動いている被写体を追従するように撮像装置100を動かしながら撮影を行う。また、撮影者は、撮影モードが手持ち長時間撮影であれば撮像装置100を手持ちで固定して撮影を行う。撮影時の開始後、処理制御部108は、ステップS101で設定された撮影条件でそれぞれの撮影が行われるように撮像制御部1023を制御する。撮像制御部1023は、設定された露光時間及び感度で撮像素子1022による撮像動作を撮影枚数分だけ実行させる。そして、撮像制御部1023は、各撮像動作で得られた画像に対して画像処理を施し、画像処理が施された画像を画像記憶部112に記憶させる。ここで、画像処理におけるノイズ低減レベルは、撮影条件として設定されたものが用いられる。設定された撮影枚数分の画像を画像記憶部112へ記憶させた後、撮像制御部1023は、撮影完了の情報を処理制御部108に入力する。
撮影完了の情報が入力されると、処理制御部108は、被写体判定部114に処理開始の指示を出すとともに撮影モードの情報を入力する。処理開始の指示を受けて、被写体判定部114は、画像記憶部112に記憶された各画像における被写体判定を行う(ステップS103)。被写体判定部114は、画像記憶部112に画像の取り出しの指示を出す。画像記憶部112は、指示を受け取ると、連写動作に従って記憶された複数の画像を1つずつ取り出して被写体判定部114に入力する。画像の入力を受けて、被写体判定部114は、入力された画像における主要被写体の領域と背景被写体の領域とをそれぞれ判定し、主要被写体及び背景被写体の領域情報を表す被写体/背景領域情報を生成する。また、被写体判定部114は、撮影モードの情報に基づいて動き推定対象領域情報を生成し、生成した動き推定対象領域情報を被写体/背景領域情報に付加する。動き推定対象領域情報は、動きベクトルの推定及びフィルタの適用に際し、主要被写体の領域と背景被写体の領域のどちらを使用するかを示す情報である。動き推定対象領域の情報としては、例えば撮影モードの情報を用いることが可能である。
画像記憶部112に記憶された全ての画像についての被写体判定が完了すると、被写体判定部114は、入力された各画像と各画像に対応付けられた被写体/背景領域情報を対象画像決定部116と動きベクトル推定部118とに送る。対象画像決定部116は、各画像の被写体/背景領域情報を解析し、入力された画像の中から、フィルタの適用対象とする対象画像を決定し、決定した対象画像を動きベクトル推定部118とフィルタ適用部122とに送る(ステップS104)。対象画像の決定手法の詳細については後で説明する。
動きベクトル推定部118は、動き推定対象領域の情報に基づいて、対象画像決定部116から入力された対象画像と対象画像の撮影時刻に時間的に前後する撮影時刻を有する画像との間の被写体の動きベクトルを推定し、推定した動きベクトルをフィルタ構成部120に入力する(ステップS105)。例えば、流し撮りモードの場合は、撮影者は、動いている主要被写体に対して撮像装置100を追従させるよう動かす。したがって、画像上で見ると、主要被写体はほぼ静止しており、背景被写体は動いていると考えられる。静止している被写体に対しては動きぼけを付加する必要はない。したがって、流し撮りモードの場合には、背景被写体の領域の動きベクトルが推定されていればよい。勿論、主要被写体の領域の動きベクトルのほうも推定されてよい。一方、手持ち長時間撮影モードの場合、撮影者は、撮像装置100を手持ちで固定する。この場合、画像上で見ると、主要被写体は動く可能性があり、背景被写体は通常は固定されていると考えられる。したがって、手持ち長時間撮影モードの場合には、主要被写体の領域の動きベクトルが推定されていればよい。勿論、背景被写体の領域の動きベクトルのほうも推定されてよい。また、動きベクトルの推定単位は、画素単位又は複数の近接する画素で構成されるブロック単位(例えば5×5画素等)である。このような動きベクトル推定の詳細については後で説明する。
動きベクトルが入力されると、フィルタ構成部120は、動きベクトルに応じてフィルタを構成し、構成したフィルタの情報をフィルタ適用部122に入力する(ステップS106)。フィルタ構成部120で構成されるフィルタは、動きベクトル(方向及び大きさ)に応じて画像に平滑化をかける平滑化フィルタである。フィルタは、動きベクトルの推定単位で持たせるようにする。したがって、動きベクトルが推定されていない領域には、フィルタは構成されない。フィルタを構成する処理の詳細については後で詳しく説明する。
フィルタの情報が入力されると、フィルタ適用部122は、対象画像決定部116で決定された対象画像に対してフィルタ処理(動きぼけ付加)を行う(ステップS107)。そして、フィルタ適用部122は、フィルタ処理後の画像を出力デバイスに出力する(ステップS108)。出力デバイスとは、例えば画像の表示のためのデバイスであるディスプレイや画像の記録のためのデバイスであるメモリカードである。
[連写動作]
撮影条件の設定及び連写動作についてさらに説明する。図3は、流し撮りによって得られる画像の例を示す図である。図3(a)は、理想的な流し撮りによって得られる画像である。主要被写体は手前の車、背景被写体は奥にある木や建物である。流し撮りでは、動いている主要被写体を追従するように撮像装置100が動かされながら撮影が行われる。ここで、理想的な流し撮りでは、露光中に動いている主要被写体が画像上で静止している。このため、画像上では主要被写体以外の背景被写体が動きによりぼけた状態になる。しかしながら、理想的な流し撮りは熟練した技術をもたない撮影者には困難である。特に、撮影者による手持ちでの流し撮りでは、手ぶれが起きやすい。手ぶれが起きてしまうと、図3(b)に示すように本来はぶれてほしくない主要被写体もぶれてしまう。
本実施形態では、図4に示すようにScene1、Scene2、Scene3と連続的に短時間の露光を繰り返して画像を得る。これにより手持ち撮影でも、動いている主要被写体のぶれを大幅に抑制できる。一方で、露光時間を短くした場合、背景被写体の動きが感じられなくなってしまう。背景被写体に関しては、動きベクトルに応じた平滑化を適用することによってぼけを付加する。この処理がステップS107の処理である。
また、露光時間を短くした場合、画像が暗くなる。画像の明るさを適正なものとする手法の1つとして、撮像素子1022の感度(撮像素子1022で得られる信号の増幅率)を上げる手法が考えられる。ただし、撮像素子1022の感度を上げると画像におけるノイズが目立つようになってしまう。そこで、感度に応じてノイズ低減処理におけるノイズ低減レベルを高めることにより、画像におけるノイズを低減する。
連写動作の撮影条件が自動で設定される場合、ぶれを抑制するために、連写動作における1回の露光時間tは極力短く設定される。好ましくは、露光時間は、手ぶれ限界と言われる時間よりも短く設定される。手ぶれ限界は、手ぶれを起こさない限界とされる露光時間の目安であり、1/(レンズの焦点距離(mm))秒である。この場合レンズの焦点距離は35mmフィルム換算で定義される。ここで、主要被写体の明るさを撮像装置100に設定されている適正な明るさとするために必要な露光時間Tは、レンズの絞りを固定とすると周知の自動露光量(AE)演算によって算出される。したがって、撮影枚数Nは(T/t)枚である。しかし1回の露光時間がtであると、明るさが不足する。この明るさの不足は、感度を上げることによって補われる。すなわち、感度は、(T/t)倍=N倍に設定される。また、ノイズ低減レベルは感度の上昇に応じて設定される。これにより、理想的には、主要被写体の明るさが適正な明るさを有する画像をN枚分得ることができる。なお、撮影条件は、撮影者による手動操作によって設定されてもよい。
[被写体判定方法]
被写体判定の方法についてさらに説明する。図5は、ステップS103の被写体判定の概要を示す図である。本実施形態では、撮像部102の連写動作によって画像記憶部112に記憶されている一連の画像のそれぞれについて主要被写体と主要被写体以外(背景被写体)とが判定される。判定には、例えば周知の画像認識手法が用いられる。このために、事前に動きを伴うオブジェクト(乗り物、人物、動物等)の画像特徴量が情報記録部110に登録されている。判定の際には、連写動作によって得られた各画像から画像特徴量が算出され、この算出した特徴量が予め定めた判定ルールに基づいて各オブジェクトの画像特徴量と比較される。そして、画像特徴量が最も類似しているオブジェクトが画像内の被写体であると判定され、各被写体の領域を示す2値画像が被写体/背景領域情報となる。ここで、情報記録部110に登録する画像特徴量は、学習によって逐次更新されるようにしてよい。
図5は、連写動作により得られた複数の画像(Scene1〜Scene3の3枚)のそれぞれに対して主要被写体である車(Car)の領域と背景被写体である木(Tree)及び家(House)の領域が認識された例を表している。また、図5は、認識された被写体が主要被写体(main)か背景被写体(back)かが示されている。ここで、主要被写体は、前方に位置している(他の被写体によって隠されていない)又は画像認識における動きを伴うオブジェクトである等の条件に一致するものが採用される。また、本実施形態では、「主要被写体」と「背景被写体」とが区別できればよいので、図5の木(Tree)や家(House)が「背景被写体」として一つの領域とみなしてもよい。この場合において、例えば画像における最も前方の被写体を主要被写体とし、その他を背景被写体とするという簡易的な被写体判定であれば、詳細な画像認識手法を用いなくてもよい。
図5に示す画像は、短時間の露光時間かつ高感度でノイズが低減されて得られた画像である。したがって、撮像装置100や主要被写体の動きによる被写体ぶれの影響が極力抑えられている。故に、被写体ぶれに影響されることがなく、高精度の被写体判定が行われる。
[対象画像決定方法]
対象画像の決定方法についてさらに説明する。図6は、ステップS104の対象画像決定の処理を示すフローチャートである。図6の例は、画面の構図を決定する際に用いられる三分割法に基づき主要被写体が画面上の理想位置に最も近い位置に存在している画像を対象画像とする例である。
図6において、対象画像決定部116は、処理に必要な変数を初期化する(ステップS201)。具体的には、対象画像決定部116は、処理対象の画像枚数を示すNを画像記憶部112に記憶されている画像の枚数(撮影枚数と一致)に、画像の参照順序をカウントするための画像参照カウンタCを1に、対象画像決定時の基準となる最小重心距離を画像サイズ(画素単位で計算上算出されない大きな値として)に、対象画像となる画像の順番を表す対象画像番号Pを0にそれぞれ初期化する。
変数の初期化の後、対象画像決定部116は、ステップS202からのループ処理を実行する。ループ処理の開始として、対象画像決定部116は、順序がC番目の画像及びC番目の画像に対応付けられた被写体/背景領域情報を読み出す(ステップS202)。続いて、対象画像決定部116は、被写体/背景領域情報から、主要被写体の領域における重心位置を算出する(ステップS203)。重心位置は、例えば画像の画素単位で算出される。
その後、対象画像決定部116は、算出した重心位置と予め設定されている複数の理想被写体重心位置との距離をそれぞれ算出する。そして、対象画像決定部116は、算出した距離の中で最小となるものをC番目の画像に対応した重心距離とする(ステップS204)。続いて、対象画像決定部116は、C番目の画像に対応した重心距離が最小重心距離よりも短いか否かを判定する(ステップS205)。C番目の画像に対応した重心距離が最小重心距離以上である場合、対象画像決定部116は、最小重心距離の置き換えを行わない。一方、C番目の画像に対応した重心距離が最小重心距離よりも短い場合、対象画像決定部116は、最小重心距離をC番目の画像に対応した重心距離に置き換える。また、対象画像決定部116は、対象画像番号Pに現在の画像参照カウンタCの値を設定する(ステップS206)。そして、対象画像決定部116は、次の順序の画像を読み出す準備として、画像参照カウンタCをインクリメントする(ステップS207)。
ループ処理の終了判定として、対象画像決定部116は、画像参照カウンタCが処理対象の画像枚数Nより大きいか否かを判定する(ステップS208)。画像参照カウンタCが処理対象の画像枚数Nよりも大きい場合、対象画像決定部116は、ループ処理を終了させる。画像参照カウンタCが処理対象の画像枚数N以下の場合、対象画像決定部116は、ループ処理の開始であるステップS202に処理を移す。
ループ処理を終了させた後、対象画像決定部116は、最小重心距離に対応したP番目の画像を処理の対象画像に決定する(ステップ209)。
図7は、三分割法による理想被写体重心位置を表す図である。三分割法の場合、画面を3×3に等分割するグリッドラインが設定される。理想被写体重心位置G0は、グリッドラインが交差している4点である。したがって、主要被写体の領域の重心位置との距離は4点の理想被写体重心位置分だけ算出され、このうち最小となるものがステップS204のC番目の重心距離である。
図8は、連写動作によって得られた3画像(Scene1、Scene2、Scene3)に対して算出される実際の主要被写体の領域から算出される重心位置G1と理想被写体重心位置G0との関係を示す図である。図8の例において、各画像の重心距離を比較すると、Scene2の画像がG0とG1との距離が最も小さくなる。したがって、Scene2の画像が対象画像として決定される。
[動きベクトル推定]
動きベクトル推定についてさらに説明する。図9(a)は、動きベクトル推定部118で設定される動き推定対象のブロックを示す図である。動き推定対象のブロックは、被写体/背景領域情報に付加された動き推定対象領域情報(例えば、撮影モードの情報)に従って設定される。例えば、撮影モードが流し撮りモードの場合、動き推定対象は背景被写体の領域である。したがって、図9(a)に示すように、Scene2の画像における主要被写体の領域(図9(a)のmain)以外の背景被写体の領域に対し動きベクトルの推定単位(正方サイズのブロック;例えば5×5画素)が定義される。図9(b)は、動きベクトル推定単位ブロックを実際の画像(Scene2)に重ねて示した図である。図9(b)で示す主要被写体の領域(図9(b)のmain)以外の各ブロックについて動きベクトルが推定される。動きベクトルは、対象画像である画像Scene2の撮影時刻よりも時間的に1つ前の撮影時刻に撮影された画像(Scene1)との間での背景被写体の画像上での移動方向及び移動量である。すなわち、Scene1の画像における背景被写体がScene2の画像のどの領域に存在しているかをパターンマッチング等の手法を用いて探索することによって両画像の間の背景被写体の領域の動きベクトルを推定することができる。
なお、動きベクトルの推定には、対象画像が撮影された時刻より1つ前の時刻に撮影された画像が最低限必要である。一方で、主要被写体により背景被写体の一部が隠されてしまうことで、対応する背景被写体が探索できずに動きベクトルを推定できない可能性がある。したがって、背景全体についての動きベクトルが推定できるよう、他の時刻の画像、例えば対象画像の撮影時刻よりも1つ後の時刻に撮影された画像(Scene3)、対象画像の撮影時刻の前の前の撮影時刻に撮影された画像、対象画像の撮影時刻の後の後の撮影時刻に撮影された画像をも使うようにしてよい。多くの画像を使用することで上述の隠れによる影響やノイズ起因による、信頼性の低い動きベクトルを除去することができる。
[動きベクトルからのフィルタ構成方法]
動きベクトルからのフィルタ構成方法についてさらに説明する。例として、図10に示すようにして動きベクトルが推定されたものとする。このとき、背景被写体である家(back1)の一部分(ブロック)と木(back2)の一部分に着目する。なお、図10の例では、撮影者からの距離は、木より家の方が離れているものとする。ここで、撮影者は、画面内を右から左に移動する車(主要被写体)を流し撮りしようとして撮像装置100をパンニングさせたとする。一般に、撮像装置100の動きに対する画像上での背景被写体の動きは、距離が近い被写体ほど大きく、距離が遠い被写体ほど小さくなることが知られている。したがって、図10の例では、家のブロックの動きベクトルの大きさは、木のブロックの動きベクトルの大きさに比べて小さい。また、画面上部にある家のブロックの動きベクトルの方向は右下方向と推定され、画面下部にある木のブロックの動きベクトルの方向は右上方向と推定される。結果として、図10では家のブロックBL1の動きベクトルはV1となり、木のブロックBL2の動きベクトルはV2となる。
図10のようにして得られた動きベクトルを用いて動きぼけを表す平滑化フィルタが構成される。具体的には、動きベクトルの始点を中心とし、動きベクトルの大きさに合わせる形でフィルタのカーネルサイズが決定される。例えば、図11(a)に示すように、家のブロックBL1の動きベクトルが右方向に3ブロック、下方向に1ブロックのベクトルであるとすると、家に対して適用するフィルタのカーネルサイズはブロック数が大きい方向(右方向)のブロック数(3)に基づき7×7(=3+3+1)に決定される。また、図11(b)に示すように、木のブロックBL2の動きベクトルが右方向に5ブロック、上方向に1ブロックのベクトルであるとすると、木に対して適用するフィルタのカーネルサイズはブロック数が大きい方向(右方向)のブロック数(5)に基づき11×11(=5+5+1)に決定される。
フィルタのカーネルサイズが決定したところで動きベクトルが合わせられ、動きベクトルがかかる画素に対してフィルタ要素を持たせるような平滑化フィルタが構成される。図12(a)に示すように、家のブロックBL1に対して適用されるフィルタについては、中心を含んで右下方向の4画素にフィルタ要素を持たせる。また、図12(b)に示すように、木のブロックBL2に対して適用されるフィルタについては、中心を含んで右上方向の6画素にフィルタ要素を持たせる。平滑化フィルタであるので、総数が1となるようにフィルタ要素が構成される。すなわち、家のブロックBL1に対して適用されるフィルタのフィルタ要素は1/4であり、木のブロックBL2に対して適用されるフィルタのフィルタ要素は1/6である。このようにして構成されたフィルタがブロック内の画素に関するフィルタである。同様の方法を用いて、動きベクトルが推定された全てのブロックに対してフィルタが構成される。これにより、平滑化は、フィルタ要素の配列方向と中心対称の方向について効果を与える。すなわち、家のブロックBL1についてフィルタが適用された場合、左上に動いているような動きぼけが付加される。また、木のブロックBL2についてフィルタが適用された場合、左下に動いているような動きぼけが付加される。
ここで、図12の例では、複数の画素に対して一律に平滑化がかかるようにフィルタ要素が決められている。これに対し、注目画素に重みをおいた平滑化がかかるようにフィルタ要素が決定されてもよい。この場合、中央から離れるに従ってフィルタ要素の値を小さくする。このようなフィルタが適用された場合、元のパターンがある程度見える形で動いているような動きぼけが付加される。このような動きぼけにより、被写体の動きが強調される。
[フィルタ適用方法]
フィルタの適用方法についてさらに説明する。ここでは、例として主要被写体である車と背景被写体である木との境界におけるフィルタの適用方法について説明する。被写体判定部114によって画像における主要被写体の領域と背景被写体の領域がそれぞれ判定されている。しかしながら、主要被写体の領域と背景被写体の領域との境界は必ずしも明確に判定されるとは限らない。また、主要被写体の領域と背景被写体の領域との境界付近で急激に平滑化フィルタが適用されてしまうと、処理後の画像の違和感が大きくなることが考えられる。そこで、本実施形態では、境界付近では平滑化フィルタの効果(フィルタの強度)を主要被写体からの距離に応じて徐々に強めるよう変化させることで画像の違和感を抑制する。例えば図13(a)に示す車と木の境界部に対しては、図13(b)に示すような該当領域のフィルタカーネルに応じた複数(図では4つ)の境界領域(マージン領域)が設けられる。この複数の境界領域では、カーネルサイズ及びフィルタ要素の値が異なる平滑化フィルタがそれぞれ適用される。そして、境界部を超えた木の領域に対しては図12(b)で示した平滑化フィルタが適用される。
図14は、それぞれの境界領域に適用される平滑化フィルタカーネルの構成を示す図である。第1境界領域では、図14(a)に示すように平滑化フィルタのカーネルサイズが3×3に設定される。以降、第2境界領域では図14(b)に示すように5×5、第3境界領域では図14(c)に示すように7×7、第4境界領域では図14(d)に示すように9×9というように主要被写体から離れるに従ってフィルタのカーネルサイズが大きくなる。また、フィルタのカーネルサイズが大きくなるのに従ってフィルタ要素の値も変えていく。これにより被写体から離れるに従ってフィルタの強度が大きくなり、これに伴って平滑化の効果も大きくなる。
図15は、境界領域を設定するための処理を示すフローチャートである。ここでは、主要被写体の領域に対するモルフォロジ演算を用いて各境界領域が設定される。フィルタ適用部122は、処理に必要な変数を初期化する(ステップS301)。具体的には、フィルタ適用部122は、平滑化フィルタの最大サイズを示すFsをフィルタ構成部120で生成された平滑化フィルタのサイズに、主要被写体の領域を膨張させる回数を示すCを1に初期化する。また、フィルタ適用部122は、主要被写体の領域情報Imgにこの領域情報を表す2値画像を設定する。
変数の初期化の後、フィルタ適用部122は、ステップS302からのループ処理を実行する。ループ処理の開始として、フィルタ適用部122は、膨張回数Cがフィルタの最大サイズに基づく値Fs/2−1よりも小さいか否かを判定する(ステップS302)。CがFs/2−1よりも小さい場合、フィルタ適用部122はステップS303以降の処理を実行する。CがFs/2−1以上である場合し、フィルタ適用部122はループ処理を終了させる。図15の例では、Fsが3×3よりも大きい場合にループ処理が実行される。
フィルタ適用部122は、2値画像Imgに対してBinaryのDilation(膨張)演算を実行し、その結果である2値画像Img−Prcを自身が有する画像バッファに記憶させる(ステップS303)。Dilationの構造要素は3×3の8近傍とする。続いて、フィルタ適用部122は、画像バッファに記憶された2値画像Img−prcと2値画像Imgとの差分を算出する(ステップS304)。この差分の算出は、直前のDilation演算で膨張された画素を取り出すために行われる。
続いて、フィルタ適用部122は、差分を算出することで取り出された2値の差分画像をC番目の境界領域を示す情報として記憶する(ステップS305)。その後、フィルタ適用部122は、2値画像Imgを先のDilation演算で生成された2値画像Img−Prcに置換する(ステップS306)。このとき、2値画像Imgは、主要被写体の領域に対するC回の膨張演算画像となる。続いて、フィルタ適用部122は、膨張回数Cをインクリメントし(ステップS307)、ステップS308において処理を戻す。
ループ処理の終了後、フィルタ適用部122は、必要な境界領域情報が得られたと判断し、全ての境界領域を示す情報を統合する(ステップS309)。ここで、図15の処理の場合、境界領域を示す情報は平滑化フィルタの最大サイズに依存する個数分だけ設定される。実際の適用では、全ての境界領域情報が使用されない場合もある。例えば、家と車の境界部の場合、家に関する平滑化フィルタのサイズは7×7なので図14(b)で示した第3境界領域及び第4境界領域は使用されない。
以上説明したように第1の実施形態においては主要被写体の領域や背景被写体の領域毎の動きの大きさに応じて平滑化の程度を変えるようにしている。これにより、手ぶれ等の影響を受けることもなく、図3(a)で示したような主要被写体がぶれなく、背景被写体のみが動いているようにぼけて動きが強調される画像を生成することができる。処理対象の画像に対してのみに平滑化フィルタを適用すればよく、動きぼけを付加するために画像の合成処理等が不要である。
また、本実施形態では、主要被写体の領域や背景被写体の動きを動きベクトルを推定することによって検出するようにしている。一般に、背景の奥行(被写体距離)に応じて画像間の動きベクトルの大きさが変化するので、動きベクトルを推定すれば別途に奥行情報を算出する必要がなくなる。撮影モードに応じて適切に動きベクトルの推定対象の領域を設定することで自然な動きぼけを少ない計算コストで付加することができる。
さらに、本実施形態では、三分割法によって決定される理想的な重心位置に主要被写体の重心位置がある画像を対象画像に決定するようにしている。これにより、撮影者が望む構図の流し撮りや長時間撮影の画像を得ることができる。なお、図8の例では、実際の主要被写体の重心位置から対象画像を決定している。これに加えて、連写動作中に得られる複数の画像の中で主要被写体の領域の大きさを比較して対象画像を決定してもよい。例えば、連写動作中に得られる画像の中で、主要被写体が画面内で大きくなりつつ画面の所定位置に収まっているような構図の画像を対象画像としてよい。このようにして対象画像を決定することで主要被写体の動きの強調効果を大きくすることができる。
(第2の実施形態)
[構成]
図16は、第2の実施形態に係る画像処理方法を用いて画像処理を行う撮像装置の一例の構成を示す図である。図16については、図1と異なる箇所についてのみ説明する。第2の実施形態における動きベクトル推定部118は、被写体の区別をせずに画像をブロックに分割してブロックごとの動きベクトルを推定する。そして、動きベクトル推定部118で推定された動きベクトルは、フィルタ構成部120のみではなく、被写体判定部124にも入力される。被写体判定部124は、動きベクトル推定部から入力された動きベクトルを用いて被写体の判定を行う。図16におけるその他の構成は図1と同様である。
[動作]
次に、本実施形態に係る撮像装置100の動作を説明する。図17は、第2の実施形態における撮像装置100の撮影動作を示すフローチャートである。図17において、第1の実施形態と異なる箇所について説明する。すなわち、図17におけるステップS403及びS404の動作が第1の実施形態と異なっている。ステップS401、S402、S405からS408は図2のステップS101、S102、S104、S106からS108と同様である。
図17において、画像記憶部112に画像が記憶されると、動きベクトル推定部118は、動きベクトルを推定する(ステップS403)。第2の実施形態における動きベクトル推定部118は、主要被写体と背景被写体とを区別せず、画像を単純にブロックに分割した上でブロックごとの動きベクトルを推定する。被写体判定部124は、動きベクトル推定部118で推定された動きベクトルを用いて被写体判定を行う(ステップS404)。主要被写体は必ずしも画像の中央に存在しているわけではないが、画像の周辺部全てに存在するわけでもない。そこで、被写体判定部124は、画像の周辺部に位置するブロックの動きベクトルを用いて背景被写体の動きを推定する。そして、被写体判定部124は、各ブロックについて背景被写体の動きと明らかに異なる箇所を主要被写体として判定する。例えば、撮影モードが流し撮りモードの場合、背景被写体はある程度動きを持つが主要被写体は殆ど動かない又は背景被写体とは異なる動きを表す。また、撮影モードが手持ち長時間撮影モードの場合、背景は殆ど動かない一方で主要被写体が動きを持つ。この状況を踏まえて動きベクトルから被写体を判定する。すなわち、流し撮りモードでは、画像の周辺部の動きのあるブロックは背景被写体と判定される。一方、手持ち長時間撮影モードでは、画像の周辺部の動きのあるブロックは主要被写体と判定される。
被写体判定に関してより具体的に図18から図21を用いて説明する。図18(a)は、画面内における背景被写体としての動きを推定する領域を示す。ここでは画面全体を7×7画素の小領域に分割し、小領域単位で主要被写体と背景被写体を判定する。なお、中央の3×3画素の領域は、主要被写体が存在する可能性がある部分を表す。また、図18(b)は動きベクトルを推定するブロックの構成を示す。ブロックの大きさは、第1の実施形態と同様、例えば5×5画素である。
この条件下において図19のようなシーンで被写体判定を行う場合、撮影モードによって被写体判定の方法を変えるようにする。例えば撮影モードが流し撮りモードの場合、推定される動きベクトルは図20(a)のようになる。このとき、背景被写体の動きが支配的となる。このとき図18(a)の小領域単位で動きベクトルを(例えば小領域内の動きベクトルの平均をとる等により)統合すると図20(b)の状態になる。ここで背景被写体の小領域の半分以上は動きベクトルが存在しており、これらの動きベクトルは方向や大きさにおおきなばらつきがない(逆方向や大きさが極端に違うといったものがない)ことから背景被写体の動きに対応するものとして認識される。すなわちこの背景被写体の動きとは異なる部分が主要被写体として判定されることになる。ここでは主要被写体が存在する可能性がある小領域を含めて連結した小領域群(図20(b)の右下がり対角パターン箇所)を主要被写体領域とする。また撮影モードが手持ち長時間撮影モードの場合、推定される動きベクトルは図21(a)のようになり、背景被写体には動きがない。このとき図18(a)の小領域単位で動きベクトルを統合すると図21(b)の状態になる。ここで背景被写体の小領域の半分以上は動きベクトルが存在しないことから背景被写体に動きはない、すなわち動きが検出される部分が主要被写体として判定されることになる。ここでは主要被写体が存在する可能性がある小領域を含めて連結した小領域群(図21(b)の右下がり対角パターン箇所)を主要被写体領域とする。
なお本実施形態では動き推定領域図18(a)と動きベクトル推定ブロック図18(b)を別々に設定しているが、両者を共用する形をとっても良い。
以上説明したように第2の実施形態においては動きベクトルから主要被写体と背景被写体とを判定するようにしている。これにより、被写体判定部124において画像認識の処理を行う必要がない。なお、画像認識処理を併用して被写体判定が行われてもよい。
(第3の実施形態)
[構成]
図22は、第3の実施形態に係る画像処理方法を用いて画像処理を行う撮像装置の一例の構成を示す図である。図22については、図1と異なる箇所についてのみ説明する。第3の実施形態においては、撮影者が対象画像を選択することが可能である。このため、第3の実施形態の操作部104は、撮影者が対象画像を設定するための操作部材をさらに有する。また、第3の実施形態における撮像装置100は、対象画像の候補を表示するための表示部126も有している。
[動作]
次に、本実施形態に係る撮像装置100の動作を説明する。本実施形態における対象画像決定部116は、対象画像の決定に際し、連写動作によって得られた画像を表示部126に例えばサムネイル表示させる。撮影者は、表示部126に表示された画像を見てどの画像を出力対象にするかを操作部104の操作によって選択する。操作部104の操作を受けて、対象画像決定部116は、選択された画像に関する情報(サムネイル表示であれば選択された画像のインデックス番号等)を取得し、対象画像を決定する。
表示部126に表示される内容の具体例を図23に示す。サムネイル表示として4枚分の画像が1画面に表示されており、各画像にはインデックス番号をオーバーラップで表示している。この他に操作部104によって時間的に前後の画像を表示させたりサムネイル表示枚数を変更させたりすることを可能にする。サムネイル表示の中から対象画像が決定された際には選択された画像のインデックス番号に基づき実際の対象画像が決定される。なお操作部104の操作は表示部126にタッチパネルを内蔵させて画面をタッチすることで実現させるようにしてもよい。
以上説明したように本実施形態によれば、撮影者が望むシーン及び構図を有する画像に対して動きぼけを付加することができる。
以上実施形態に基づいて本発明を説明したが、本発明は上述した実施形態に限定されるものではなく、本発明の要旨の範囲内で種々の変形や応用が可能なことは勿論である。また、前述の各動作フローチャートの説明において、便宜上「まず」、「次に」等を用いて動作を説明しているが、この順で動作を実施することが必須であることを意味するものではない。
また、上述した実施形態における撮像装置による各処理の手法、すなわち、各フローチャートに示す処理は、何れも処理制御部108に実行させることができるプログラムとして記憶される。このプログラムは、メモリカード(ROMカード、RAMカード等)、磁気ディスク(フロッピディスク、ハードディスク等)、光ディスク(CD−ROM、DVD等)、半導体メモリ等の外部記憶装置の記憶媒体に格納して配布することができる。そして、処理制御部108は、この外部記憶装置の記憶媒体に記憶されたプログラムを読み込み、この読み込んだプログラムによって動作が制御されることにより、上述した処理を実行することができる。
さらに、上記した実施形態には種々の段階の発明が含まれており、開示される複数の構成要件の適当な組合せにより種々の発明が抽出され得る。例えば、実施形態に示される全構成要件からいくつかの構成要件が削除されても、上述したような課題を解決でき、上述したような効果が得られる場合には、この構成要件が削除された構成も発明として抽出され得る。
100…撮像装置、102…撮像部、104…操作部、106…撮影条件設定部、108…処理制御部、110…情報記録部、112…画像記憶部、114…被写体判定部、116…対象画像決定部、118…動きベクトル推定部、120…フィルタ構成部、122…フィルタ適用部、124…被写体判定部、126…表示部、1021…レンズ、1022…撮像素子、1023…撮像制御部

Claims (8)

  1. 被写体を連続的に撮像して複数の画像を取得する撮像部と、
    前記取得された複数の画像のそれぞれにおける主要被写体の領域と背景被写体の領域とを判定する被写体判定部と、
    前記取得された複数の画像の中から対象画像を決定する対象画像決定部と、
    前記対象画像と該対象画像が撮像された時刻と時間的に前後する時刻に撮像された画像との間の少なくとも前記背景被写体の領域の動きベクトルを推定する動きベクトル推定部と、
    前記推定された動きベクトルに基づき前記対象画像に適用するフィルタを構成するフィルタ構成部と、
    前記構成されたフィルタを前記対象画像に適用するフィルタ適用部と、
    を具備し、
    前記対象画像決定部は、前記被写体判定部で判定された前記主要被写体の領域の位置と画面の構図に基づいて決定される理想被写体の領域の位置の位置関係に基づいて前記対象画像を決定する画像処理装置。
  2. 前記動きベクトル推定部は、前記取得された複数の画像をそれぞれ複数のブロックに分割し、該ブロックごとに前記画像の間の動きベクトルを推定し、
    前記被写体判定部は、前記推定された動きベクトルに基づいて前記取得された複数の画像のそれぞれにおける主要被写体の領域と背景被写体の領域とを判定する、
    請求項1に記載の画像処理装置。
  3. 前記撮像部は、被写体ぶれが生じない程度に露光時間を短くし、前記露光時間を短くした分だけ感度を高くし、前記感度を高くした分だけノイズ除去処理のノイズ低減レベルを大きくして撮像を実行する請求項1又は2に記載の画像処理装置。
  4. 前記フィルタ適用部は、前記被写体判定部で判定された主要被写体の領域と背景被写体の領域との境界にマージン領域を設け、該マージン領域内でのフィルタの強度を前記主要被写体の領域からの距離が遠くなるに応じて大きくするように前記フィルタを構成する請求項1乃至3の何れか1項に記載の画像処理装置。
  5. 前記被写体判定部は、画像認識により前記主要被写体の領域と前記背景被写体の領域とを判定する請求項1乃至4の何れか1項に記載の画像処理装置。
  6. 前記被写体判定部は、前記取得された画像をそれぞれ中央部の領域と周辺部の領域とに分割し、前記周辺部の領域の動きベクトルに基づいて前記背景被写体の領域と前記主要被写体の領域とを判定する請求項2に記載の画像処理装置。
  7. 被写体を連続的に撮像して複数の画像を取得することと、
    前記取得された複数の画像のそれぞれにおける主要被写体の領域と背景被写体の領域とを判定することと、
    前記取得された複数の画像の中から対象画像を決定することと、
    前記対象画像と該対象画像が撮像された時刻と時間的に前後する時刻に撮像された画像との間の少なくとも前記背景被写体の領域の動きベクトルを推定することと、
    前記推定された動きベクトルに基づき前記対象画像に適用するフィルタを構成することと、
    前記構成されたフィルタを前記対象画像に適用することと、
    を具備し、
    前記対象画像を決定することは、前記判定された前記主要被写体の領域の位置と画面の構図に基づいて決定される理想被写体の領域の位置の位置関係に基づいて前記対象画像を決定することを含む画像処理方法。
  8. 被写体を連続的に撮像して複数の画像を取得する機能と、
    前記取得された複数の画像のそれぞれにおける主要被写体の領域と背景被写体の領域とを判定する機能と、
    前記取得された複数の画像の中から対象画像を決定する機能と、
    前記対象画像と該対象画像が撮像された時刻と時間的に前後する時刻に撮像された画像との間の少なくとも前記背景被写体の領域の動きベクトルを推定する機能と、
    前記推定された動きベクトルに基づき前記対象画像に適用するフィルタを構成する機能と、
    前記構成されたフィルタを前記対象画像に適用する機能と、
    をコンピュータに実現させるための画像処理プログラムであって、
    前記対象画像を決定する機能は、前記判定された前記主要被写体の領域の位置と画面の構図に基づいて決定される理想被写体の領域の位置の位置関係に基づいて前記対象画像を決定することを含む画像処理プログラム
JP2013133100A 2013-06-25 2013-06-25 画像処理装置、画像処理方法及び画像処理プログラム Expired - Fee Related JP6157238B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013133100A JP6157238B2 (ja) 2013-06-25 2013-06-25 画像処理装置、画像処理方法及び画像処理プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013133100A JP6157238B2 (ja) 2013-06-25 2013-06-25 画像処理装置、画像処理方法及び画像処理プログラム

Publications (2)

Publication Number Publication Date
JP2015008428A JP2015008428A (ja) 2015-01-15
JP6157238B2 true JP6157238B2 (ja) 2017-07-05

Family

ID=52338438

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013133100A Expired - Fee Related JP6157238B2 (ja) 2013-06-25 2013-06-25 画像処理装置、画像処理方法及び画像処理プログラム

Country Status (1)

Country Link
JP (1) JP6157238B2 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6598537B2 (ja) * 2015-07-01 2019-10-30 キヤノン株式会社 画像処理装置、撮像装置および画像処理プログラム
KR102280169B1 (ko) 2017-03-06 2021-07-21 삼성전자주식회사 영상을 처리하는 방법 및 장치

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007041570A (ja) * 2005-07-01 2007-02-15 Nikon Corp 電子カメラ
JP2007323458A (ja) * 2006-06-02 2007-12-13 Sony Corp 画像処理装置および画像処理方法
JP2010104005A (ja) * 2009-11-13 2010-05-06 Casio Computer Co Ltd 撮像装置及びそのプログラム
JP5325800B2 (ja) * 2010-01-25 2013-10-23 シャープ株式会社 画像処理装置、画像撮影装置、画像表示装置、およびプログラム
JP2012044564A (ja) * 2010-08-20 2012-03-01 Sanyo Electric Co Ltd 撮像装置
JP2013016924A (ja) * 2011-06-30 2013-01-24 Nikon Corp 画像評価装置
JP5862071B2 (ja) * 2011-06-30 2016-02-16 株式会社ニコン 画像処理装置、撮像装置およびプログラム
JP5673454B2 (ja) * 2011-09-07 2015-02-18 カシオ計算機株式会社 画像処理装置、画像処理方法及びプログラム

Also Published As

Publication number Publication date
JP2015008428A (ja) 2015-01-15

Similar Documents

Publication Publication Date Title
US10015469B2 (en) Image blur based on 3D depth information
JP6288952B2 (ja) 撮像装置およびその制御方法
JP6271990B2 (ja) 画像処理装置、画像処理方法
JP4678603B2 (ja) 撮像装置及び撮像方法
JP6102602B2 (ja) 画像処理装置、画像処理方法、画像処理プログラムおよび撮像装置
CN109565551B (zh) 对齐于参考帧合成图像
JP4582423B2 (ja) 撮像装置、画像処理装置、撮像方法、及び画像処理方法
JP6267502B2 (ja) 撮像装置、撮像装置の制御方法、及び、プログラム
KR101566081B1 (ko) 화상 처리 장치, 화상 처리 방법 및 기억 매체
JP5968073B2 (ja) 画像処理装置、撮像装置、画像処理方法、および画像処理プログラム
US9865064B2 (en) Image processing apparatus, image processing method, and storage medium
JP6319972B2 (ja) 画像処理装置、撮像装置、画像処理方法、およびプログラム
JP6261205B2 (ja) 画像処理装置
US9538074B2 (en) Image processing apparatus, imaging apparatus, and image processing method
JP6320053B2 (ja) 画像処理装置、画像処理方法、及びコンピュータプログラム
JP2010279054A (ja) 撮像装置、画像処理装置、撮像方法、及び画像処理方法
JP6157238B2 (ja) 画像処理装置、画像処理方法及び画像処理プログラム
JP2023033355A (ja) 画像処理装置およびその制御方法
JP2011193066A (ja) 撮像装置
US20150254856A1 (en) Smart moving object capture methods, devices and digital imaging systems including the same
JP6645711B2 (ja) 画像処理装置、画像処理方法、プログラム
JP5935581B2 (ja) 撮像装置、画像処理装置、画像処理方法、画像処理プログラム
JP2015156189A (ja) 画像評価装置、および画像評価プログラム
US11627245B2 (en) Focus adjustment device and focus adjustment method
JP2014138378A (ja) 撮像装置、その制御方法、および制御プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160502

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170207

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170407

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170523

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170606

R151 Written notification of patent or utility model registration

Ref document number: 6157238

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees