JP2015008428A - Image processing apparatus, image processing method, and image processing program - Google Patents
Image processing apparatus, image processing method, and image processing program Download PDFInfo
- Publication number
- JP2015008428A JP2015008428A JP2013133100A JP2013133100A JP2015008428A JP 2015008428 A JP2015008428 A JP 2015008428A JP 2013133100 A JP2013133100 A JP 2013133100A JP 2013133100 A JP2013133100 A JP 2013133100A JP 2015008428 A JP2015008428 A JP 2015008428A
- Authority
- JP
- Japan
- Prior art keywords
- subject
- image
- target image
- filter
- motion vector
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000012545 processing Methods 0.000 title claims abstract description 66
- 238000003672 processing method Methods 0.000 title claims abstract description 14
- 239000013598 vector Substances 0.000 claims abstract description 113
- 238000003384 imaging method Methods 0.000 claims abstract description 65
- 230000035945 sensitivity Effects 0.000 claims description 13
- 230000009467 reduction Effects 0.000 claims description 9
- 230000001965 increasing effect Effects 0.000 claims description 6
- 230000002093 peripheral effect Effects 0.000 claims description 4
- 238000004904 shortening Methods 0.000 claims description 2
- 238000000034 method Methods 0.000 description 48
- 238000004091 panning Methods 0.000 description 31
- 238000009499 grossing Methods 0.000 description 20
- 230000008569 process Effects 0.000 description 18
- 238000003860 storage Methods 0.000 description 18
- 230000005484 gravity Effects 0.000 description 15
- 238000010586 diagram Methods 0.000 description 13
- 230000006870 function Effects 0.000 description 8
- 230000000694 effects Effects 0.000 description 7
- 230000010339 dilation Effects 0.000 description 4
- 238000004886 process control Methods 0.000 description 3
- 238000010276 construction Methods 0.000 description 2
- 238000012937 correction Methods 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 238000012935 Averaging Methods 0.000 description 1
- 241001465754 Metazoa Species 0.000 description 1
- 230000003321 amplification Effects 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 239000000470 constituent Substances 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 230000002708 enhancing effect Effects 0.000 description 1
- 230000004907 flux Effects 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000000877 morphologic effect Effects 0.000 description 1
- 238000003199 nucleic acid amplification method Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000002360 preparation method Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 238000003786 synthesis reaction Methods 0.000 description 1
Images
Landscapes
- Image Processing (AREA)
- Studio Devices (AREA)
- Image Analysis (AREA)
Abstract
Description
本発明は、撮影された複数の画像を用いて被写体の動きを強調する画像処理を施す画像処理装置、画像処置方法及び画像処理プログラムに関する。 The present invention relates to an image processing apparatus, an image processing method, and an image processing program that perform image processing that emphasizes the motion of a subject using a plurality of captured images.
写真撮影の技法の一つとして「流し撮り」が知られている。流し撮りは、被写体の位置が画角に対して固定されるように、撮影者が被写体の動きに合わせてカメラを移動させながら撮影する技法である。流し撮りでは、被写体がぶれずに背景が流れるような効果が生まれることから、被写体のスピード感を強調させた画像を得ることができる。ここで、流し撮りは、通常の撮影よりも長い露光時間で行われることが多い。露光時間が長くなると手ぶれが発生しやすくなる。このため、流し撮りの際に背景だけでなく被写体もぶれてしまうことが多い。 One of the photography techniques is “panning”. Panning is a technique in which a photographer moves a camera in accordance with the movement of a subject so that the position of the subject is fixed with respect to the angle of view. In panning, an effect is produced in which the background flows without blurring the subject, so that an image in which the sense of speed of the subject is emphasized can be obtained. Here, panning is often performed with an exposure time longer than that of normal shooting. As the exposure time becomes longer, camera shake tends to occur. For this reason, the subject as well as the background is often blurred during panning.
流し撮り時の被写体ぶれを抑える手法の1つとして、流し撮り中に発生した手ぶれに応じて撮像素子又はレンズを機械的に移動させることによって被写体のぶれを抑える手法が考えられる。この場合、通常撮影用とは別個に流し撮り用の手ぶれ補正の制御をすることになり、システムが複雑化しやすい。また、機械的な手ぶれ補正が行われた後でなければ被写体ぶれが発生してしまうので、シャッタボタンを押してから撮影が行われるまでにタイムラグが発生する。このため、撮影者が本来撮影したいと考える構図の画像が得られない可能性がある。 As one of the techniques for suppressing subject shake during panning, a technique for suppressing subject blur by mechanically moving an image sensor or a lens in accordance with camera shake occurring during panning is conceivable. In this case, camera shake correction for panning is controlled separately from normal shooting, and the system is likely to be complicated. In addition, subject blur occurs unless mechanical camera shake correction is performed, and thus a time lag occurs between when the shutter button is pressed and when shooting is performed. For this reason, there is a possibility that an image having a composition that the photographer originally wants to shoot cannot be obtained.
流し撮り時の被写体ぶれを抑える別の手法として、特許文献1の手法が提案されている。特許文献1の手法は、露光時間を短時間にすることで被写体のぶれを抑えた画像を得つつ、この画像を被写体領域と背景領域とに分離し、背景領域の画像が流れるように被写体の動きに応じて背景領域にぼかしの画像処理を施す手法である。
As another method for suppressing subject shake during panning, the method of
特許文献1の手法が有効に機能するのは、被写体の動きが撮影画面に対して平行でありかつ背景の物体間と被写体との奥行きの関係が不変である場合に限られる。実際の流し撮りは、被写体の奥行き方向の動き(被写体が撮影者に迫るような動き等)を伴う状況で行われることも多い。このとき、撮影画面上での背景領域の動きは、必ずしも被写体の動きから一意に決まらない。このため、特許文献1のようを背景に対して一律の「動きぼけ」を適用する手法では、実際には起こりえない不自然なぼけが発生する可能性がある。
The technique of
本発明は、前記の事情に鑑みてなされたもので、手持ちによる撮影でも被写体及び背景の動きに対する違和感のない画像を簡単に生成できる画像処理装置、画像処理方法及び画像処理プログラムを提供することを目的とする。 The present invention has been made in view of the above circumstances, and provides an image processing apparatus, an image processing method, and an image processing program that can easily generate an image that does not feel uncomfortable with the movement of the subject and the background even with hand-held shooting. Objective.
前記の目的を達成するために、本発明の第1の態様の画像処理装置は、被写体を連続的に撮像して複数の画像を取得する撮像部と、前記取得された複数の画像のそれぞれにおける主要被写体の領域と背景被写体の領域とを判定する被写体判定部と、前記取得された複数の画像の中から対象画像を決定する対象画像決定部と、前記対象画像と該対象画像が撮像された時刻と時間的に前後する時刻に撮像された画像との間の少なくとも前記背景被写体の領域の動きベクトルを推定する動きベクトル推定部と、前記推定された動きベクトルに基づき前記対象画像に適用するフィルタを構成するフィルタ構成部と、前記構成されたフィルタを前記対象画像に適用するフィルタ適用部とを具備する。 In order to achieve the above object, an image processing apparatus according to a first aspect of the present invention includes an imaging unit that continuously images a subject to acquire a plurality of images, and each of the acquired plurality of images. A subject determination unit that determines a main subject region and a background subject region, a target image determination unit that determines a target image from the plurality of acquired images, and the target image and the target image are captured A motion vector estimation unit that estimates a motion vector of at least the background subject area between a time and an image captured at a time before and after, and a filter that is applied to the target image based on the estimated motion vector And a filter application unit that applies the configured filter to the target image.
前記の目的を達成するために、本発明の第2の態様の画像処理方法は、被写体を連続的に撮像して複数の画像を取得することと、前記取得された複数の画像のそれぞれにおける主要被写体の領域と背景被写体の領域とを判定することと、前記取得された複数の画像の中から対象画像を決定することと、前記対象画像と該対象画像が撮像された時刻と時間的に前後する時刻に撮像された画像との間の少なくとも前記背景被写体の領域の動きベクトルを推定することと、前記推定された動きベクトルに基づき前記対象画像に適用するフィルタを構成することと、前記構成されたフィルタを前記対象画像に適用することとを具備する。 In order to achieve the above object, an image processing method according to a second aspect of the present invention includes acquiring a plurality of images by continuously capturing an image of a subject and performing a main process in each of the acquired plurality of images. Determining a region of the subject and a region of the background subject, determining a target image from the plurality of acquired images, and before and after the time when the target image and the target image were captured Estimating at least a motion vector of the area of the background subject between the image captured at the time to be performed, configuring a filter to be applied to the target image based on the estimated motion vector, and Applying the filter to the target image.
前記の目的を達成するために、本発明の第3の態様の画像処理プログラムは、被写体を連続的に撮像して複数の画像を取得する機能と、前記取得された複数の画像のそれぞれにおける主要被写体の領域と背景被写体の領域とを判定する機能と、前記取得された複数の画像の中から対象画像を決定する機能と、前記対象画像と該対象画像が撮像された時刻と時間的に前後する時刻に撮像された画像との間の少なくとも前記背景被写体の領域の動きベクトルを推定する機能と、前記推定された動きベクトルに基づき前記対象画像に適用するフィルタを構成する機能と、前記構成されたフィルタを前記対象画像に適用する機能とをコンピュータに実現させる。 In order to achieve the above object, an image processing program according to a third aspect of the present invention includes a function of continuously capturing an image of a subject to acquire a plurality of images, and a main function in each of the acquired plurality of images. A function for determining a subject area and a background subject area, a function for determining a target image from the plurality of acquired images, and a time sequence of the target image and the time when the target image was captured A function of estimating at least a motion vector of the area of the background subject between the image captured at the time to perform, a function of configuring a filter to be applied to the target image based on the estimated motion vector, and And a function of applying the filtered filter to the target image.
本発明によれば、手持ちによる撮影でも被写体及び背景の動きに対する違和感のない画像を簡単に生成できる画像処理装置、画像処理方法及び画像処理プログラムを提供することができる。 According to the present invention, it is possible to provide an image processing apparatus, an image processing method, and an image processing program that can easily generate an image that does not give a sense of incongruity to movements of a subject and a background even with hand-held shooting.
以下、図面を参照して本発明の実施形態を説明する。
(第1の実施形態)
[構成]
図1は、第1の実施形態に係る画像処理方法を用いて画像処理を行う画像処理装置の適用例としての撮像装置の一例の構成を示す図である。ここで、図1の実線矢印は、画像の流れを表している。また、図1の破線矢印は、画像以外の制御情報の流れを表している。図1に示す撮像装置100は、撮像部102と、操作部104と、撮影条件設定部106と、処理制御部108と、情報記録部110と、画像記憶部112と、被写体判定部114と、対象画像決定部116と、動きベクトル推定部118と、フィルタ構成部120と、フィルタ適用部122とを有している。
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
(First embodiment)
[Constitution]
FIG. 1 is a diagram illustrating a configuration of an example of an imaging apparatus as an application example of an image processing apparatus that performs image processing using the image processing method according to the first embodiment. Here, the solid line arrow in FIG. 1 represents the flow of an image. Moreover, the broken line arrow of FIG. 1 represents the flow of control information other than an image. An
撮像部102は、レンズ1021と、撮像素子1022と、撮像制御部1023とを有している。レンズ1021は、被写体からの光束を撮像素子1022の像面に結像させる単一又は複数のレンズである。撮像素子1022は、レンズ1021を介して像面に入射した光束を、光電変換によって電気信号(画像信号)に変換する。以下、画像信号を、単に画像と言う。撮像制御部1023は、撮像素子1022の撮像動作を制御する。例えば、撮像制御部1023は、撮像素子1022の露光時間、感度等を制御することによって撮像素子1022の露光量を制御する。また、撮像制御部1023は、撮像素子1022の連写動作を制御する。さらに、撮像制御部1023は、撮像素子1022で得られた画像に対して色復元処理(撮像素子1022が単板カラーフィルタを有している場合のデモザイキング処理等)、ノイズ低減処理、エッジ強調処理等の画像処理を施す。
The
操作部104は、撮像装置100の操作のために撮影者によって操作される操作部材である。操作部104は、ボタンやスイッチ等の操作部材であってもよいし、タッチパネル等の操作部材であってもよい。操作部104の操作により、例えば撮像装置100の撮影モードが選択される。本実施形態における撮影モードは、例えば「流し撮り」モードと「手持ち長時間撮影」モードとを含む。流し撮りモードは、流し撮りのための撮影モードである。手持ち長時間撮影モードは、撮影者による手持ちでの長時間撮影をするための撮影モードである。
The
撮影条件設定部106は、撮影時の撮影条件を設定する。撮影条件は、例えば撮影時の撮像素子1022の露光量に関する条件(例えば、露光時間、感度)と、画像処理に関する条件(例えばノイズ低減処理におけるノイズ低減レベル)と、連写実行時の撮影枚数を含む。これらの撮影条件は、例えば、撮影者が操作部104を操作することによる手動操作に従って設定される。また、撮影条件は、例えば本撮影前のライブビューの際に得られる画像における被写体の明るさに基づいて設定されてもよい。ライブビューは、本撮影前に撮像素子1022を連続駆動させて得られる画像をリアルタイムに表示部に表示させる動作である。
The shooting
処理制御部108は、情報記録部110に記録されたプログラムに従って、撮像装置100の各ブロックを制御する。例えば、処理制御部108は、撮影条件設定部106によって設定された撮影条件に従って撮像制御部1023を制御する。また、処理制御部108は、被写体判定部114の動作の開始を指示する。
The
情報記録部110は、例えばフラッシュROMであり、処理制御部108によって実行されるプログラムや画像処理に必要なパラメータ等を記録している。画像記憶部112は、例えばRAMであり、撮像部102で得られた画像を記憶する。画像記憶部112に記憶された画像は、被写体判定部114からの指示に応じて読み出される。
The
被写体判定部114は、画像記憶部112に記憶された画像における主要被写体の領域と背景被写体の領域とをそれぞれ判定し、主要被写体及び背景被写体の領域情報を表す被写体/背景領域情報(例えば主要被写体の領域と背景被写体の領域とを分けた2値画像)を生成する。対象画像決定部116は、被写体判定部114からの被写体/背景領域情報に従って、連写動作によって得られた複数の画像のうち、フィルタ適用部122においてフィルタが適用される対象である対象画像を決定する。動きベクトル推定部118は、連写動作によって得られた複数の画像間での被写体の動きベクトルを推定する。フィルタ構成部120は、動きベクトル推定部118で推定された動きベクトルに基づき、画像に動きぼけを与えるためのフィルタを構成する。フィルタ適用部122は、フィルタ構成部120で構成されたフィルタを対象画像に対して適用する。
The
[動作]
次に、本実施形態に係る撮像装置100の動作を説明する。図2は、第1の実施形態における撮像装置100の撮影動作を示すフローチャートである。図2において、撮影条件設定部106は、撮影時の撮影条件を設定する(ステップS101)。撮影条件は、例えば撮影モードに応じて設定される。撮影モードの選択は、例えば撮影者による操作部104の操作によってなされる。以下では、流し撮りモードと手持ち長時間撮影モードの何れかが選択されたとする。撮影モードが選択されると、選択された撮影モードの情報は、撮影条件設定部106に入力される。撮影条件設定部106は、入力された撮影モードの情報に応じて撮影条件を設定する。ステップS101においては、撮像条件として、撮影枚数、露光時間、感度、ノイズ低減レベル等が設定される。撮影条件の設定の詳細については後で説明する。
[Operation]
Next, the operation of the
撮影条件が設定されると、処理制御部108は、撮像制御部1023を制御して撮影動作を実行する(ステップS102)。撮影者は、撮影モードが流し撮りであれば、動いている被写体を追従するように撮像装置100を動かしながら撮影を行う。また、撮影者は、撮影モードが手持ち長時間撮影であれば撮像装置100を手持ちで固定して撮影を行う。撮影時の開始後、処理制御部108は、ステップS101で設定された撮影条件でそれぞれの撮影が行われるように撮像制御部1023を制御する。撮像制御部1023は、設定された露光時間及び感度で撮像素子1022による撮像動作を撮影枚数分だけ実行させる。そして、撮像制御部1023は、各撮像動作で得られた画像に対して画像処理を施し、画像処理が施された画像を画像記憶部112に記憶させる。ここで、画像処理におけるノイズ低減レベルは、撮影条件として設定されたものが用いられる。設定された撮影枚数分の画像を画像記憶部112へ記憶させた後、撮像制御部1023は、撮影完了の情報を処理制御部108に入力する。
When the shooting condition is set, the
撮影完了の情報が入力されると、処理制御部108は、被写体判定部114に処理開始の指示を出すとともに撮影モードの情報を入力する。処理開始の指示を受けて、被写体判定部114は、画像記憶部112に記憶された各画像における被写体判定を行う(ステップS103)。被写体判定部114は、画像記憶部112に画像の取り出しの指示を出す。画像記憶部112は、指示を受け取ると、連写動作に従って記憶された複数の画像を1つずつ取り出して被写体判定部114に入力する。画像の入力を受けて、被写体判定部114は、入力された画像における主要被写体の領域と背景被写体の領域とをそれぞれ判定し、主要被写体及び背景被写体の領域情報を表す被写体/背景領域情報を生成する。また、被写体判定部114は、撮影モードの情報に基づいて動き推定対象領域情報を生成し、生成した動き推定対象領域情報を被写体/背景領域情報に付加する。動き推定対象領域情報は、動きベクトルの推定及びフィルタの適用に際し、主要被写体の領域と背景被写体の領域のどちらを使用するかを示す情報である。動き推定対象領域の情報としては、例えば撮影モードの情報を用いることが可能である。
When shooting completion information is input, the
画像記憶部112に記憶された全ての画像についての被写体判定が完了すると、被写体判定部114は、入力された各画像と各画像に対応付けられた被写体/背景領域情報を対象画像決定部116と動きベクトル推定部118とに送る。対象画像決定部116は、各画像の被写体/背景領域情報を解析し、入力された画像の中から、フィルタの適用対象とする対象画像を決定し、決定した対象画像を動きベクトル推定部118とフィルタ適用部122とに送る(ステップS104)。対象画像の決定手法の詳細については後で説明する。
When the subject determination for all the images stored in the
動きベクトル推定部118は、動き推定対象領域の情報に基づいて、対象画像決定部116から入力された対象画像と対象画像の撮影時刻に時間的に前後する撮影時刻を有する画像との間の被写体の動きベクトルを推定し、推定した動きベクトルをフィルタ構成部120に入力する(ステップS105)。例えば、流し撮りモードの場合は、撮影者は、動いている主要被写体に対して撮像装置100を追従させるよう動かす。したがって、画像上で見ると、主要被写体はほぼ静止しており、背景被写体は動いていると考えられる。静止している被写体に対しては動きぼけを付加する必要はない。したがって、流し撮りモードの場合には、背景被写体の領域の動きベクトルが推定されていればよい。勿論、主要被写体の領域の動きベクトルのほうも推定されてよい。一方、手持ち長時間撮影モードの場合、撮影者は、撮像装置100を手持ちで固定する。この場合、画像上で見ると、主要被写体は動く可能性があり、背景被写体は通常は固定されていると考えられる。したがって、手持ち長時間撮影モードの場合には、主要被写体の領域の動きベクトルが推定されていればよい。勿論、背景被写体の領域の動きベクトルのほうも推定されてよい。また、動きベクトルの推定単位は、画素単位又は複数の近接する画素で構成されるブロック単位(例えば5×5画素等)である。このような動きベクトル推定の詳細については後で説明する。
The motion
動きベクトルが入力されると、フィルタ構成部120は、動きベクトルに応じてフィルタを構成し、構成したフィルタの情報をフィルタ適用部122に入力する(ステップS106)。フィルタ構成部120で構成されるフィルタは、動きベクトル(方向及び大きさ)に応じて画像に平滑化をかける平滑化フィルタである。フィルタは、動きベクトルの推定単位で持たせるようにする。したがって、動きベクトルが推定されていない領域には、フィルタは構成されない。フィルタを構成する処理の詳細については後で詳しく説明する。
When the motion vector is input, the
フィルタの情報が入力されると、フィルタ適用部122は、対象画像決定部116で決定された対象画像に対してフィルタ処理(動きぼけ付加)を行う(ステップS107)。そして、フィルタ適用部122は、フィルタ処理後の画像を出力デバイスに出力する(ステップS108)。出力デバイスとは、例えば画像の表示のためのデバイスであるディスプレイや画像の記録のためのデバイスであるメモリカードである。
When the filter information is input, the
[連写動作]
撮影条件の設定及び連写動作についてさらに説明する。図3は、流し撮りによって得られる画像の例を示す図である。図3(a)は、理想的な流し撮りによって得られる画像である。主要被写体は手前の車、背景被写体は奥にある木や建物である。流し撮りでは、動いている主要被写体を追従するように撮像装置100が動かされながら撮影が行われる。ここで、理想的な流し撮りでは、露光中に動いている主要被写体が画像上で静止している。このため、画像上では主要被写体以外の背景被写体が動きによりぼけた状態になる。しかしながら、理想的な流し撮りは熟練した技術をもたない撮影者には困難である。特に、撮影者による手持ちでの流し撮りでは、手ぶれが起きやすい。手ぶれが起きてしまうと、図3(b)に示すように本来はぶれてほしくない主要被写体もぶれてしまう。
[Continuous shooting]
The setting of shooting conditions and the continuous shooting operation will be further described. FIG. 3 is a diagram illustrating an example of an image obtained by panning. FIG. 3A shows an image obtained by ideal panning. The main subject is the car in front, and the background subject is a tree or building in the back. In panning, shooting is performed while the
本実施形態では、図4に示すようにScene1、Scene2、Scene3と連続的に短時間の露光を繰り返して画像を得る。これにより手持ち撮影でも、動いている主要被写体のぶれを大幅に抑制できる。一方で、露光時間を短くした場合、背景被写体の動きが感じられなくなってしまう。背景被写体に関しては、動きベクトルに応じた平滑化を適用することによってぼけを付加する。この処理がステップS107の処理である。
In the present embodiment, as shown in FIG. 4, images are obtained by repeating short-time exposure continuously with
また、露光時間を短くした場合、画像が暗くなる。画像の明るさを適正なものとする手法の1つとして、撮像素子1022の感度(撮像素子1022で得られる信号の増幅率)を上げる手法が考えられる。ただし、撮像素子1022の感度を上げると画像におけるノイズが目立つようになってしまう。そこで、感度に応じてノイズ低減処理におけるノイズ低減レベルを高めることにより、画像におけるノイズを低減する。
Further, when the exposure time is shortened, the image becomes dark. As one of the techniques for making the brightness of the image appropriate, a technique for increasing the sensitivity of the image sensor 1022 (amplification factor of a signal obtained by the image sensor 1022) is conceivable. However, when the sensitivity of the
連写動作の撮影条件が自動で設定される場合、ぶれを抑制するために、連写動作における1回の露光時間tは極力短く設定される。好ましくは、露光時間は、手ぶれ限界と言われる時間よりも短く設定される。手ぶれ限界は、手ぶれを起こさない限界とされる露光時間の目安であり、1/(レンズの焦点距離(mm))秒である。この場合レンズの焦点距離は35mmフィルム換算で定義される。ここで、主要被写体の明るさを撮像装置100に設定されている適正な明るさとするために必要な露光時間Tは、レンズの絞りを固定とすると周知の自動露光量(AE)演算によって算出される。したがって、撮影枚数Nは(T/t)枚である。しかし1回の露光時間がtであると、明るさが不足する。この明るさの不足は、感度を上げることによって補われる。すなわち、感度は、(T/t)倍=N倍に設定される。また、ノイズ低減レベルは感度の上昇に応じて設定される。これにより、理想的には、主要被写体の明るさが適正な明るさを有する画像をN枚分得ることができる。なお、撮影条件は、撮影者による手動操作によって設定されてもよい。
When the shooting conditions for the continuous shooting operation are automatically set, in order to suppress blurring, the single exposure time t in the continuous shooting operation is set as short as possible. Preferably, the exposure time is set shorter than the time referred to as a camera shake limit. The camera shake limit is a measure of the exposure time that is the limit at which camera shake does not occur, and is 1 / (lens focal length (mm)) second. In this case, the focal length of the lens is defined in terms of 35 mm film. Here, the exposure time T necessary for setting the brightness of the main subject to an appropriate brightness set in the
[被写体判定方法]
被写体判定の方法についてさらに説明する。図5は、ステップS103の被写体判定の概要を示す図である。本実施形態では、撮像部102の連写動作によって画像記憶部112に記憶されている一連の画像のそれぞれについて主要被写体と主要被写体以外(背景被写体)とが判定される。判定には、例えば周知の画像認識手法が用いられる。このために、事前に動きを伴うオブジェクト(乗り物、人物、動物等)の画像特徴量が情報記録部110に登録されている。判定の際には、連写動作によって得られた各画像から画像特徴量が算出され、この算出した特徴量が予め定めた判定ルールに基づいて各オブジェクトの画像特徴量と比較される。そして、画像特徴量が最も類似しているオブジェクトが画像内の被写体であると判定され、各被写体の領域を示す2値画像が被写体/背景領域情報となる。ここで、情報記録部110に登録する画像特徴量は、学習によって逐次更新されるようにしてよい。
[Subject judgment method]
The subject determination method will be further described. FIG. 5 is a diagram showing an outline of subject determination in step S103. In the present embodiment, the main subject and other than the main subject (background subject) are determined for each of a series of images stored in the
図5は、連写動作により得られた複数の画像(Scene1〜Scene3の3枚)のそれぞれに対して主要被写体である車(Car)の領域と背景被写体である木(Tree)及び家(House)の領域が認識された例を表している。また、図5は、認識された被写体が主要被写体(main)か背景被写体(back)かが示されている。ここで、主要被写体は、前方に位置している(他の被写体によって隠されていない)又は画像認識における動きを伴うオブジェクトである等の条件に一致するものが採用される。また、本実施形態では、「主要被写体」と「背景被写体」とが区別できればよいので、図5の木(Tree)や家(House)が「背景被写体」として一つの領域とみなしてもよい。この場合において、例えば画像における最も前方の被写体を主要被写体とし、その他を背景被写体とするという簡易的な被写体判定であれば、詳細な画像認識手法を用いなくてもよい。
FIG. 5 shows the area of the car (Car) that is the main subject, the tree (Tree) that is the background subject, and the house (House) for each of a plurality of images (
図5に示す画像は、短時間の露光時間かつ高感度でノイズが低減されて得られた画像である。したがって、撮像装置100や主要被写体の動きによる被写体ぶれの影響が極力抑えられている。故に、被写体ぶれに影響されることがなく、高精度の被写体判定が行われる。
The image shown in FIG. 5 is an image obtained by reducing noise with a short exposure time and high sensitivity. Therefore, the influence of subject blurring due to the movement of the
[対象画像決定方法]
対象画像の決定方法についてさらに説明する。図6は、ステップS104の対象画像決定の処理を示すフローチャートである。図6の例は、画面の構図を決定する際に用いられる三分割法に基づき主要被写体が画面上の理想位置に最も近い位置に存在している画像を対象画像とする例である。
[Target image determination method]
The method for determining the target image will be further described. FIG. 6 is a flowchart showing the target image determination process in step S104. The example of FIG. 6 is an example in which the target image is an image in which the main subject is present at a position closest to the ideal position on the screen based on the three-division method used when determining the composition of the screen.
図6において、対象画像決定部116は、処理に必要な変数を初期化する(ステップS201)。具体的には、対象画像決定部116は、処理対象の画像枚数を示すNを画像記憶部112に記憶されている画像の枚数(撮影枚数と一致)に、画像の参照順序をカウントするための画像参照カウンタCを1に、対象画像決定時の基準となる最小重心距離を画像サイズ(画素単位で計算上算出されない大きな値として)に、対象画像となる画像の順番を表す対象画像番号Pを0にそれぞれ初期化する。
In FIG. 6, the target
変数の初期化の後、対象画像決定部116は、ステップS202からのループ処理を実行する。ループ処理の開始として、対象画像決定部116は、順序がC番目の画像及びC番目の画像に対応付けられた被写体/背景領域情報を読み出す(ステップS202)。続いて、対象画像決定部116は、被写体/背景領域情報から、主要被写体の領域における重心位置を算出する(ステップS203)。重心位置は、例えば画像の画素単位で算出される。
After the initialization of the variable, the target
その後、対象画像決定部116は、算出した重心位置と予め設定されている複数の理想被写体重心位置との距離をそれぞれ算出する。そして、対象画像決定部116は、算出した距離の中で最小となるものをC番目の画像に対応した重心距離とする(ステップS204)。続いて、対象画像決定部116は、C番目の画像に対応した重心距離が最小重心距離よりも短いか否かを判定する(ステップS205)。C番目の画像に対応した重心距離が最小重心距離以上である場合、対象画像決定部116は、最小重心距離の置き換えを行わない。一方、C番目の画像に対応した重心距離が最小重心距離よりも短い場合、対象画像決定部116は、最小重心距離をC番目の画像に対応した重心距離に置き換える。また、対象画像決定部116は、対象画像番号Pに現在の画像参照カウンタCの値を設定する(ステップS206)。そして、対象画像決定部116は、次の順序の画像を読み出す準備として、画像参照カウンタCをインクリメントする(ステップS207)。
Thereafter, the target
ループ処理の終了判定として、対象画像決定部116は、画像参照カウンタCが処理対象の画像枚数Nより大きいか否かを判定する(ステップS208)。画像参照カウンタCが処理対象の画像枚数Nよりも大きい場合、対象画像決定部116は、ループ処理を終了させる。画像参照カウンタCが処理対象の画像枚数N以下の場合、対象画像決定部116は、ループ処理の開始であるステップS202に処理を移す。
As the end determination of the loop processing, the target
ループ処理を終了させた後、対象画像決定部116は、最小重心距離に対応したP番目の画像を処理の対象画像に決定する(ステップ209)。
After completing the loop process, the target
図7は、三分割法による理想被写体重心位置を表す図である。三分割法の場合、画面を3×3に等分割するグリッドラインが設定される。理想被写体重心位置G0は、グリッドラインが交差している4点である。したがって、主要被写体の領域の重心位置との距離は4点の理想被写体重心位置分だけ算出され、このうち最小となるものがステップS204のC番目の重心距離である。 FIG. 7 is a diagram showing the ideal subject gravity center position by the three-division method. In the case of the three-division method, grid lines that equally divide the screen into 3 × 3 are set. The ideal subject center-of-gravity position G0 is the four points where the grid lines intersect. Accordingly, the distance from the center of gravity of the area of the main subject is calculated for the four ideal subject center of gravity positions, and the smallest of these is the C-th center of gravity distance in step S204.
図8は、連写動作によって得られた3画像(Scene1、Scene2、Scene3)に対して算出される実際の主要被写体の領域から算出される重心位置G1と理想被写体重心位置G0との関係を示す図である。図8の例において、各画像の重心距離を比較すると、Scene2の画像がG0とG1との距離が最も小さくなる。したがって、Scene2の画像が対象画像として決定される。 FIG. 8 shows the relationship between the gravity center position G1 calculated from the actual main subject area calculated for the three images (Scene1, Scene2, Scene3) obtained by the continuous shooting operation and the ideal subject gravity center position G0. FIG. In the example of FIG. 8, when the gravity center distances of the images are compared, the distance between G0 and G1 is the smallest for the image of Scene2. Therefore, the image of Scene2 is determined as the target image.
[動きベクトル推定]
動きベクトル推定についてさらに説明する。図9(a)は、動きベクトル推定部118で設定される動き推定対象のブロックを示す図である。動き推定対象のブロックは、被写体/背景領域情報に付加された動き推定対象領域情報(例えば、撮影モードの情報)に従って設定される。例えば、撮影モードが流し撮りモードの場合、動き推定対象は背景被写体の領域である。したがって、図9(a)に示すように、Scene2の画像における主要被写体の領域(図9(a)のmain)以外の背景被写体の領域に対し動きベクトルの推定単位(正方サイズのブロック;例えば5×5画素)が定義される。図9(b)は、動きベクトル推定単位ブロックを実際の画像(Scene2)に重ねて示した図である。図9(b)で示す主要被写体の領域(図9(b)のmain)以外の各ブロックについて動きベクトルが推定される。動きベクトルは、対象画像である画像Scene2の撮影時刻よりも時間的に1つ前の撮影時刻に撮影された画像(Scene1)との間での背景被写体の画像上での移動方向及び移動量である。すなわち、Scene1の画像における背景被写体がScene2の画像のどの領域に存在しているかをパターンマッチング等の手法を用いて探索することによって両画像の間の背景被写体の領域の動きベクトルを推定することができる。
[Motion vector estimation]
The motion vector estimation will be further described. FIG. 9A is a diagram illustrating a motion estimation target block set by the motion
なお、動きベクトルの推定には、対象画像が撮影された時刻より1つ前の時刻に撮影された画像が最低限必要である。一方で、主要被写体により背景被写体の一部が隠されてしまうことで、対応する背景被写体が探索できずに動きベクトルを推定できない可能性がある。したがって、背景全体についての動きベクトルが推定できるよう、他の時刻の画像、例えば対象画像の撮影時刻よりも1つ後の時刻に撮影された画像(Scene3)、対象画像の撮影時刻の前の前の撮影時刻に撮影された画像、対象画像の撮影時刻の後の後の撮影時刻に撮影された画像をも使うようにしてよい。多くの画像を使用することで上述の隠れによる影響やノイズ起因による、信頼性の低い動きベクトルを除去することができる。 For estimation of the motion vector, an image taken at the time one time before the time when the target image was taken is at least required. On the other hand, since a part of the background subject is hidden by the main subject, there is a possibility that the corresponding background subject cannot be searched and the motion vector cannot be estimated. Therefore, in order to be able to estimate the motion vector for the entire background, an image taken at another time, for example, an image taken at a time immediately after the shooting time of the target image (Scene 3), before the shooting time of the target image. Alternatively, an image taken at the shooting time and an image taken at a shooting time after the shooting time of the target image may be used. By using a large number of images, it is possible to remove motion vectors with low reliability due to the effects of the above-described hiding and noise.
[動きベクトルからのフィルタ構成方法]
動きベクトルからのフィルタ構成方法についてさらに説明する。例として、図10に示すようにして動きベクトルが推定されたものとする。このとき、背景被写体である家(back1)の一部分(ブロック)と木(back2)の一部分に着目する。なお、図10の例では、撮影者からの距離は、木より家の方が離れているものとする。ここで、撮影者は、画面内を右から左に移動する車(主要被写体)を流し撮りしようとして撮像装置100をパンニングさせたとする。一般に、撮像装置100の動きに対する画像上での背景被写体の動きは、距離が近い被写体ほど大きく、距離が遠い被写体ほど小さくなることが知られている。したがって、図10の例では、家のブロックの動きベクトルの大きさは、木のブロックの動きベクトルの大きさに比べて小さい。また、画面上部にある家のブロックの動きベクトルの方向は右下方向と推定され、画面下部にある木のブロックの動きベクトルの方向は右上方向と推定される。結果として、図10では家のブロックBL1の動きベクトルはV1となり、木のブロックBL2の動きベクトルはV2となる。
[Filter construction method from motion vectors]
A filter construction method from motion vectors will be further described. As an example, assume that a motion vector is estimated as shown in FIG. At this time, attention is paid to a part (block) of the house (back1) and a part of the tree (back2) which are background subjects. In the example of FIG. 10, the distance from the photographer is assumed to be farther away from the house than from the tree. Here, it is assumed that the photographer pans the
図10のようにして得られた動きベクトルを用いて動きぼけを表す平滑化フィルタが構成される。具体的には、動きベクトルの始点を中心とし、動きベクトルの大きさに合わせる形でフィルタのカーネルサイズが決定される。例えば、図11(a)に示すように、家のブロックBL1の動きベクトルが右方向に3ブロック、下方向に1ブロックのベクトルであるとすると、家に対して適用するフィルタのカーネルサイズはブロック数が大きい方向(右方向)のブロック数(3)に基づき7×7(=3+3+1)に決定される。また、図11(b)に示すように、木のブロックBL2の動きベクトルが右方向に5ブロック、上方向に1ブロックのベクトルであるとすると、木に対して適用するフィルタのカーネルサイズはブロック数が大きい方向(右方向)のブロック数(5)に基づき11×11(=5+5+1)に決定される。 A smoothing filter representing motion blur is configured using the motion vector obtained as shown in FIG. Specifically, the kernel size of the filter is determined so as to match the magnitude of the motion vector with the start point of the motion vector as the center. For example, as shown in FIG. 11A, if the motion vector of the house block BL1 is a vector of 3 blocks in the right direction and 1 block in the downward direction, the kernel size of the filter applied to the house is a block. 7 × 7 (= 3 + 3 + 1) is determined based on the number of blocks (3) in the larger direction (right direction). Further, as shown in FIG. 11B, if the motion vector of the tree block BL2 is a vector of 5 blocks in the right direction and 1 block in the upward direction, the kernel size of the filter applied to the tree is the block size. The number is determined to be 11 × 11 (= 5 + 5 + 1) based on the number of blocks (5) in the larger direction (right direction).
フィルタのカーネルサイズが決定したところで動きベクトルが合わせられ、動きベクトルがかかる画素に対してフィルタ要素を持たせるような平滑化フィルタが構成される。図12(a)に示すように、家のブロックBL1に対して適用されるフィルタについては、中心を含んで右下方向の4画素にフィルタ要素を持たせる。また、図12(b)に示すように、木のブロックBL2に対して適用されるフィルタについては、中心を含んで右上方向の6画素にフィルタ要素を持たせる。平滑化フィルタであるので、総数が1となるようにフィルタ要素が構成される。すなわち、家のブロックBL1に対して適用されるフィルタのフィルタ要素は1/4であり、木のブロックBL2に対して適用されるフィルタのフィルタ要素は1/6である。このようにして構成されたフィルタがブロック内の画素に関するフィルタである。同様の方法を用いて、動きベクトルが推定された全てのブロックに対してフィルタが構成される。これにより、平滑化は、フィルタ要素の配列方向と中心対称の方向について効果を与える。すなわち、家のブロックBL1についてフィルタが適用された場合、左上に動いているような動きぼけが付加される。また、木のブロックBL2についてフィルタが適用された場合、左下に動いているような動きぼけが付加される。 When the kernel size of the filter is determined, the motion vectors are combined, and a smoothing filter is configured so as to have a filter element for the pixels to which the motion vector is applied. As shown in FIG. 12A, the filter applied to the house block BL1 is provided with filter elements in the four pixels in the lower right direction including the center. Also, as shown in FIG. 12B, the filter applied to the block BL2 of the tree is provided with filter elements in the six pixels in the upper right direction including the center. Since it is a smoothing filter, the filter elements are configured so that the total number is 1. That is, the filter element of the filter applied to the house block BL1 is 1/4, and the filter element of the filter applied to the tree block BL2 is 1/6. The filter configured in this way is a filter related to the pixels in the block. Using a similar method, filters are constructed for all blocks for which motion vectors have been estimated. As a result, the smoothing has an effect on the direction of center symmetry with the arrangement direction of the filter elements. That is, when the filter is applied to the house block BL1, motion blur that moves to the upper left is added. Further, when the filter is applied to the block BL2 of the tree, motion blur that moves to the lower left is added.
ここで、図12の例では、複数の画素に対して一律に平滑化がかかるようにフィルタ要素が決められている。これに対し、注目画素に重みをおいた平滑化がかかるようにフィルタ要素が決定されてもよい。この場合、中央から離れるに従ってフィルタ要素の値を小さくする。このようなフィルタが適用された場合、元のパターンがある程度見える形で動いているような動きぼけが付加される。このような動きぼけにより、被写体の動きが強調される。 Here, in the example of FIG. 12, the filter elements are determined so that smoothing is uniformly applied to a plurality of pixels. On the other hand, the filter element may be determined so as to apply the weighting to the target pixel. In this case, the value of the filter element is decreased as the distance from the center increases. When such a filter is applied, motion blur is added so that the original pattern moves to a certain degree. Such motion blur enhances the motion of the subject.
[フィルタ適用方法]
フィルタの適用方法についてさらに説明する。ここでは、例として主要被写体である車と背景被写体である木との境界におけるフィルタの適用方法について説明する。被写体判定部114によって画像における主要被写体の領域と背景被写体の領域がそれぞれ判定されている。しかしながら、主要被写体の領域と背景被写体の領域との境界は必ずしも明確に判定されるとは限らない。また、主要被写体の領域と背景被写体の領域との境界付近で急激に平滑化フィルタが適用されてしまうと、処理後の画像の違和感が大きくなることが考えられる。そこで、本実施形態では、境界付近では平滑化フィルタの効果(フィルタの強度)を主要被写体からの距離に応じて徐々に強めるよう変化させることで画像の違和感を抑制する。例えば図13(a)に示す車と木の境界部に対しては、図13(b)に示すような該当領域のフィルタカーネルに応じた複数(図では4つ)の境界領域(マージン領域)が設けられる。この複数の境界領域では、カーネルサイズ及びフィルタ要素の値が異なる平滑化フィルタがそれぞれ適用される。そして、境界部を超えた木の領域に対しては図12(b)で示した平滑化フィルタが適用される。
[Filter application method]
A method for applying the filter will be further described. Here, as an example, a method of applying a filter at the boundary between a car that is a main subject and a tree that is a background subject will be described. The
図14は、それぞれの境界領域に適用される平滑化フィルタカーネルの構成を示す図である。第1境界領域では、図14(a)に示すように平滑化フィルタのカーネルサイズが3×3に設定される。以降、第2境界領域では図14(b)に示すように5×5、第3境界領域では図14(c)に示すように7×7、第4境界領域では図14(d)に示すように9×9というように主要被写体から離れるに従ってフィルタのカーネルサイズが大きくなる。また、フィルタのカーネルサイズが大きくなるのに従ってフィルタ要素の値も変えていく。これにより被写体から離れるに従ってフィルタの強度が大きくなり、これに伴って平滑化の効果も大きくなる。 FIG. 14 is a diagram illustrating a configuration of a smoothing filter kernel applied to each boundary region. In the first boundary region, the kernel size of the smoothing filter is set to 3 × 3 as shown in FIG. Thereafter, the second boundary region is 5 × 5 as shown in FIG. 14B, the third boundary region is 7 × 7 as shown in FIG. 14C, and the fourth boundary region is shown in FIG. 14D. Thus, the kernel size of the filter increases as the distance from the main subject increases, such as 9 × 9. Also, the filter element value is changed as the filter kernel size increases. As a result, the strength of the filter increases as the distance from the subject increases, and the smoothing effect increases accordingly.
図15は、境界領域を設定するための処理を示すフローチャートである。ここでは、主要被写体の領域に対するモルフォロジ演算を用いて各境界領域が設定される。フィルタ適用部122は、処理に必要な変数を初期化する(ステップS301)。具体的には、フィルタ適用部122は、平滑化フィルタの最大サイズを示すFsをフィルタ構成部120で生成された平滑化フィルタのサイズに、主要被写体の領域を膨張させる回数を示すCを1に初期化する。また、フィルタ適用部122は、主要被写体の領域情報Imgにこの領域情報を表す2値画像を設定する。
FIG. 15 is a flowchart showing a process for setting a boundary region. Here, each boundary region is set using a morphological operation on the region of the main subject. The
変数の初期化の後、フィルタ適用部122は、ステップS302からのループ処理を実行する。ループ処理の開始として、フィルタ適用部122は、膨張回数Cがフィルタの最大サイズに基づく値Fs/2−1よりも小さいか否かを判定する(ステップS302)。CがFs/2−1よりも小さい場合、フィルタ適用部122はステップS303以降の処理を実行する。CがFs/2−1以上である場合し、フィルタ適用部122はループ処理を終了させる。図15の例では、Fsが3×3よりも大きい場合にループ処理が実行される。
After the variable initialization, the
フィルタ適用部122は、2値画像Imgに対してBinaryのDilation(膨張)演算を実行し、その結果である2値画像Img−Prcを自身が有する画像バッファに記憶させる(ステップS303)。Dilationの構造要素は3×3の8近傍とする。続いて、フィルタ適用部122は、画像バッファに記憶された2値画像Img−prcと2値画像Imgとの差分を算出する(ステップS304)。この差分の算出は、直前のDilation演算で膨張された画素を取り出すために行われる。
The
続いて、フィルタ適用部122は、差分を算出することで取り出された2値の差分画像をC番目の境界領域を示す情報として記憶する(ステップS305)。その後、フィルタ適用部122は、2値画像Imgを先のDilation演算で生成された2値画像Img−Prcに置換する(ステップS306)。このとき、2値画像Imgは、主要被写体の領域に対するC回の膨張演算画像となる。続いて、フィルタ適用部122は、膨張回数Cをインクリメントし(ステップS307)、ステップS308において処理を戻す。
Subsequently, the
ループ処理の終了後、フィルタ適用部122は、必要な境界領域情報が得られたと判断し、全ての境界領域を示す情報を統合する(ステップS309)。ここで、図15の処理の場合、境界領域を示す情報は平滑化フィルタの最大サイズに依存する個数分だけ設定される。実際の適用では、全ての境界領域情報が使用されない場合もある。例えば、家と車の境界部の場合、家に関する平滑化フィルタのサイズは7×7なので図14(b)で示した第3境界領域及び第4境界領域は使用されない。
After the end of the loop processing, the
以上説明したように第1の実施形態においては主要被写体の領域や背景被写体の領域毎の動きの大きさに応じて平滑化の程度を変えるようにしている。これにより、手ぶれ等の影響を受けることもなく、図3(a)で示したような主要被写体がぶれなく、背景被写体のみが動いているようにぼけて動きが強調される画像を生成することができる。処理対象の画像に対してのみに平滑化フィルタを適用すればよく、動きぼけを付加するために画像の合成処理等が不要である。 As described above, in the first embodiment, the degree of smoothing is changed in accordance with the magnitude of movement for each of the main subject area and the background subject area. As a result, it is possible to generate an image that is not affected by camera shake and the like, and the main subject as shown in FIG. Can do. A smoothing filter may be applied only to the image to be processed, and no image synthesis processing or the like is required to add motion blur.
また、本実施形態では、主要被写体の領域や背景被写体の動きを動きベクトルを推定することによって検出するようにしている。一般に、背景の奥行(被写体距離)に応じて画像間の動きベクトルの大きさが変化するので、動きベクトルを推定すれば別途に奥行情報を算出する必要がなくなる。撮影モードに応じて適切に動きベクトルの推定対象の領域を設定することで自然な動きぼけを少ない計算コストで付加することができる。 In this embodiment, the motion of the main subject area and the background subject is detected by estimating the motion vector. In general, since the magnitude of the motion vector between images changes according to the depth of the background (subject distance), if the motion vector is estimated, there is no need to separately calculate depth information. By appropriately setting the motion vector estimation target region according to the shooting mode, natural motion blur can be added with low calculation cost.
さらに、本実施形態では、三分割法によって決定される理想的な重心位置に主要被写体の重心位置がある画像を対象画像に決定するようにしている。これにより、撮影者が望む構図の流し撮りや長時間撮影の画像を得ることができる。なお、図8の例では、実際の主要被写体の重心位置から対象画像を決定している。これに加えて、連写動作中に得られる複数の画像の中で主要被写体の領域の大きさを比較して対象画像を決定してもよい。例えば、連写動作中に得られる画像の中で、主要被写体が画面内で大きくなりつつ画面の所定位置に収まっているような構図の画像を対象画像としてよい。このようにして対象画像を決定することで主要被写体の動きの強調効果を大きくすることができる。 Furthermore, in this embodiment, an image having the center of gravity of the main subject at the ideal center of gravity determined by the three-division method is determined as the target image. As a result, it is possible to obtain a panning shot of a composition desired by the photographer and an image taken for a long time. In the example of FIG. 8, the target image is determined from the actual gravity center position of the main subject. In addition, the target image may be determined by comparing the size of the area of the main subject among a plurality of images obtained during the continuous shooting operation. For example, among images obtained during the continuous shooting operation, an image having a composition in which the main subject is enlarged in the screen and stays at a predetermined position on the screen may be set as the target image. By determining the target image in this manner, the effect of enhancing the movement of the main subject can be increased.
(第2の実施形態)
[構成]
図16は、第2の実施形態に係る画像処理方法を用いて画像処理を行う撮像装置の一例の構成を示す図である。図16については、図1と異なる箇所についてのみ説明する。第2の実施形態における動きベクトル推定部118は、被写体の区別をせずに画像をブロックに分割してブロックごとの動きベクトルを推定する。そして、動きベクトル推定部118で推定された動きベクトルは、フィルタ構成部120のみではなく、被写体判定部124にも入力される。被写体判定部124は、動きベクトル推定部から入力された動きベクトルを用いて被写体の判定を行う。図16におけるその他の構成は図1と同様である。
(Second Embodiment)
[Constitution]
FIG. 16 is a diagram illustrating a configuration of an example of an imaging apparatus that performs image processing using the image processing method according to the second embodiment. FIG. 16 will be described only for parts different from FIG. The motion
[動作]
次に、本実施形態に係る撮像装置100の動作を説明する。図17は、第2の実施形態における撮像装置100の撮影動作を示すフローチャートである。図17において、第1の実施形態と異なる箇所について説明する。すなわち、図17におけるステップS403及びS404の動作が第1の実施形態と異なっている。ステップS401、S402、S405からS408は図2のステップS101、S102、S104、S106からS108と同様である。
[Operation]
Next, the operation of the
図17において、画像記憶部112に画像が記憶されると、動きベクトル推定部118は、動きベクトルを推定する(ステップS403)。第2の実施形態における動きベクトル推定部118は、主要被写体と背景被写体とを区別せず、画像を単純にブロックに分割した上でブロックごとの動きベクトルを推定する。被写体判定部124は、動きベクトル推定部118で推定された動きベクトルを用いて被写体判定を行う(ステップS404)。主要被写体は必ずしも画像の中央に存在しているわけではないが、画像の周辺部全てに存在するわけでもない。そこで、被写体判定部124は、画像の周辺部に位置するブロックの動きベクトルを用いて背景被写体の動きを推定する。そして、被写体判定部124は、各ブロックについて背景被写体の動きと明らかに異なる箇所を主要被写体として判定する。例えば、撮影モードが流し撮りモードの場合、背景被写体はある程度動きを持つが主要被写体は殆ど動かない又は背景被写体とは異なる動きを表す。また、撮影モードが手持ち長時間撮影モードの場合、背景は殆ど動かない一方で主要被写体が動きを持つ。この状況を踏まえて動きベクトルから被写体を判定する。すなわち、流し撮りモードでは、画像の周辺部の動きのあるブロックは背景被写体と判定される。一方、手持ち長時間撮影モードでは、画像の周辺部の動きのあるブロックは主要被写体と判定される。
In FIG. 17, when an image is stored in the
被写体判定に関してより具体的に図18から図21を用いて説明する。図18(a)は、画面内における背景被写体としての動きを推定する領域を示す。ここでは画面全体を7×7画素の小領域に分割し、小領域単位で主要被写体と背景被写体を判定する。なお、中央の3×3画素の領域は、主要被写体が存在する可能性がある部分を表す。また、図18(b)は動きベクトルを推定するブロックの構成を示す。ブロックの大きさは、第1の実施形態と同様、例えば5×5画素である。 The subject determination will be described more specifically with reference to FIGS. FIG. 18A shows an area in which a motion as a background subject in the screen is estimated. Here, the entire screen is divided into small areas of 7 × 7 pixels, and the main subject and the background subject are determined in units of small areas. The central 3 × 3 pixel region represents a portion where the main subject may exist. FIG. 18B shows a configuration of a block for estimating a motion vector. The block size is, for example, 5 × 5 pixels, as in the first embodiment.
この条件下において図19のようなシーンで被写体判定を行う場合、撮影モードによって被写体判定の方法を変えるようにする。例えば撮影モードが流し撮りモードの場合、推定される動きベクトルは図20(a)のようになる。このとき、背景被写体の動きが支配的となる。このとき図18(a)の小領域単位で動きベクトルを(例えば小領域内の動きベクトルの平均をとる等により)統合すると図20(b)の状態になる。ここで背景被写体の小領域の半分以上は動きベクトルが存在しており、これらの動きベクトルは方向や大きさにおおきなばらつきがない(逆方向や大きさが極端に違うといったものがない)ことから背景被写体の動きに対応するものとして認識される。すなわちこの背景被写体の動きとは異なる部分が主要被写体として判定されることになる。ここでは主要被写体が存在する可能性がある小領域を含めて連結した小領域群(図20(b)の右下がり対角パターン箇所)を主要被写体領域とする。また撮影モードが手持ち長時間撮影モードの場合、推定される動きベクトルは図21(a)のようになり、背景被写体には動きがない。このとき図18(a)の小領域単位で動きベクトルを統合すると図21(b)の状態になる。ここで背景被写体の小領域の半分以上は動きベクトルが存在しないことから背景被写体に動きはない、すなわち動きが検出される部分が主要被写体として判定されることになる。ここでは主要被写体が存在する可能性がある小領域を含めて連結した小領域群(図21(b)の右下がり対角パターン箇所)を主要被写体領域とする。 When subject determination is performed in a scene as shown in FIG. 19 under this condition, the subject determination method is changed depending on the shooting mode. For example, when the shooting mode is the panning mode, the estimated motion vector is as shown in FIG. At this time, the movement of the background subject becomes dominant. At this time, when the motion vectors are integrated in units of small areas in FIG. 18A (for example, by averaging the motion vectors in the small areas), the state shown in FIG. 20B is obtained. Here, motion vectors exist in more than half of the small areas of the background subject, and these motion vectors have no significant variation in direction or size (there is no such thing as the opposite direction or extremely different size). It is recognized as corresponding to the movement of the background subject. That is, a portion different from the movement of the background subject is determined as the main subject. Here, a small area group (including a downward-sloping diagonal pattern portion in FIG. 20B) connected including a small area where the main subject may exist is set as a main subject area. When the shooting mode is the handheld long-time shooting mode, the estimated motion vector is as shown in FIG. 21A, and the background subject does not move. At this time, when motion vectors are integrated in units of small areas in FIG. 18A, the state shown in FIG. Here, since the motion vector does not exist in more than half of the small area of the background subject, the background subject does not move, that is, the portion where the motion is detected is determined as the main subject. Here, a small area group including a small area in which a main subject may exist (a right-downward diagonal pattern portion in FIG. 21B) is a main subject area.
なお本実施形態では動き推定領域図18(a)と動きベクトル推定ブロック図18(b)を別々に設定しているが、両者を共用する形をとっても良い。 In this embodiment, the motion estimation area diagram 18 (a) and the motion vector estimation block diagram 18 (b) are set separately, but both may be shared.
以上説明したように第2の実施形態においては動きベクトルから主要被写体と背景被写体とを判定するようにしている。これにより、被写体判定部124において画像認識の処理を行う必要がない。なお、画像認識処理を併用して被写体判定が行われてもよい。
As described above, in the second embodiment, the main subject and the background subject are determined from the motion vector. Thereby, it is not necessary to perform image recognition processing in the
(第3の実施形態)
[構成]
図22は、第3の実施形態に係る画像処理方法を用いて画像処理を行う撮像装置の一例の構成を示す図である。図22については、図1と異なる箇所についてのみ説明する。第3の実施形態においては、撮影者が対象画像を選択することが可能である。このため、第3の実施形態の操作部104は、撮影者が対象画像を設定するための操作部材をさらに有する。また、第3の実施形態における撮像装置100は、対象画像の候補を表示するための表示部126も有している。
(Third embodiment)
[Constitution]
FIG. 22 is a diagram illustrating a configuration of an example of an imaging apparatus that performs image processing using the image processing method according to the third embodiment. FIG. 22 will be described only for parts different from FIG. In the third embodiment, a photographer can select a target image. For this reason, the
[動作]
次に、本実施形態に係る撮像装置100の動作を説明する。本実施形態における対象画像決定部116は、対象画像の決定に際し、連写動作によって得られた画像を表示部126に例えばサムネイル表示させる。撮影者は、表示部126に表示された画像を見てどの画像を出力対象にするかを操作部104の操作によって選択する。操作部104の操作を受けて、対象画像決定部116は、選択された画像に関する情報(サムネイル表示であれば選択された画像のインデックス番号等)を取得し、対象画像を決定する。
[Operation]
Next, the operation of the
表示部126に表示される内容の具体例を図23に示す。サムネイル表示として4枚分の画像が1画面に表示されており、各画像にはインデックス番号をオーバーラップで表示している。この他に操作部104によって時間的に前後の画像を表示させたりサムネイル表示枚数を変更させたりすることを可能にする。サムネイル表示の中から対象画像が決定された際には選択された画像のインデックス番号に基づき実際の対象画像が決定される。なお操作部104の操作は表示部126にタッチパネルを内蔵させて画面をタッチすることで実現させるようにしてもよい。
A specific example of the contents displayed on the
以上説明したように本実施形態によれば、撮影者が望むシーン及び構図を有する画像に対して動きぼけを付加することができる。 As described above, according to the present embodiment, motion blur can be added to an image having a scene and composition desired by the photographer.
以上実施形態に基づいて本発明を説明したが、本発明は上述した実施形態に限定されるものではなく、本発明の要旨の範囲内で種々の変形や応用が可能なことは勿論である。また、前述の各動作フローチャートの説明において、便宜上「まず」、「次に」等を用いて動作を説明しているが、この順で動作を実施することが必須であることを意味するものではない。 Although the present invention has been described above based on the embodiments, the present invention is not limited to the above-described embodiments, and various modifications and applications are naturally possible within the scope of the gist of the present invention. Further, in the description of each operation flowchart described above, the operation is described using “first”, “next”, and the like for convenience, but this does not mean that it is essential to perform the operations in this order. Absent.
また、上述した実施形態における撮像装置による各処理の手法、すなわち、各フローチャートに示す処理は、何れも処理制御部108に実行させることができるプログラムとして記憶される。このプログラムは、メモリカード(ROMカード、RAMカード等)、磁気ディスク(フロッピディスク、ハードディスク等)、光ディスク(CD−ROM、DVD等)、半導体メモリ等の外部記憶装置の記憶媒体に格納して配布することができる。そして、処理制御部108は、この外部記憶装置の記憶媒体に記憶されたプログラムを読み込み、この読み込んだプログラムによって動作が制御されることにより、上述した処理を実行することができる。
In addition, each processing method performed by the imaging apparatus in the above-described embodiment, that is, the processing illustrated in each flowchart is stored as a program that can be executed by the
さらに、上記した実施形態には種々の段階の発明が含まれており、開示される複数の構成要件の適当な組合せにより種々の発明が抽出され得る。例えば、実施形態に示される全構成要件からいくつかの構成要件が削除されても、上述したような課題を解決でき、上述したような効果が得られる場合には、この構成要件が削除された構成も発明として抽出され得る。 Further, the above-described embodiments include various stages of the invention, and various inventions can be extracted by appropriately combining a plurality of disclosed constituent elements. For example, even if some configuration requirements are deleted from all the configuration requirements shown in the embodiment, the above-described problem can be solved, and this configuration requirement is deleted when the above-described effects can be obtained. The configuration can also be extracted as an invention.
100…撮像装置、102…撮像部、104…操作部、106…撮影条件設定部、108…処理制御部、110…情報記録部、112…画像記憶部、114…被写体判定部、116…対象画像決定部、118…動きベクトル推定部、120…フィルタ構成部、122…フィルタ適用部、124…被写体判定部、126…表示部、1021…レンズ、1022…撮像素子、1023…撮像制御部
DESCRIPTION OF
Claims (9)
前記取得された複数の画像のそれぞれにおける主要被写体の領域と背景被写体の領域とを判定する被写体判定部と、
前記取得された複数の画像の中から対象画像を決定する対象画像決定部と、
前記対象画像と該対象画像が撮像された時刻と時間的に前後する時刻に撮像された画像との間の少なくとも前記背景被写体の領域の動きベクトルを推定する動きベクトル推定部と、
前記推定された動きベクトルに基づき前記対象画像に適用するフィルタを構成するフィルタ構成部と、
前記構成されたフィルタを前記対象画像に適用するフィルタ適用部と、
を具備する画像処理装置。 An imaging unit that continuously captures a subject and obtains a plurality of images;
A subject determination unit that determines a region of a main subject and a region of a background subject in each of the acquired plurality of images;
A target image determination unit that determines a target image from the plurality of acquired images;
A motion vector estimation unit that estimates a motion vector of at least the background subject area between the target image and an image captured at the time when the target image is captured and a time before and after the target image;
A filter constituting unit constituting a filter to be applied to the target image based on the estimated motion vector;
A filter application unit that applies the configured filter to the target image;
An image processing apparatus comprising:
前記被写体判定部は、前記推定された動きベクトルに基づいて前記取得された複数の画像のそれぞれにおける主要被写体の領域と背景被写体の領域とを判定する、
請求項1に記載の画像処理装置。 The motion vector estimation unit divides each of the acquired plurality of images into a plurality of blocks, estimates a motion vector between the images for each block,
The subject determination unit determines a main subject region and a background subject region in each of the plurality of acquired images based on the estimated motion vector;
The image processing apparatus according to claim 1.
前記取得された複数の画像のそれぞれにおける主要被写体の領域と背景被写体の領域とを判定することと、
前記取得された複数の画像の中から対象画像を決定することと、
前記対象画像と該対象画像が撮像された時刻と時間的に前後する時刻に撮像された画像との間の少なくとも前記背景被写体の領域の動きベクトルを推定することと、
前記推定された動きベクトルに基づき前記対象画像に適用するフィルタを構成することと、
前記構成されたフィルタを前記対象画像に適用することと、
を具備する画像処理方法。 Capturing a plurality of images by continuously capturing a subject;
Determining a main subject region and a background subject region in each of the plurality of acquired images;
Determining a target image from the plurality of acquired images;
Estimating a motion vector of at least the area of the background subject between the target image and an image captured at a time before and after the time when the target image was captured;
Configuring a filter to be applied to the target image based on the estimated motion vector;
Applying the configured filter to the target image;
An image processing method comprising:
前記取得された複数の画像のそれぞれにおける主要被写体の領域と背景被写体の領域とを判定する機能と、
前記取得された複数の画像の中から対象画像を決定する機能と、
前記対象画像と該対象画像が撮像された時刻と時間的に前後する時刻に撮像された画像との間の少なくとも前記背景被写体の領域の動きベクトルを推定する機能と、
前記推定された動きベクトルに基づき前記対象画像に適用するフィルタを構成する機能と、
前記構成されたフィルタを前記対象画像に適用する機能と、
をコンピュータに実現させるための画像処理プログラム。 The ability to continuously capture a subject and acquire multiple images;
A function of determining a main subject region and a background subject region in each of the plurality of acquired images;
A function of determining a target image from the plurality of acquired images;
A function for estimating a motion vector of at least the background subject area between the target image and the image captured at the time when the target image was captured and the time before and after the target image;
A function of configuring a filter to be applied to the target image based on the estimated motion vector;
A function of applying the configured filter to the target image;
An image processing program for realizing a computer.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013133100A JP6157238B2 (en) | 2013-06-25 | 2013-06-25 | Image processing apparatus, image processing method, and image processing program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013133100A JP6157238B2 (en) | 2013-06-25 | 2013-06-25 | Image processing apparatus, image processing method, and image processing program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2015008428A true JP2015008428A (en) | 2015-01-15 |
JP6157238B2 JP6157238B2 (en) | 2017-07-05 |
Family
ID=52338438
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013133100A Expired - Fee Related JP6157238B2 (en) | 2013-06-25 | 2013-06-25 | Image processing apparatus, image processing method, and image processing program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6157238B2 (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017017540A (en) * | 2015-07-01 | 2017-01-19 | キヤノン株式会社 | Image processing device, imaging device and image processing program |
US11107193B2 (en) | 2017-03-06 | 2021-08-31 | Samsung Electronics Co., Ltd. | Method and apparatus for processing image |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007041570A (en) * | 2005-07-01 | 2007-02-15 | Nikon Corp | Electronic camera |
JP2007323458A (en) * | 2006-06-02 | 2007-12-13 | Sony Corp | Image processor and image processing method |
JP2010104005A (en) * | 2009-11-13 | 2010-05-06 | Casio Computer Co Ltd | Imaging apparatus, and program therefor |
JP2011151729A (en) * | 2010-01-25 | 2011-08-04 | Sharp Corp | Image processor, image photographing device, image display device, and program |
JP2012044564A (en) * | 2010-08-20 | 2012-03-01 | Sanyo Electric Co Ltd | Imaging apparatus |
JP2013012124A (en) * | 2011-06-30 | 2013-01-17 | Nikon Corp | Image processing device, imaging device, and program |
JP2013016924A (en) * | 2011-06-30 | 2013-01-24 | Nikon Corp | Image evaluation device |
JP2013058823A (en) * | 2011-09-07 | 2013-03-28 | Casio Comput Co Ltd | Image processing device, image processing method and program |
-
2013
- 2013-06-25 JP JP2013133100A patent/JP6157238B2/en not_active Expired - Fee Related
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007041570A (en) * | 2005-07-01 | 2007-02-15 | Nikon Corp | Electronic camera |
JP2007323458A (en) * | 2006-06-02 | 2007-12-13 | Sony Corp | Image processor and image processing method |
JP2010104005A (en) * | 2009-11-13 | 2010-05-06 | Casio Computer Co Ltd | Imaging apparatus, and program therefor |
JP2011151729A (en) * | 2010-01-25 | 2011-08-04 | Sharp Corp | Image processor, image photographing device, image display device, and program |
JP2012044564A (en) * | 2010-08-20 | 2012-03-01 | Sanyo Electric Co Ltd | Imaging apparatus |
JP2013012124A (en) * | 2011-06-30 | 2013-01-17 | Nikon Corp | Image processing device, imaging device, and program |
JP2013016924A (en) * | 2011-06-30 | 2013-01-24 | Nikon Corp | Image evaluation device |
JP2013058823A (en) * | 2011-09-07 | 2013-03-28 | Casio Comput Co Ltd | Image processing device, image processing method and program |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017017540A (en) * | 2015-07-01 | 2017-01-19 | キヤノン株式会社 | Image processing device, imaging device and image processing program |
US11107193B2 (en) | 2017-03-06 | 2021-08-31 | Samsung Electronics Co., Ltd. | Method and apparatus for processing image |
Also Published As
Publication number | Publication date |
---|---|
JP6157238B2 (en) | 2017-07-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109565551B (en) | Synthesizing images aligned to a reference frame | |
US10015469B2 (en) | Image blur based on 3D depth information | |
JP6271990B2 (en) | Image processing apparatus and image processing method | |
JP4678603B2 (en) | Imaging apparatus and imaging method | |
JP6267502B2 (en) | IMAGING DEVICE, IMAGING DEVICE CONTROL METHOD, AND PROGRAM | |
KR101566081B1 (en) | Image processing apparatus, image processing method, and storage medium | |
JP2014232181A (en) | Imaging device and control method thereof | |
JP5968073B2 (en) | Image processing apparatus, imaging apparatus, image processing method, and image processing program | |
JP6319972B2 (en) | Image processing apparatus, imaging apparatus, image processing method, and program | |
US9538074B2 (en) | Image processing apparatus, imaging apparatus, and image processing method | |
JP6261205B2 (en) | Image processing device | |
CN106791456A (en) | A kind of photographic method and electronic equipment | |
JP6320053B2 (en) | Image processing apparatus, image processing method, and computer program | |
JP2010279054A (en) | Image pickup device, image processing device, image pickup method, and image processing method | |
JP6157238B2 (en) | Image processing apparatus, image processing method, and image processing program | |
JP6645711B2 (en) | Image processing apparatus, image processing method, and program | |
JP2019047336A (en) | Image processing apparatus, imaging device, image processing method, and program | |
US11627245B2 (en) | Focus adjustment device and focus adjustment method | |
JP2023033355A (en) | Image processing device and control method therefor | |
US20150254856A1 (en) | Smart moving object capture methods, devices and digital imaging systems including the same | |
JP2011193066A (en) | Image sensing device | |
JP2014138378A (en) | Image pickup device, control method thereof, and control program thereof | |
JP2015156189A (en) | image evaluation device, and image evaluation program | |
JP7475846B2 (en) | Information processing device, imaging device, information processing method, and imaging device control method | |
JP6616668B2 (en) | Image processing apparatus and image processing method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20160502 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20170207 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20170407 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20170523 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20170606 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6157238 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |