JP2015008428A - Image processing apparatus, image processing method, and image processing program - Google Patents

Image processing apparatus, image processing method, and image processing program Download PDF

Info

Publication number
JP2015008428A
JP2015008428A JP2013133100A JP2013133100A JP2015008428A JP 2015008428 A JP2015008428 A JP 2015008428A JP 2013133100 A JP2013133100 A JP 2013133100A JP 2013133100 A JP2013133100 A JP 2013133100A JP 2015008428 A JP2015008428 A JP 2015008428A
Authority
JP
Japan
Prior art keywords
subject
image
target image
filter
motion vector
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2013133100A
Other languages
Japanese (ja)
Other versions
JP6157238B2 (en
Inventor
堀内 一仁
Kazuhito Horiuchi
一仁 堀内
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Original Assignee
Olympus Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Corp filed Critical Olympus Corp
Priority to JP2013133100A priority Critical patent/JP6157238B2/en
Publication of JP2015008428A publication Critical patent/JP2015008428A/en
Application granted granted Critical
Publication of JP6157238B2 publication Critical patent/JP6157238B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)
  • Studio Devices (AREA)
  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an image processing apparatus, an image processing method, and an image processing program capable of simply generating an image giving no discomfort relating to the movement of a subject and background even in photographing with the apparatus held with the hands.SOLUTION: The image processing apparatus comprises: an imaging unit 102 which images subject consecutively and acquires plural images; a subject determination unit 114 which determines the area of a main subject and the area of a background subject in each of the acquired images; an object image determination unit 116 which determines a target image out of the acquired images; a motion vector estimation unit 118 which estimates the motion vector of at least the area of the background subject between the target image and an image captured at a time before or after the time when the target image was captured; a filter constitution unit 120 which constitutes a filter to be applied to the target image on the basis of the estimated motion vector; and a filter application unit 122 which applies the constituted filter to the target image.

Description

本発明は、撮影された複数の画像を用いて被写体の動きを強調する画像処理を施す画像処理装置、画像処置方法及び画像処理プログラムに関する。   The present invention relates to an image processing apparatus, an image processing method, and an image processing program that perform image processing that emphasizes the motion of a subject using a plurality of captured images.

写真撮影の技法の一つとして「流し撮り」が知られている。流し撮りは、被写体の位置が画角に対して固定されるように、撮影者が被写体の動きに合わせてカメラを移動させながら撮影する技法である。流し撮りでは、被写体がぶれずに背景が流れるような効果が生まれることから、被写体のスピード感を強調させた画像を得ることができる。ここで、流し撮りは、通常の撮影よりも長い露光時間で行われることが多い。露光時間が長くなると手ぶれが発生しやすくなる。このため、流し撮りの際に背景だけでなく被写体もぶれてしまうことが多い。   One of the photography techniques is “panning”. Panning is a technique in which a photographer moves a camera in accordance with the movement of a subject so that the position of the subject is fixed with respect to the angle of view. In panning, an effect is produced in which the background flows without blurring the subject, so that an image in which the sense of speed of the subject is emphasized can be obtained. Here, panning is often performed with an exposure time longer than that of normal shooting. As the exposure time becomes longer, camera shake tends to occur. For this reason, the subject as well as the background is often blurred during panning.

流し撮り時の被写体ぶれを抑える手法の1つとして、流し撮り中に発生した手ぶれに応じて撮像素子又はレンズを機械的に移動させることによって被写体のぶれを抑える手法が考えられる。この場合、通常撮影用とは別個に流し撮り用の手ぶれ補正の制御をすることになり、システムが複雑化しやすい。また、機械的な手ぶれ補正が行われた後でなければ被写体ぶれが発生してしまうので、シャッタボタンを押してから撮影が行われるまでにタイムラグが発生する。このため、撮影者が本来撮影したいと考える構図の画像が得られない可能性がある。   As one of the techniques for suppressing subject shake during panning, a technique for suppressing subject blur by mechanically moving an image sensor or a lens in accordance with camera shake occurring during panning is conceivable. In this case, camera shake correction for panning is controlled separately from normal shooting, and the system is likely to be complicated. In addition, subject blur occurs unless mechanical camera shake correction is performed, and thus a time lag occurs between when the shutter button is pressed and when shooting is performed. For this reason, there is a possibility that an image having a composition that the photographer originally wants to shoot cannot be obtained.

流し撮り時の被写体ぶれを抑える別の手法として、特許文献1の手法が提案されている。特許文献1の手法は、露光時間を短時間にすることで被写体のぶれを抑えた画像を得つつ、この画像を被写体領域と背景領域とに分離し、背景領域の画像が流れるように被写体の動きに応じて背景領域にぼかしの画像処理を施す手法である。   As another method for suppressing subject shake during panning, the method of Patent Document 1 has been proposed. The technique of Patent Document 1 obtains an image in which the blur of the subject is suppressed by shortening the exposure time, and separates the image into a subject region and a background region, so that the image of the background region flows. This is a method of performing blur image processing on the background area in accordance with the movement.

特開2011−114823号公報JP 2011-114823 A

特許文献1の手法が有効に機能するのは、被写体の動きが撮影画面に対して平行でありかつ背景の物体間と被写体との奥行きの関係が不変である場合に限られる。実際の流し撮りは、被写体の奥行き方向の動き(被写体が撮影者に迫るような動き等)を伴う状況で行われることも多い。このとき、撮影画面上での背景領域の動きは、必ずしも被写体の動きから一意に決まらない。このため、特許文献1のようを背景に対して一律の「動きぼけ」を適用する手法では、実際には起こりえない不自然なぼけが発生する可能性がある。   The technique of Patent Document 1 functions effectively only when the movement of the subject is parallel to the shooting screen and the relationship between the depth between the background object and the subject is unchanged. Actual panning is often performed in a situation involving movement of the subject in the depth direction (such as movement in which the subject approaches the photographer). At this time, the movement of the background area on the shooting screen is not necessarily uniquely determined from the movement of the subject. For this reason, in the method of applying uniform “motion blur” to the background as in Patent Document 1, there is a possibility that unnatural blur that cannot actually occur may occur.

本発明は、前記の事情に鑑みてなされたもので、手持ちによる撮影でも被写体及び背景の動きに対する違和感のない画像を簡単に生成できる画像処理装置、画像処理方法及び画像処理プログラムを提供することを目的とする。   The present invention has been made in view of the above circumstances, and provides an image processing apparatus, an image processing method, and an image processing program that can easily generate an image that does not feel uncomfortable with the movement of the subject and the background even with hand-held shooting. Objective.

前記の目的を達成するために、本発明の第1の態様の画像処理装置は、被写体を連続的に撮像して複数の画像を取得する撮像部と、前記取得された複数の画像のそれぞれにおける主要被写体の領域と背景被写体の領域とを判定する被写体判定部と、前記取得された複数の画像の中から対象画像を決定する対象画像決定部と、前記対象画像と該対象画像が撮像された時刻と時間的に前後する時刻に撮像された画像との間の少なくとも前記背景被写体の領域の動きベクトルを推定する動きベクトル推定部と、前記推定された動きベクトルに基づき前記対象画像に適用するフィルタを構成するフィルタ構成部と、前記構成されたフィルタを前記対象画像に適用するフィルタ適用部とを具備する。   In order to achieve the above object, an image processing apparatus according to a first aspect of the present invention includes an imaging unit that continuously images a subject to acquire a plurality of images, and each of the acquired plurality of images. A subject determination unit that determines a main subject region and a background subject region, a target image determination unit that determines a target image from the plurality of acquired images, and the target image and the target image are captured A motion vector estimation unit that estimates a motion vector of at least the background subject area between a time and an image captured at a time before and after, and a filter that is applied to the target image based on the estimated motion vector And a filter application unit that applies the configured filter to the target image.

前記の目的を達成するために、本発明の第2の態様の画像処理方法は、被写体を連続的に撮像して複数の画像を取得することと、前記取得された複数の画像のそれぞれにおける主要被写体の領域と背景被写体の領域とを判定することと、前記取得された複数の画像の中から対象画像を決定することと、前記対象画像と該対象画像が撮像された時刻と時間的に前後する時刻に撮像された画像との間の少なくとも前記背景被写体の領域の動きベクトルを推定することと、前記推定された動きベクトルに基づき前記対象画像に適用するフィルタを構成することと、前記構成されたフィルタを前記対象画像に適用することとを具備する。   In order to achieve the above object, an image processing method according to a second aspect of the present invention includes acquiring a plurality of images by continuously capturing an image of a subject and performing a main process in each of the acquired plurality of images. Determining a region of the subject and a region of the background subject, determining a target image from the plurality of acquired images, and before and after the time when the target image and the target image were captured Estimating at least a motion vector of the area of the background subject between the image captured at the time to be performed, configuring a filter to be applied to the target image based on the estimated motion vector, and Applying the filter to the target image.

前記の目的を達成するために、本発明の第3の態様の画像処理プログラムは、被写体を連続的に撮像して複数の画像を取得する機能と、前記取得された複数の画像のそれぞれにおける主要被写体の領域と背景被写体の領域とを判定する機能と、前記取得された複数の画像の中から対象画像を決定する機能と、前記対象画像と該対象画像が撮像された時刻と時間的に前後する時刻に撮像された画像との間の少なくとも前記背景被写体の領域の動きベクトルを推定する機能と、前記推定された動きベクトルに基づき前記対象画像に適用するフィルタを構成する機能と、前記構成されたフィルタを前記対象画像に適用する機能とをコンピュータに実現させる。   In order to achieve the above object, an image processing program according to a third aspect of the present invention includes a function of continuously capturing an image of a subject to acquire a plurality of images, and a main function in each of the acquired plurality of images. A function for determining a subject area and a background subject area, a function for determining a target image from the plurality of acquired images, and a time sequence of the target image and the time when the target image was captured A function of estimating at least a motion vector of the area of the background subject between the image captured at the time to perform, a function of configuring a filter to be applied to the target image based on the estimated motion vector, and And a function of applying the filtered filter to the target image.

本発明によれば、手持ちによる撮影でも被写体及び背景の動きに対する違和感のない画像を簡単に生成できる画像処理装置、画像処理方法及び画像処理プログラムを提供することができる。   According to the present invention, it is possible to provide an image processing apparatus, an image processing method, and an image processing program that can easily generate an image that does not give a sense of incongruity to movements of a subject and a background even with hand-held shooting.

本発明の第1の実施形態に係る画像処理方法を用いて画像処理を行う画像処理装置の適用例としての撮像装置の一例の構成を示す図である。It is a figure which shows the structure of an example of an imaging device as an application example of the image processing apparatus which performs an image process using the image processing method which concerns on the 1st Embodiment of this invention. 本発明の第1の実施形態における撮像装置の撮影動作を示すフローチャートである。3 is a flowchart illustrating a shooting operation of the imaging apparatus according to the first embodiment of the present invention. 流し撮りによって得られる画像の例を示す図である。It is a figure which shows the example of the image obtained by a panning. 第1の実施形態における連写動作の例を示す図である。It is a figure which shows the example of the continuous shooting operation | movement in 1st Embodiment. 被写体判定の概要を示す図である。It is a figure which shows the outline | summary of a to-be-photographed object determination. 対象画像決定の処理を示すフローチャートである。It is a flowchart which shows the process of target image determination. 三分割法による理想被写体重心位置を表す図である。It is a figure showing the ideal photographic subject gravity center position by a three division method. 連写動作によって得られた3画像に対して算出される実際の主要被写体の領域から算出される重心位置と理想被写体重心位置との関係を示す図である。It is a figure which shows the relationship between the gravity center position calculated from the area | region of the actual main subject calculated with respect to 3 images obtained by continuous shooting operation | movement, and an ideal subject gravity center position. 動きベクトル推定について説明するための図である。It is a figure for demonstrating motion vector estimation. 推定された動きベクトルの例を示す図である。It is a figure which shows the example of the estimated motion vector. フィルタカーネルのサイズの設定を示す図である。It is a figure which shows the setting of the size of a filter kernel. 構成されたフィルタの例を示す図である。It is a figure which shows the example of the comprised filter. 境界領域について示す図である。It is a figure shown about a boundary region. 境界領域に対して適用されるフィルタの例を示す図である。It is a figure which shows the example of the filter applied with respect to a boundary region. 境界領域を設定するための処理を示すフローチャートである。It is a flowchart which shows the process for setting a boundary area | region. 本発明の第2の実施形態に係る画像処理方法を用いて画像処理を行う画像処理装置の適用例としての撮像装置の一例の構成を示す図である。It is a figure which shows the structure of an example of the imaging device as an application example of the image processing apparatus which performs an image process using the image processing method which concerns on the 2nd Embodiment of this invention. 本発明の第2の実施形態における撮像装置の撮影動作を示すフローチャートである。It is a flowchart which shows the imaging | photography operation | movement of the imaging device in the 2nd Embodiment of this invention. 図18(a)は画面内における背景被写体としての動きを推定する領域を示す図であり、図18(b)は動きベクトルを推定するブロックの構成を示す図である。FIG. 18A is a diagram showing a region for estimating a motion as a background subject in the screen, and FIG. 18B is a diagram showing a configuration of a block for estimating a motion vector. 被写体判定が行われるシーンの例を示す図である。It is a figure which shows the example of the scene in which subject determination is performed. 図20(a)は撮影モードが流し撮りモードの場合に推定される動きベクトルを示す図であり、図20(b)は流し撮りモードの場合に推定される動きベクトルを小領域単位で統合することにより得られる動きベクトルを示す図である。FIG. 20A is a diagram showing motion vectors estimated when the shooting mode is the panning mode, and FIG. 20B is an integration of motion vectors estimated in the case of the panning mode in units of small areas. It is a figure which shows the motion vector obtained by this. 図21(a)は撮影モードが手持ち長時間撮影モードの場合に推定される動きベクトルを示す図であり、図21(b)は手持ち長時間撮影モードの場合に推定される動きベクトルを小領域単位で統合することにより得られる動きベクトルを示す図である。FIG. 21A shows a motion vector estimated when the shooting mode is the handheld long-time shooting mode, and FIG. 21B shows a motion vector estimated when the shooting mode is the handheld long-time shooting mode. It is a figure which shows the motion vector obtained by integrating in a unit. 本発明の第3の実施形態に係る画像処理方法を用いて画像処理を行う画像処理装置の適用例としての撮像装置の一例の構成を示す図である。It is a figure which shows the structure of an example of the imaging device as an application example of the image processing apparatus which performs image processing using the image processing method which concerns on the 3rd Embodiment of this invention. 対象画像の選択の際に表示部に表示される内容の具体例を図である。It is a figure which shows the specific example of the content displayed on a display part in the case of selection of a target image.

以下、図面を参照して本発明の実施形態を説明する。
(第1の実施形態)
[構成]
図1は、第1の実施形態に係る画像処理方法を用いて画像処理を行う画像処理装置の適用例としての撮像装置の一例の構成を示す図である。ここで、図1の実線矢印は、画像の流れを表している。また、図1の破線矢印は、画像以外の制御情報の流れを表している。図1に示す撮像装置100は、撮像部102と、操作部104と、撮影条件設定部106と、処理制御部108と、情報記録部110と、画像記憶部112と、被写体判定部114と、対象画像決定部116と、動きベクトル推定部118と、フィルタ構成部120と、フィルタ適用部122とを有している。
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
(First embodiment)
[Constitution]
FIG. 1 is a diagram illustrating a configuration of an example of an imaging apparatus as an application example of an image processing apparatus that performs image processing using the image processing method according to the first embodiment. Here, the solid line arrow in FIG. 1 represents the flow of an image. Moreover, the broken line arrow of FIG. 1 represents the flow of control information other than an image. An imaging apparatus 100 illustrated in FIG. 1 includes an imaging unit 102, an operation unit 104, a shooting condition setting unit 106, a processing control unit 108, an information recording unit 110, an image storage unit 112, a subject determination unit 114, The target image determination unit 116, the motion vector estimation unit 118, the filter configuration unit 120, and the filter application unit 122 are included.

撮像部102は、レンズ1021と、撮像素子1022と、撮像制御部1023とを有している。レンズ1021は、被写体からの光束を撮像素子1022の像面に結像させる単一又は複数のレンズである。撮像素子1022は、レンズ1021を介して像面に入射した光束を、光電変換によって電気信号(画像信号)に変換する。以下、画像信号を、単に画像と言う。撮像制御部1023は、撮像素子1022の撮像動作を制御する。例えば、撮像制御部1023は、撮像素子1022の露光時間、感度等を制御することによって撮像素子1022の露光量を制御する。また、撮像制御部1023は、撮像素子1022の連写動作を制御する。さらに、撮像制御部1023は、撮像素子1022で得られた画像に対して色復元処理(撮像素子1022が単板カラーフィルタを有している場合のデモザイキング処理等)、ノイズ低減処理、エッジ強調処理等の画像処理を施す。   The imaging unit 102 includes a lens 1021, an imaging element 1022, and an imaging control unit 1023. The lens 1021 is a single lens or a plurality of lenses that form a light flux from the subject on the image plane of the image sensor 1022. The image sensor 1022 converts the light beam incident on the image plane through the lens 1021 into an electric signal (image signal) by photoelectric conversion. Hereinafter, the image signal is simply referred to as an image. The imaging control unit 1023 controls the imaging operation of the imaging element 1022. For example, the imaging control unit 1023 controls the exposure amount of the imaging element 1022 by controlling the exposure time, sensitivity, and the like of the imaging element 1022. The imaging control unit 1023 controls the continuous shooting operation of the image sensor 1022. Furthermore, the imaging control unit 1023 performs color restoration processing (such as demosaicing processing when the imaging device 1022 has a single plate color filter), noise reduction processing, edge enhancement on the image obtained by the imaging device 1022. Image processing such as processing is performed.

操作部104は、撮像装置100の操作のために撮影者によって操作される操作部材である。操作部104は、ボタンやスイッチ等の操作部材であってもよいし、タッチパネル等の操作部材であってもよい。操作部104の操作により、例えば撮像装置100の撮影モードが選択される。本実施形態における撮影モードは、例えば「流し撮り」モードと「手持ち長時間撮影」モードとを含む。流し撮りモードは、流し撮りのための撮影モードである。手持ち長時間撮影モードは、撮影者による手持ちでの長時間撮影をするための撮影モードである。   The operation unit 104 is an operation member that is operated by the photographer to operate the imaging apparatus 100. The operation unit 104 may be an operation member such as a button or a switch, or may be an operation member such as a touch panel. By the operation of the operation unit 104, for example, the shooting mode of the imaging device 100 is selected. The shooting modes in this embodiment include, for example, a “panning” mode and a “handheld long-time shooting” mode. The panning mode is a shooting mode for panning. The hand-held long-time shooting mode is a shooting mode for taking a long-time shooting by a photographer.

撮影条件設定部106は、撮影時の撮影条件を設定する。撮影条件は、例えば撮影時の撮像素子1022の露光量に関する条件(例えば、露光時間、感度)と、画像処理に関する条件(例えばノイズ低減処理におけるノイズ低減レベル)と、連写実行時の撮影枚数を含む。これらの撮影条件は、例えば、撮影者が操作部104を操作することによる手動操作に従って設定される。また、撮影条件は、例えば本撮影前のライブビューの際に得られる画像における被写体の明るさに基づいて設定されてもよい。ライブビューは、本撮影前に撮像素子1022を連続駆動させて得られる画像をリアルタイムに表示部に表示させる動作である。   The shooting condition setting unit 106 sets shooting conditions at the time of shooting. The shooting conditions include, for example, conditions related to the exposure amount of the image sensor 1022 at the time of shooting (for example, exposure time and sensitivity), conditions related to image processing (for example, noise reduction level in noise reduction processing), and the number of shots when continuous shooting is performed. Including. These photographing conditions are set according to a manual operation by the photographer operating the operation unit 104, for example. Further, the shooting condition may be set based on the brightness of the subject in the image obtained during the live view before the main shooting, for example. The live view is an operation for displaying an image obtained by continuously driving the image sensor 1022 on the display unit in real time before the main photographing.

処理制御部108は、情報記録部110に記録されたプログラムに従って、撮像装置100の各ブロックを制御する。例えば、処理制御部108は、撮影条件設定部106によって設定された撮影条件に従って撮像制御部1023を制御する。また、処理制御部108は、被写体判定部114の動作の開始を指示する。   The process control unit 108 controls each block of the imaging apparatus 100 according to a program recorded in the information recording unit 110. For example, the processing control unit 108 controls the imaging control unit 1023 according to the imaging conditions set by the imaging condition setting unit 106. Further, the process control unit 108 instructs the start of the operation of the subject determination unit 114.

情報記録部110は、例えばフラッシュROMであり、処理制御部108によって実行されるプログラムや画像処理に必要なパラメータ等を記録している。画像記憶部112は、例えばRAMであり、撮像部102で得られた画像を記憶する。画像記憶部112に記憶された画像は、被写体判定部114からの指示に応じて読み出される。   The information recording unit 110 is, for example, a flash ROM, and records a program executed by the processing control unit 108, parameters necessary for image processing, and the like. The image storage unit 112 is, for example, a RAM, and stores an image obtained by the imaging unit 102. The image stored in the image storage unit 112 is read according to an instruction from the subject determination unit 114.

被写体判定部114は、画像記憶部112に記憶された画像における主要被写体の領域と背景被写体の領域とをそれぞれ判定し、主要被写体及び背景被写体の領域情報を表す被写体/背景領域情報(例えば主要被写体の領域と背景被写体の領域とを分けた2値画像)を生成する。対象画像決定部116は、被写体判定部114からの被写体/背景領域情報に従って、連写動作によって得られた複数の画像のうち、フィルタ適用部122においてフィルタが適用される対象である対象画像を決定する。動きベクトル推定部118は、連写動作によって得られた複数の画像間での被写体の動きベクトルを推定する。フィルタ構成部120は、動きベクトル推定部118で推定された動きベクトルに基づき、画像に動きぼけを与えるためのフィルタを構成する。フィルタ適用部122は、フィルタ構成部120で構成されたフィルタを対象画像に対して適用する。   The subject determination unit 114 determines the main subject region and the background subject region in the image stored in the image storage unit 112, respectively, and subject / background region information (for example, main subject information) indicating the main subject and background subject region information. , And a binary image obtained by dividing the background subject area). The target image determination unit 116 determines a target image to which the filter is applied by the filter application unit 122 from among a plurality of images obtained by the continuous shooting operation, according to the subject / background region information from the subject determination unit 114. To do. The motion vector estimation unit 118 estimates the motion vector of the subject between a plurality of images obtained by the continuous shooting operation. The filter configuration unit 120 configures a filter for adding motion blur to an image based on the motion vector estimated by the motion vector estimation unit 118. The filter application unit 122 applies the filter configured by the filter configuration unit 120 to the target image.

[動作]
次に、本実施形態に係る撮像装置100の動作を説明する。図2は、第1の実施形態における撮像装置100の撮影動作を示すフローチャートである。図2において、撮影条件設定部106は、撮影時の撮影条件を設定する(ステップS101)。撮影条件は、例えば撮影モードに応じて設定される。撮影モードの選択は、例えば撮影者による操作部104の操作によってなされる。以下では、流し撮りモードと手持ち長時間撮影モードの何れかが選択されたとする。撮影モードが選択されると、選択された撮影モードの情報は、撮影条件設定部106に入力される。撮影条件設定部106は、入力された撮影モードの情報に応じて撮影条件を設定する。ステップS101においては、撮像条件として、撮影枚数、露光時間、感度、ノイズ低減レベル等が設定される。撮影条件の設定の詳細については後で説明する。
[Operation]
Next, the operation of the imaging apparatus 100 according to the present embodiment will be described. FIG. 2 is a flowchart illustrating a shooting operation of the imaging apparatus 100 according to the first embodiment. In FIG. 2, the shooting condition setting unit 106 sets shooting conditions at the time of shooting (step S101). The shooting conditions are set according to the shooting mode, for example. The shooting mode is selected by, for example, operating the operation unit 104 by the photographer. In the following, it is assumed that either the panning mode or the long-time shooting mode is selected. When the shooting mode is selected, information on the selected shooting mode is input to the shooting condition setting unit 106. The shooting condition setting unit 106 sets shooting conditions according to the input shooting mode information. In step S101, the number of shots, exposure time, sensitivity, noise reduction level, etc. are set as imaging conditions. Details of setting the shooting conditions will be described later.

撮影条件が設定されると、処理制御部108は、撮像制御部1023を制御して撮影動作を実行する(ステップS102)。撮影者は、撮影モードが流し撮りであれば、動いている被写体を追従するように撮像装置100を動かしながら撮影を行う。また、撮影者は、撮影モードが手持ち長時間撮影であれば撮像装置100を手持ちで固定して撮影を行う。撮影時の開始後、処理制御部108は、ステップS101で設定された撮影条件でそれぞれの撮影が行われるように撮像制御部1023を制御する。撮像制御部1023は、設定された露光時間及び感度で撮像素子1022による撮像動作を撮影枚数分だけ実行させる。そして、撮像制御部1023は、各撮像動作で得られた画像に対して画像処理を施し、画像処理が施された画像を画像記憶部112に記憶させる。ここで、画像処理におけるノイズ低減レベルは、撮影条件として設定されたものが用いられる。設定された撮影枚数分の画像を画像記憶部112へ記憶させた後、撮像制御部1023は、撮影完了の情報を処理制御部108に入力する。   When the shooting condition is set, the processing control unit 108 controls the imaging control unit 1023 to execute a shooting operation (step S102). If the shooting mode is panning, the photographer performs shooting while moving the imaging apparatus 100 so as to follow a moving subject. In addition, if the shooting mode is handheld long-time shooting, the photographer performs shooting while fixing the imaging device 100 by hand. After the start of shooting, the processing control unit 108 controls the imaging control unit 1023 so that each shooting is performed under the shooting conditions set in step S101. The imaging control unit 1023 executes the imaging operation by the imaging element 1022 for the number of shots with the set exposure time and sensitivity. Then, the imaging control unit 1023 performs image processing on the image obtained by each imaging operation, and causes the image storage unit 112 to store the image subjected to the image processing. Here, the noise reduction level in the image processing is set as a shooting condition. After storing the set number of captured images in the image storage unit 112, the imaging control unit 1023 inputs information on completion of imaging to the processing control unit 108.

撮影完了の情報が入力されると、処理制御部108は、被写体判定部114に処理開始の指示を出すとともに撮影モードの情報を入力する。処理開始の指示を受けて、被写体判定部114は、画像記憶部112に記憶された各画像における被写体判定を行う(ステップS103)。被写体判定部114は、画像記憶部112に画像の取り出しの指示を出す。画像記憶部112は、指示を受け取ると、連写動作に従って記憶された複数の画像を1つずつ取り出して被写体判定部114に入力する。画像の入力を受けて、被写体判定部114は、入力された画像における主要被写体の領域と背景被写体の領域とをそれぞれ判定し、主要被写体及び背景被写体の領域情報を表す被写体/背景領域情報を生成する。また、被写体判定部114は、撮影モードの情報に基づいて動き推定対象領域情報を生成し、生成した動き推定対象領域情報を被写体/背景領域情報に付加する。動き推定対象領域情報は、動きベクトルの推定及びフィルタの適用に際し、主要被写体の領域と背景被写体の領域のどちらを使用するかを示す情報である。動き推定対象領域の情報としては、例えば撮影モードの情報を用いることが可能である。   When shooting completion information is input, the processing control unit 108 instructs the subject determination unit 114 to start processing and inputs shooting mode information. In response to the instruction to start processing, the subject determination unit 114 performs subject determination for each image stored in the image storage unit 112 (step S103). The subject determination unit 114 instructs the image storage unit 112 to extract an image. When receiving the instruction, the image storage unit 112 takes out a plurality of images stored according to the continuous shooting operation one by one and inputs them to the subject determination unit 114. Upon receiving the image input, the subject determination unit 114 determines the main subject region and the background subject region in the input image, and generates subject / background region information representing the main subject and background subject region information. To do. The subject determination unit 114 also generates motion estimation target region information based on the shooting mode information, and adds the generated motion estimation target region information to the subject / background region information. The motion estimation target region information is information indicating which of the main subject region and the background subject region is used when estimating a motion vector and applying a filter. As information on the motion estimation target area, for example, information on the shooting mode can be used.

画像記憶部112に記憶された全ての画像についての被写体判定が完了すると、被写体判定部114は、入力された各画像と各画像に対応付けられた被写体/背景領域情報を対象画像決定部116と動きベクトル推定部118とに送る。対象画像決定部116は、各画像の被写体/背景領域情報を解析し、入力された画像の中から、フィルタの適用対象とする対象画像を決定し、決定した対象画像を動きベクトル推定部118とフィルタ適用部122とに送る(ステップS104)。対象画像の決定手法の詳細については後で説明する。   When the subject determination for all the images stored in the image storage unit 112 is completed, the subject determination unit 114 sends the input images and subject / background region information associated with the images to the target image determination unit 116. To the motion vector estimation unit 118. The target image determination unit 116 analyzes subject / background region information of each image, determines a target image to be applied with the filter from the input images, and determines the determined target image as the motion vector estimation unit 118. The data is sent to the filter application unit 122 (step S104). Details of the target image determination method will be described later.

動きベクトル推定部118は、動き推定対象領域の情報に基づいて、対象画像決定部116から入力された対象画像と対象画像の撮影時刻に時間的に前後する撮影時刻を有する画像との間の被写体の動きベクトルを推定し、推定した動きベクトルをフィルタ構成部120に入力する(ステップS105)。例えば、流し撮りモードの場合は、撮影者は、動いている主要被写体に対して撮像装置100を追従させるよう動かす。したがって、画像上で見ると、主要被写体はほぼ静止しており、背景被写体は動いていると考えられる。静止している被写体に対しては動きぼけを付加する必要はない。したがって、流し撮りモードの場合には、背景被写体の領域の動きベクトルが推定されていればよい。勿論、主要被写体の領域の動きベクトルのほうも推定されてよい。一方、手持ち長時間撮影モードの場合、撮影者は、撮像装置100を手持ちで固定する。この場合、画像上で見ると、主要被写体は動く可能性があり、背景被写体は通常は固定されていると考えられる。したがって、手持ち長時間撮影モードの場合には、主要被写体の領域の動きベクトルが推定されていればよい。勿論、背景被写体の領域の動きベクトルのほうも推定されてよい。また、動きベクトルの推定単位は、画素単位又は複数の近接する画素で構成されるブロック単位(例えば5×5画素等)である。このような動きベクトル推定の詳細については後で説明する。   The motion vector estimation unit 118, based on the information of the motion estimation target region, the subject between the target image input from the target image determination unit 116 and an image having a shooting time that is temporally around the shooting time of the target image. And the estimated motion vector is input to the filter configuration unit 120 (step S105). For example, in the panning mode, the photographer moves the imaging device 100 to follow the moving main subject. Therefore, when viewed on the image, it is considered that the main subject is almost stationary and the background subject is moving. There is no need to add motion blur to a stationary subject. Therefore, in the panning mode, it is only necessary to estimate the motion vector of the background subject area. Of course, the motion vector of the area of the main subject may be estimated. On the other hand, in the hand-held long-time shooting mode, the photographer fixes the imaging device 100 by hand. In this case, when viewed on the image, the main subject may move, and the background subject is usually considered to be fixed. Therefore, in the handheld long-time shooting mode, it is only necessary to estimate the motion vector of the main subject area. Of course, the motion vector of the background subject area may also be estimated. The motion vector estimation unit is a pixel unit or a block unit composed of a plurality of adjacent pixels (for example, 5 × 5 pixels). Details of such motion vector estimation will be described later.

動きベクトルが入力されると、フィルタ構成部120は、動きベクトルに応じてフィルタを構成し、構成したフィルタの情報をフィルタ適用部122に入力する(ステップS106)。フィルタ構成部120で構成されるフィルタは、動きベクトル(方向及び大きさ)に応じて画像に平滑化をかける平滑化フィルタである。フィルタは、動きベクトルの推定単位で持たせるようにする。したがって、動きベクトルが推定されていない領域には、フィルタは構成されない。フィルタを構成する処理の詳細については後で詳しく説明する。   When the motion vector is input, the filter configuration unit 120 configures a filter according to the motion vector, and inputs information about the configured filter to the filter application unit 122 (step S106). The filter configured by the filter configuration unit 120 is a smoothing filter that smoothes an image in accordance with a motion vector (direction and size). The filter is provided with a motion vector estimation unit. Therefore, no filter is formed in the region where the motion vector is not estimated. Details of the processing that constitutes the filter will be described in detail later.

フィルタの情報が入力されると、フィルタ適用部122は、対象画像決定部116で決定された対象画像に対してフィルタ処理(動きぼけ付加)を行う(ステップS107)。そして、フィルタ適用部122は、フィルタ処理後の画像を出力デバイスに出力する(ステップS108)。出力デバイスとは、例えば画像の表示のためのデバイスであるディスプレイや画像の記録のためのデバイスであるメモリカードである。   When the filter information is input, the filter application unit 122 performs filter processing (motion blur addition) on the target image determined by the target image determination unit 116 (step S107). Then, the filter application unit 122 outputs the filtered image to the output device (step S108). The output device is, for example, a display that is a device for displaying an image or a memory card that is a device for recording an image.

[連写動作]
撮影条件の設定及び連写動作についてさらに説明する。図3は、流し撮りによって得られる画像の例を示す図である。図3(a)は、理想的な流し撮りによって得られる画像である。主要被写体は手前の車、背景被写体は奥にある木や建物である。流し撮りでは、動いている主要被写体を追従するように撮像装置100が動かされながら撮影が行われる。ここで、理想的な流し撮りでは、露光中に動いている主要被写体が画像上で静止している。このため、画像上では主要被写体以外の背景被写体が動きによりぼけた状態になる。しかしながら、理想的な流し撮りは熟練した技術をもたない撮影者には困難である。特に、撮影者による手持ちでの流し撮りでは、手ぶれが起きやすい。手ぶれが起きてしまうと、図3(b)に示すように本来はぶれてほしくない主要被写体もぶれてしまう。
[Continuous shooting]
The setting of shooting conditions and the continuous shooting operation will be further described. FIG. 3 is a diagram illustrating an example of an image obtained by panning. FIG. 3A shows an image obtained by ideal panning. The main subject is the car in front, and the background subject is a tree or building in the back. In panning, shooting is performed while the imaging apparatus 100 is moved so as to follow a moving main subject. Here, in ideal panning, the main subject moving during exposure is stationary on the image. For this reason, the background subject other than the main subject is blurred by the movement on the image. However, ideal panning is difficult for photographers without skilled skills. In particular, camera shake tends to occur in hand-held panning shots by photographers. When camera shake occurs, as shown in FIG. 3B, the main subject that is not desired to be shaken is also shaken.

本実施形態では、図4に示すようにScene1、Scene2、Scene3と連続的に短時間の露光を繰り返して画像を得る。これにより手持ち撮影でも、動いている主要被写体のぶれを大幅に抑制できる。一方で、露光時間を短くした場合、背景被写体の動きが感じられなくなってしまう。背景被写体に関しては、動きベクトルに応じた平滑化を適用することによってぼけを付加する。この処理がステップS107の処理である。   In the present embodiment, as shown in FIG. 4, images are obtained by repeating short-time exposure continuously with Scene 1, Scene 2, and Scene 3. As a result, even in hand-held shooting, it is possible to greatly suppress blurring of a moving main subject. On the other hand, when the exposure time is shortened, the movement of the background subject cannot be felt. The background subject is blurred by applying smoothing according to the motion vector. This process is the process of step S107.

また、露光時間を短くした場合、画像が暗くなる。画像の明るさを適正なものとする手法の1つとして、撮像素子1022の感度(撮像素子1022で得られる信号の増幅率)を上げる手法が考えられる。ただし、撮像素子1022の感度を上げると画像におけるノイズが目立つようになってしまう。そこで、感度に応じてノイズ低減処理におけるノイズ低減レベルを高めることにより、画像におけるノイズを低減する。   Further, when the exposure time is shortened, the image becomes dark. As one of the techniques for making the brightness of the image appropriate, a technique for increasing the sensitivity of the image sensor 1022 (amplification factor of a signal obtained by the image sensor 1022) is conceivable. However, when the sensitivity of the image sensor 1022 is increased, noise in the image becomes conspicuous. Therefore, noise in the image is reduced by increasing the noise reduction level in the noise reduction processing according to the sensitivity.

連写動作の撮影条件が自動で設定される場合、ぶれを抑制するために、連写動作における1回の露光時間tは極力短く設定される。好ましくは、露光時間は、手ぶれ限界と言われる時間よりも短く設定される。手ぶれ限界は、手ぶれを起こさない限界とされる露光時間の目安であり、1/(レンズの焦点距離(mm))秒である。この場合レンズの焦点距離は35mmフィルム換算で定義される。ここで、主要被写体の明るさを撮像装置100に設定されている適正な明るさとするために必要な露光時間Tは、レンズの絞りを固定とすると周知の自動露光量(AE)演算によって算出される。したがって、撮影枚数Nは(T/t)枚である。しかし1回の露光時間がtであると、明るさが不足する。この明るさの不足は、感度を上げることによって補われる。すなわち、感度は、(T/t)倍=N倍に設定される。また、ノイズ低減レベルは感度の上昇に応じて設定される。これにより、理想的には、主要被写体の明るさが適正な明るさを有する画像をN枚分得ることができる。なお、撮影条件は、撮影者による手動操作によって設定されてもよい。   When the shooting conditions for the continuous shooting operation are automatically set, in order to suppress blurring, the single exposure time t in the continuous shooting operation is set as short as possible. Preferably, the exposure time is set shorter than the time referred to as a camera shake limit. The camera shake limit is a measure of the exposure time that is the limit at which camera shake does not occur, and is 1 / (lens focal length (mm)) second. In this case, the focal length of the lens is defined in terms of 35 mm film. Here, the exposure time T necessary for setting the brightness of the main subject to an appropriate brightness set in the imaging apparatus 100 is calculated by a known automatic exposure (AE) calculation when the lens aperture is fixed. The Therefore, the number of shots N is (T / t). However, if the exposure time for one exposure is t, the brightness is insufficient. This lack of brightness is compensated by increasing the sensitivity. That is, the sensitivity is set to (T / t) times = N times. The noise reduction level is set according to the increase in sensitivity. Thus, ideally, N images having the appropriate brightness of the main subject can be obtained. Note that the shooting conditions may be set by a manual operation by the photographer.

[被写体判定方法]
被写体判定の方法についてさらに説明する。図5は、ステップS103の被写体判定の概要を示す図である。本実施形態では、撮像部102の連写動作によって画像記憶部112に記憶されている一連の画像のそれぞれについて主要被写体と主要被写体以外(背景被写体)とが判定される。判定には、例えば周知の画像認識手法が用いられる。このために、事前に動きを伴うオブジェクト(乗り物、人物、動物等)の画像特徴量が情報記録部110に登録されている。判定の際には、連写動作によって得られた各画像から画像特徴量が算出され、この算出した特徴量が予め定めた判定ルールに基づいて各オブジェクトの画像特徴量と比較される。そして、画像特徴量が最も類似しているオブジェクトが画像内の被写体であると判定され、各被写体の領域を示す2値画像が被写体/背景領域情報となる。ここで、情報記録部110に登録する画像特徴量は、学習によって逐次更新されるようにしてよい。
[Subject judgment method]
The subject determination method will be further described. FIG. 5 is a diagram showing an outline of subject determination in step S103. In the present embodiment, the main subject and other than the main subject (background subject) are determined for each of a series of images stored in the image storage unit 112 by the continuous shooting operation of the imaging unit 102. For the determination, for example, a known image recognition method is used. For this purpose, image feature amounts of objects (vehicles, people, animals, etc.) that accompany movement are registered in the information recording unit 110 in advance. In the determination, an image feature amount is calculated from each image obtained by the continuous shooting operation, and the calculated feature amount is compared with the image feature amount of each object based on a predetermined determination rule. Then, it is determined that the object having the most similar image feature amount is a subject in the image, and a binary image indicating the region of each subject becomes subject / background region information. Here, the image feature amount registered in the information recording unit 110 may be sequentially updated by learning.

図5は、連写動作により得られた複数の画像(Scene1〜Scene3の3枚)のそれぞれに対して主要被写体である車(Car)の領域と背景被写体である木(Tree)及び家(House)の領域が認識された例を表している。また、図5は、認識された被写体が主要被写体(main)か背景被写体(back)かが示されている。ここで、主要被写体は、前方に位置している(他の被写体によって隠されていない)又は画像認識における動きを伴うオブジェクトである等の条件に一致するものが採用される。また、本実施形態では、「主要被写体」と「背景被写体」とが区別できればよいので、図5の木(Tree)や家(House)が「背景被写体」として一つの領域とみなしてもよい。この場合において、例えば画像における最も前方の被写体を主要被写体とし、その他を背景被写体とするという簡易的な被写体判定であれば、詳細な画像認識手法を用いなくてもよい。   FIG. 5 shows the area of the car (Car) that is the main subject, the tree (Tree) that is the background subject, and the house (House) for each of a plurality of images (Scene 1 to Scene 3) obtained by the continuous shooting operation. ) Area is recognized. FIG. 5 shows whether the recognized subject is a main subject (main) or a background subject (back). Here, the main subject that matches the condition such as being located in front (not hidden by other subjects) or being an object with movement in image recognition is adopted. In the present embodiment, it is only necessary to distinguish the “main subject” from the “background subject”. Therefore, the tree (Tree) and the house (House) in FIG. 5 may be regarded as one region as the “background subject”. In this case, for example, if the subject determination is simple such that the foreground subject in the image is the main subject and the other subject is the background subject, a detailed image recognition method may not be used.

図5に示す画像は、短時間の露光時間かつ高感度でノイズが低減されて得られた画像である。したがって、撮像装置100や主要被写体の動きによる被写体ぶれの影響が極力抑えられている。故に、被写体ぶれに影響されることがなく、高精度の被写体判定が行われる。   The image shown in FIG. 5 is an image obtained by reducing noise with a short exposure time and high sensitivity. Therefore, the influence of subject blurring due to the movement of the imaging device 100 and the main subject is minimized. Therefore, highly accurate subject determination is performed without being affected by subject shake.

[対象画像決定方法]
対象画像の決定方法についてさらに説明する。図6は、ステップS104の対象画像決定の処理を示すフローチャートである。図6の例は、画面の構図を決定する際に用いられる三分割法に基づき主要被写体が画面上の理想位置に最も近い位置に存在している画像を対象画像とする例である。
[Target image determination method]
The method for determining the target image will be further described. FIG. 6 is a flowchart showing the target image determination process in step S104. The example of FIG. 6 is an example in which the target image is an image in which the main subject is present at a position closest to the ideal position on the screen based on the three-division method used when determining the composition of the screen.

図6において、対象画像決定部116は、処理に必要な変数を初期化する(ステップS201)。具体的には、対象画像決定部116は、処理対象の画像枚数を示すNを画像記憶部112に記憶されている画像の枚数(撮影枚数と一致)に、画像の参照順序をカウントするための画像参照カウンタCを1に、対象画像決定時の基準となる最小重心距離を画像サイズ(画素単位で計算上算出されない大きな値として)に、対象画像となる画像の順番を表す対象画像番号Pを0にそれぞれ初期化する。   In FIG. 6, the target image determination unit 116 initializes variables necessary for processing (step S201). Specifically, the target image determination unit 116 counts the reference order of images by N indicating the number of images to be processed as the number of images stored in the image storage unit 112 (matches the number of captured images). The image reference counter C is set to 1, the minimum center-of-gravity distance serving as a reference at the time of determining the target image is set to the image size (as a large value that is not calculated in pixel units), and the target image number P representing the order of the target image is set to Initialize to 0 respectively.

変数の初期化の後、対象画像決定部116は、ステップS202からのループ処理を実行する。ループ処理の開始として、対象画像決定部116は、順序がC番目の画像及びC番目の画像に対応付けられた被写体/背景領域情報を読み出す(ステップS202)。続いて、対象画像決定部116は、被写体/背景領域情報から、主要被写体の領域における重心位置を算出する(ステップS203)。重心位置は、例えば画像の画素単位で算出される。   After the initialization of the variable, the target image determination unit 116 executes a loop process from step S202. As the start of the loop process, the target image determination unit 116 reads out the C-th image in the order and the subject / background area information associated with the C-th image (step S202). Subsequently, the target image determination unit 116 calculates the center-of-gravity position in the main subject region from the subject / background region information (step S203). The barycentric position is calculated, for example, in pixel units of the image.

その後、対象画像決定部116は、算出した重心位置と予め設定されている複数の理想被写体重心位置との距離をそれぞれ算出する。そして、対象画像決定部116は、算出した距離の中で最小となるものをC番目の画像に対応した重心距離とする(ステップS204)。続いて、対象画像決定部116は、C番目の画像に対応した重心距離が最小重心距離よりも短いか否かを判定する(ステップS205)。C番目の画像に対応した重心距離が最小重心距離以上である場合、対象画像決定部116は、最小重心距離の置き換えを行わない。一方、C番目の画像に対応した重心距離が最小重心距離よりも短い場合、対象画像決定部116は、最小重心距離をC番目の画像に対応した重心距離に置き換える。また、対象画像決定部116は、対象画像番号Pに現在の画像参照カウンタCの値を設定する(ステップS206)。そして、対象画像決定部116は、次の順序の画像を読み出す準備として、画像参照カウンタCをインクリメントする(ステップS207)。   Thereafter, the target image determination unit 116 calculates the distance between the calculated center of gravity position and a plurality of preset ideal subject center of gravity positions. Then, the target image determination unit 116 sets the smallest calculated distance as the center-of-gravity distance corresponding to the C-th image (step S204). Subsequently, the target image determination unit 116 determines whether or not the centroid distance corresponding to the Cth image is shorter than the minimum centroid distance (step S205). When the centroid distance corresponding to the C-th image is equal to or greater than the minimum centroid distance, the target image determination unit 116 does not replace the minimum centroid distance. On the other hand, when the centroid distance corresponding to the Cth image is shorter than the minimum centroid distance, the target image determination unit 116 replaces the minimum centroid distance with the centroid distance corresponding to the Cth image. Further, the target image determination unit 116 sets the current value of the image reference counter C to the target image number P (step S206). Then, the target image determination unit 116 increments the image reference counter C in preparation for reading out the next sequence of images (step S207).

ループ処理の終了判定として、対象画像決定部116は、画像参照カウンタCが処理対象の画像枚数Nより大きいか否かを判定する(ステップS208)。画像参照カウンタCが処理対象の画像枚数Nよりも大きい場合、対象画像決定部116は、ループ処理を終了させる。画像参照カウンタCが処理対象の画像枚数N以下の場合、対象画像決定部116は、ループ処理の開始であるステップS202に処理を移す。   As the end determination of the loop processing, the target image determination unit 116 determines whether or not the image reference counter C is larger than the number N of processing target images (step S208). When the image reference counter C is larger than the number N of images to be processed, the target image determination unit 116 ends the loop process. When the image reference counter C is equal to or smaller than the number of images to be processed N, the target image determination unit 116 shifts the processing to step S202, which is the start of the loop processing.

ループ処理を終了させた後、対象画像決定部116は、最小重心距離に対応したP番目の画像を処理の対象画像に決定する(ステップ209)。   After completing the loop process, the target image determination unit 116 determines the P-th image corresponding to the minimum center-of-gravity distance as the target image for processing (step 209).

図7は、三分割法による理想被写体重心位置を表す図である。三分割法の場合、画面を3×3に等分割するグリッドラインが設定される。理想被写体重心位置G0は、グリッドラインが交差している4点である。したがって、主要被写体の領域の重心位置との距離は4点の理想被写体重心位置分だけ算出され、このうち最小となるものがステップS204のC番目の重心距離である。   FIG. 7 is a diagram showing the ideal subject gravity center position by the three-division method. In the case of the three-division method, grid lines that equally divide the screen into 3 × 3 are set. The ideal subject center-of-gravity position G0 is the four points where the grid lines intersect. Accordingly, the distance from the center of gravity of the area of the main subject is calculated for the four ideal subject center of gravity positions, and the smallest of these is the C-th center of gravity distance in step S204.

図8は、連写動作によって得られた3画像(Scene1、Scene2、Scene3)に対して算出される実際の主要被写体の領域から算出される重心位置G1と理想被写体重心位置G0との関係を示す図である。図8の例において、各画像の重心距離を比較すると、Scene2の画像がG0とG1との距離が最も小さくなる。したがって、Scene2の画像が対象画像として決定される。   FIG. 8 shows the relationship between the gravity center position G1 calculated from the actual main subject area calculated for the three images (Scene1, Scene2, Scene3) obtained by the continuous shooting operation and the ideal subject gravity center position G0. FIG. In the example of FIG. 8, when the gravity center distances of the images are compared, the distance between G0 and G1 is the smallest for the image of Scene2. Therefore, the image of Scene2 is determined as the target image.

[動きベクトル推定]
動きベクトル推定についてさらに説明する。図9(a)は、動きベクトル推定部118で設定される動き推定対象のブロックを示す図である。動き推定対象のブロックは、被写体/背景領域情報に付加された動き推定対象領域情報(例えば、撮影モードの情報)に従って設定される。例えば、撮影モードが流し撮りモードの場合、動き推定対象は背景被写体の領域である。したがって、図9(a)に示すように、Scene2の画像における主要被写体の領域(図9(a)のmain)以外の背景被写体の領域に対し動きベクトルの推定単位(正方サイズのブロック;例えば5×5画素)が定義される。図9(b)は、動きベクトル推定単位ブロックを実際の画像(Scene2)に重ねて示した図である。図9(b)で示す主要被写体の領域(図9(b)のmain)以外の各ブロックについて動きベクトルが推定される。動きベクトルは、対象画像である画像Scene2の撮影時刻よりも時間的に1つ前の撮影時刻に撮影された画像(Scene1)との間での背景被写体の画像上での移動方向及び移動量である。すなわち、Scene1の画像における背景被写体がScene2の画像のどの領域に存在しているかをパターンマッチング等の手法を用いて探索することによって両画像の間の背景被写体の領域の動きベクトルを推定することができる。
[Motion vector estimation]
The motion vector estimation will be further described. FIG. 9A is a diagram illustrating a motion estimation target block set by the motion vector estimation unit 118. The motion estimation target block is set according to the motion estimation target area information (for example, information on the shooting mode) added to the subject / background area information. For example, when the shooting mode is the panning mode, the motion estimation target is the background subject area. Therefore, as shown in FIG. 9A, the motion vector estimation unit (square size block; for example, 5) for the background subject area other than the main subject area (main in FIG. 9A) in the Scene 2 image; X5 pixels) is defined. FIG. 9B shows the motion vector estimation unit block superimposed on the actual image (Scene2). A motion vector is estimated for each block other than the main subject area shown in FIG. 9B (main in FIG. 9B). The motion vector is a moving direction and a moving amount on the background subject image with respect to the image (Scene1) captured at the photographing time one time before the photographing time of the image Scene2 as the target image. is there. That is, it is possible to estimate the motion vector of the background subject area between the two images by searching in which area of the Scene2 image the background subject exists in the Scene1 image using a method such as pattern matching. it can.

なお、動きベクトルの推定には、対象画像が撮影された時刻より1つ前の時刻に撮影された画像が最低限必要である。一方で、主要被写体により背景被写体の一部が隠されてしまうことで、対応する背景被写体が探索できずに動きベクトルを推定できない可能性がある。したがって、背景全体についての動きベクトルが推定できるよう、他の時刻の画像、例えば対象画像の撮影時刻よりも1つ後の時刻に撮影された画像(Scene3)、対象画像の撮影時刻の前の前の撮影時刻に撮影された画像、対象画像の撮影時刻の後の後の撮影時刻に撮影された画像をも使うようにしてよい。多くの画像を使用することで上述の隠れによる影響やノイズ起因による、信頼性の低い動きベクトルを除去することができる。   For estimation of the motion vector, an image taken at the time one time before the time when the target image was taken is at least required. On the other hand, since a part of the background subject is hidden by the main subject, there is a possibility that the corresponding background subject cannot be searched and the motion vector cannot be estimated. Therefore, in order to be able to estimate the motion vector for the entire background, an image taken at another time, for example, an image taken at a time immediately after the shooting time of the target image (Scene 3), before the shooting time of the target image. Alternatively, an image taken at the shooting time and an image taken at a shooting time after the shooting time of the target image may be used. By using a large number of images, it is possible to remove motion vectors with low reliability due to the effects of the above-described hiding and noise.

[動きベクトルからのフィルタ構成方法]
動きベクトルからのフィルタ構成方法についてさらに説明する。例として、図10に示すようにして動きベクトルが推定されたものとする。このとき、背景被写体である家(back1)の一部分(ブロック)と木(back2)の一部分に着目する。なお、図10の例では、撮影者からの距離は、木より家の方が離れているものとする。ここで、撮影者は、画面内を右から左に移動する車(主要被写体)を流し撮りしようとして撮像装置100をパンニングさせたとする。一般に、撮像装置100の動きに対する画像上での背景被写体の動きは、距離が近い被写体ほど大きく、距離が遠い被写体ほど小さくなることが知られている。したがって、図10の例では、家のブロックの動きベクトルの大きさは、木のブロックの動きベクトルの大きさに比べて小さい。また、画面上部にある家のブロックの動きベクトルの方向は右下方向と推定され、画面下部にある木のブロックの動きベクトルの方向は右上方向と推定される。結果として、図10では家のブロックBL1の動きベクトルはV1となり、木のブロックBL2の動きベクトルはV2となる。
[Filter construction method from motion vectors]
A filter construction method from motion vectors will be further described. As an example, assume that a motion vector is estimated as shown in FIG. At this time, attention is paid to a part (block) of the house (back1) and a part of the tree (back2) which are background subjects. In the example of FIG. 10, the distance from the photographer is assumed to be farther away from the house than from the tree. Here, it is assumed that the photographer pans the image capturing apparatus 100 in an attempt to pan the car (main subject) that moves from right to left on the screen. In general, it is known that the movement of the background subject on the image with respect to the movement of the imaging apparatus 100 is larger as the subject is closer and is smaller as the subject is farther away. Therefore, in the example of FIG. 10, the magnitude of the motion vector of the house block is smaller than the magnitude of the motion vector of the tree block. The direction of the motion vector of the house block at the top of the screen is estimated as the lower right direction, and the direction of the motion vector of the tree block at the bottom of the screen is estimated as the upper right direction. As a result, in FIG. 10, the motion vector of the house block BL1 is V1, and the motion vector of the tree block BL2 is V2.

図10のようにして得られた動きベクトルを用いて動きぼけを表す平滑化フィルタが構成される。具体的には、動きベクトルの始点を中心とし、動きベクトルの大きさに合わせる形でフィルタのカーネルサイズが決定される。例えば、図11(a)に示すように、家のブロックBL1の動きベクトルが右方向に3ブロック、下方向に1ブロックのベクトルであるとすると、家に対して適用するフィルタのカーネルサイズはブロック数が大きい方向(右方向)のブロック数(3)に基づき7×7(=3+3+1)に決定される。また、図11(b)に示すように、木のブロックBL2の動きベクトルが右方向に5ブロック、上方向に1ブロックのベクトルであるとすると、木に対して適用するフィルタのカーネルサイズはブロック数が大きい方向(右方向)のブロック数(5)に基づき11×11(=5+5+1)に決定される。   A smoothing filter representing motion blur is configured using the motion vector obtained as shown in FIG. Specifically, the kernel size of the filter is determined so as to match the magnitude of the motion vector with the start point of the motion vector as the center. For example, as shown in FIG. 11A, if the motion vector of the house block BL1 is a vector of 3 blocks in the right direction and 1 block in the downward direction, the kernel size of the filter applied to the house is a block. 7 × 7 (= 3 + 3 + 1) is determined based on the number of blocks (3) in the larger direction (right direction). Further, as shown in FIG. 11B, if the motion vector of the tree block BL2 is a vector of 5 blocks in the right direction and 1 block in the upward direction, the kernel size of the filter applied to the tree is the block size. The number is determined to be 11 × 11 (= 5 + 5 + 1) based on the number of blocks (5) in the larger direction (right direction).

フィルタのカーネルサイズが決定したところで動きベクトルが合わせられ、動きベクトルがかかる画素に対してフィルタ要素を持たせるような平滑化フィルタが構成される。図12(a)に示すように、家のブロックBL1に対して適用されるフィルタについては、中心を含んで右下方向の4画素にフィルタ要素を持たせる。また、図12(b)に示すように、木のブロックBL2に対して適用されるフィルタについては、中心を含んで右上方向の6画素にフィルタ要素を持たせる。平滑化フィルタであるので、総数が1となるようにフィルタ要素が構成される。すなわち、家のブロックBL1に対して適用されるフィルタのフィルタ要素は1/4であり、木のブロックBL2に対して適用されるフィルタのフィルタ要素は1/6である。このようにして構成されたフィルタがブロック内の画素に関するフィルタである。同様の方法を用いて、動きベクトルが推定された全てのブロックに対してフィルタが構成される。これにより、平滑化は、フィルタ要素の配列方向と中心対称の方向について効果を与える。すなわち、家のブロックBL1についてフィルタが適用された場合、左上に動いているような動きぼけが付加される。また、木のブロックBL2についてフィルタが適用された場合、左下に動いているような動きぼけが付加される。   When the kernel size of the filter is determined, the motion vectors are combined, and a smoothing filter is configured so as to have a filter element for the pixels to which the motion vector is applied. As shown in FIG. 12A, the filter applied to the house block BL1 is provided with filter elements in the four pixels in the lower right direction including the center. Also, as shown in FIG. 12B, the filter applied to the block BL2 of the tree is provided with filter elements in the six pixels in the upper right direction including the center. Since it is a smoothing filter, the filter elements are configured so that the total number is 1. That is, the filter element of the filter applied to the house block BL1 is 1/4, and the filter element of the filter applied to the tree block BL2 is 1/6. The filter configured in this way is a filter related to the pixels in the block. Using a similar method, filters are constructed for all blocks for which motion vectors have been estimated. As a result, the smoothing has an effect on the direction of center symmetry with the arrangement direction of the filter elements. That is, when the filter is applied to the house block BL1, motion blur that moves to the upper left is added. Further, when the filter is applied to the block BL2 of the tree, motion blur that moves to the lower left is added.

ここで、図12の例では、複数の画素に対して一律に平滑化がかかるようにフィルタ要素が決められている。これに対し、注目画素に重みをおいた平滑化がかかるようにフィルタ要素が決定されてもよい。この場合、中央から離れるに従ってフィルタ要素の値を小さくする。このようなフィルタが適用された場合、元のパターンがある程度見える形で動いているような動きぼけが付加される。このような動きぼけにより、被写体の動きが強調される。   Here, in the example of FIG. 12, the filter elements are determined so that smoothing is uniformly applied to a plurality of pixels. On the other hand, the filter element may be determined so as to apply the weighting to the target pixel. In this case, the value of the filter element is decreased as the distance from the center increases. When such a filter is applied, motion blur is added so that the original pattern moves to a certain degree. Such motion blur enhances the motion of the subject.

[フィルタ適用方法]
フィルタの適用方法についてさらに説明する。ここでは、例として主要被写体である車と背景被写体である木との境界におけるフィルタの適用方法について説明する。被写体判定部114によって画像における主要被写体の領域と背景被写体の領域がそれぞれ判定されている。しかしながら、主要被写体の領域と背景被写体の領域との境界は必ずしも明確に判定されるとは限らない。また、主要被写体の領域と背景被写体の領域との境界付近で急激に平滑化フィルタが適用されてしまうと、処理後の画像の違和感が大きくなることが考えられる。そこで、本実施形態では、境界付近では平滑化フィルタの効果(フィルタの強度)を主要被写体からの距離に応じて徐々に強めるよう変化させることで画像の違和感を抑制する。例えば図13(a)に示す車と木の境界部に対しては、図13(b)に示すような該当領域のフィルタカーネルに応じた複数(図では4つ)の境界領域(マージン領域)が設けられる。この複数の境界領域では、カーネルサイズ及びフィルタ要素の値が異なる平滑化フィルタがそれぞれ適用される。そして、境界部を超えた木の領域に対しては図12(b)で示した平滑化フィルタが適用される。
[Filter application method]
A method for applying the filter will be further described. Here, as an example, a method of applying a filter at the boundary between a car that is a main subject and a tree that is a background subject will be described. The subject determination unit 114 determines the main subject region and the background subject region in the image. However, the boundary between the main subject region and the background subject region is not always determined clearly. Further, if the smoothing filter is suddenly applied in the vicinity of the boundary between the main subject region and the background subject region, it is possible that the sense of discomfort in the processed image increases. Therefore, in this embodiment, the discomfort of the image is suppressed by changing the smoothing filter effect (filter strength) gradually in accordance with the distance from the main subject near the boundary. For example, for the boundary between the car and the tree shown in FIG. 13A, a plurality (four in the figure) of boundary areas (margin areas) corresponding to the filter kernel in the corresponding area as shown in FIG. 13B. Is provided. In the plurality of boundary regions, smoothing filters having different kernel sizes and different filter element values are applied. And the smoothing filter shown in FIG.12 (b) is applied with respect to the area | region of the tree beyond the boundary part.

図14は、それぞれの境界領域に適用される平滑化フィルタカーネルの構成を示す図である。第1境界領域では、図14(a)に示すように平滑化フィルタのカーネルサイズが3×3に設定される。以降、第2境界領域では図14(b)に示すように5×5、第3境界領域では図14(c)に示すように7×7、第4境界領域では図14(d)に示すように9×9というように主要被写体から離れるに従ってフィルタのカーネルサイズが大きくなる。また、フィルタのカーネルサイズが大きくなるのに従ってフィルタ要素の値も変えていく。これにより被写体から離れるに従ってフィルタの強度が大きくなり、これに伴って平滑化の効果も大きくなる。   FIG. 14 is a diagram illustrating a configuration of a smoothing filter kernel applied to each boundary region. In the first boundary region, the kernel size of the smoothing filter is set to 3 × 3 as shown in FIG. Thereafter, the second boundary region is 5 × 5 as shown in FIG. 14B, the third boundary region is 7 × 7 as shown in FIG. 14C, and the fourth boundary region is shown in FIG. 14D. Thus, the kernel size of the filter increases as the distance from the main subject increases, such as 9 × 9. Also, the filter element value is changed as the filter kernel size increases. As a result, the strength of the filter increases as the distance from the subject increases, and the smoothing effect increases accordingly.

図15は、境界領域を設定するための処理を示すフローチャートである。ここでは、主要被写体の領域に対するモルフォロジ演算を用いて各境界領域が設定される。フィルタ適用部122は、処理に必要な変数を初期化する(ステップS301)。具体的には、フィルタ適用部122は、平滑化フィルタの最大サイズを示すFsをフィルタ構成部120で生成された平滑化フィルタのサイズに、主要被写体の領域を膨張させる回数を示すCを1に初期化する。また、フィルタ適用部122は、主要被写体の領域情報Imgにこの領域情報を表す2値画像を設定する。   FIG. 15 is a flowchart showing a process for setting a boundary region. Here, each boundary region is set using a morphological operation on the region of the main subject. The filter application unit 122 initializes variables necessary for processing (step S301). Specifically, the filter application unit 122 sets Fs, which indicates the maximum size of the smoothing filter, to the size of the smoothing filter generated by the filter configuration unit 120, and C, which indicates the number of times of expanding the main subject region, to 1. initialize. Further, the filter application unit 122 sets a binary image representing the region information in the region information Img of the main subject.

変数の初期化の後、フィルタ適用部122は、ステップS302からのループ処理を実行する。ループ処理の開始として、フィルタ適用部122は、膨張回数Cがフィルタの最大サイズに基づく値Fs/2−1よりも小さいか否かを判定する(ステップS302)。CがFs/2−1よりも小さい場合、フィルタ適用部122はステップS303以降の処理を実行する。CがFs/2−1以上である場合し、フィルタ適用部122はループ処理を終了させる。図15の例では、Fsが3×3よりも大きい場合にループ処理が実行される。   After the variable initialization, the filter application unit 122 executes a loop process from step S302. As the start of the loop processing, the filter application unit 122 determines whether or not the number of expansions C is smaller than a value Fs / 2-1 based on the maximum filter size (step S302). When C is smaller than Fs / 2-1, the filter application unit 122 executes the processing after step S303. When C is Fs / 2-1 or more, the filter application unit 122 ends the loop process. In the example of FIG. 15, the loop process is executed when Fs is larger than 3 × 3.

フィルタ適用部122は、2値画像Imgに対してBinaryのDilation(膨張)演算を実行し、その結果である2値画像Img−Prcを自身が有する画像バッファに記憶させる(ステップS303)。Dilationの構造要素は3×3の8近傍とする。続いて、フィルタ適用部122は、画像バッファに記憶された2値画像Img−prcと2値画像Imgとの差分を算出する(ステップS304)。この差分の算出は、直前のDilation演算で膨張された画素を取り出すために行われる。   The filter application unit 122 executes a binary dilation operation on the binary image Img, and stores the binary image Img-Prc as a result in the image buffer of the filter application unit 122 (step S303). The structure element of Dilation is 3 × 3 and 8 neighborhoods. Subsequently, the filter application unit 122 calculates a difference between the binary image Img-prc and the binary image Img stored in the image buffer (step S304). This difference is calculated in order to take out the pixel expanded by the previous Dilation operation.

続いて、フィルタ適用部122は、差分を算出することで取り出された2値の差分画像をC番目の境界領域を示す情報として記憶する(ステップS305)。その後、フィルタ適用部122は、2値画像Imgを先のDilation演算で生成された2値画像Img−Prcに置換する(ステップS306)。このとき、2値画像Imgは、主要被写体の領域に対するC回の膨張演算画像となる。続いて、フィルタ適用部122は、膨張回数Cをインクリメントし(ステップS307)、ステップS308において処理を戻す。   Subsequently, the filter application unit 122 stores the binary difference image extracted by calculating the difference as information indicating the C-th boundary region (step S305). Thereafter, the filter application unit 122 replaces the binary image Img with the binary image Img-Prc generated by the previous Dilation operation (step S306). At this time, the binary image Img is a C-expansion operation image for the area of the main subject. Subsequently, the filter application unit 122 increments the number of expansions C (step S307), and returns the process in step S308.

ループ処理の終了後、フィルタ適用部122は、必要な境界領域情報が得られたと判断し、全ての境界領域を示す情報を統合する(ステップS309)。ここで、図15の処理の場合、境界領域を示す情報は平滑化フィルタの最大サイズに依存する個数分だけ設定される。実際の適用では、全ての境界領域情報が使用されない場合もある。例えば、家と車の境界部の場合、家に関する平滑化フィルタのサイズは7×7なので図14(b)で示した第3境界領域及び第4境界領域は使用されない。   After the end of the loop processing, the filter application unit 122 determines that necessary boundary area information has been obtained, and integrates information indicating all boundary areas (step S309). Here, in the case of the processing of FIG. 15, the information indicating the boundary region is set by the number depending on the maximum size of the smoothing filter. In actual application, not all boundary area information may be used. For example, in the case of the boundary between a house and a car, the size of the smoothing filter related to the house is 7 × 7, so the third boundary area and the fourth boundary area shown in FIG. 14B are not used.

以上説明したように第1の実施形態においては主要被写体の領域や背景被写体の領域毎の動きの大きさに応じて平滑化の程度を変えるようにしている。これにより、手ぶれ等の影響を受けることもなく、図3(a)で示したような主要被写体がぶれなく、背景被写体のみが動いているようにぼけて動きが強調される画像を生成することができる。処理対象の画像に対してのみに平滑化フィルタを適用すればよく、動きぼけを付加するために画像の合成処理等が不要である。   As described above, in the first embodiment, the degree of smoothing is changed in accordance with the magnitude of movement for each of the main subject area and the background subject area. As a result, it is possible to generate an image that is not affected by camera shake and the like, and the main subject as shown in FIG. Can do. A smoothing filter may be applied only to the image to be processed, and no image synthesis processing or the like is required to add motion blur.

また、本実施形態では、主要被写体の領域や背景被写体の動きを動きベクトルを推定することによって検出するようにしている。一般に、背景の奥行(被写体距離)に応じて画像間の動きベクトルの大きさが変化するので、動きベクトルを推定すれば別途に奥行情報を算出する必要がなくなる。撮影モードに応じて適切に動きベクトルの推定対象の領域を設定することで自然な動きぼけを少ない計算コストで付加することができる。   In this embodiment, the motion of the main subject area and the background subject is detected by estimating the motion vector. In general, since the magnitude of the motion vector between images changes according to the depth of the background (subject distance), if the motion vector is estimated, there is no need to separately calculate depth information. By appropriately setting the motion vector estimation target region according to the shooting mode, natural motion blur can be added with low calculation cost.

さらに、本実施形態では、三分割法によって決定される理想的な重心位置に主要被写体の重心位置がある画像を対象画像に決定するようにしている。これにより、撮影者が望む構図の流し撮りや長時間撮影の画像を得ることができる。なお、図8の例では、実際の主要被写体の重心位置から対象画像を決定している。これに加えて、連写動作中に得られる複数の画像の中で主要被写体の領域の大きさを比較して対象画像を決定してもよい。例えば、連写動作中に得られる画像の中で、主要被写体が画面内で大きくなりつつ画面の所定位置に収まっているような構図の画像を対象画像としてよい。このようにして対象画像を決定することで主要被写体の動きの強調効果を大きくすることができる。   Furthermore, in this embodiment, an image having the center of gravity of the main subject at the ideal center of gravity determined by the three-division method is determined as the target image. As a result, it is possible to obtain a panning shot of a composition desired by the photographer and an image taken for a long time. In the example of FIG. 8, the target image is determined from the actual gravity center position of the main subject. In addition, the target image may be determined by comparing the size of the area of the main subject among a plurality of images obtained during the continuous shooting operation. For example, among images obtained during the continuous shooting operation, an image having a composition in which the main subject is enlarged in the screen and stays at a predetermined position on the screen may be set as the target image. By determining the target image in this manner, the effect of enhancing the movement of the main subject can be increased.

(第2の実施形態)
[構成]
図16は、第2の実施形態に係る画像処理方法を用いて画像処理を行う撮像装置の一例の構成を示す図である。図16については、図1と異なる箇所についてのみ説明する。第2の実施形態における動きベクトル推定部118は、被写体の区別をせずに画像をブロックに分割してブロックごとの動きベクトルを推定する。そして、動きベクトル推定部118で推定された動きベクトルは、フィルタ構成部120のみではなく、被写体判定部124にも入力される。被写体判定部124は、動きベクトル推定部から入力された動きベクトルを用いて被写体の判定を行う。図16におけるその他の構成は図1と同様である。
(Second Embodiment)
[Constitution]
FIG. 16 is a diagram illustrating a configuration of an example of an imaging apparatus that performs image processing using the image processing method according to the second embodiment. FIG. 16 will be described only for parts different from FIG. The motion vector estimation unit 118 in the second embodiment divides an image into blocks without distinguishing the subject and estimates a motion vector for each block. Then, the motion vector estimated by the motion vector estimation unit 118 is input not only to the filter configuration unit 120 but also to the subject determination unit 124. The subject determination unit 124 determines a subject using the motion vector input from the motion vector estimation unit. Other configurations in FIG. 16 are the same as those in FIG.

[動作]
次に、本実施形態に係る撮像装置100の動作を説明する。図17は、第2の実施形態における撮像装置100の撮影動作を示すフローチャートである。図17において、第1の実施形態と異なる箇所について説明する。すなわち、図17におけるステップS403及びS404の動作が第1の実施形態と異なっている。ステップS401、S402、S405からS408は図2のステップS101、S102、S104、S106からS108と同様である。
[Operation]
Next, the operation of the imaging apparatus 100 according to the present embodiment will be described. FIG. 17 is a flowchart illustrating a shooting operation of the imaging apparatus 100 according to the second embodiment. In FIG. 17, different points from the first embodiment will be described. That is, the operations in steps S403 and S404 in FIG. 17 are different from those in the first embodiment. Steps S401, S402, S405 to S408 are the same as steps S101, S102, S104, and S106 to S108 in FIG.

図17において、画像記憶部112に画像が記憶されると、動きベクトル推定部118は、動きベクトルを推定する(ステップS403)。第2の実施形態における動きベクトル推定部118は、主要被写体と背景被写体とを区別せず、画像を単純にブロックに分割した上でブロックごとの動きベクトルを推定する。被写体判定部124は、動きベクトル推定部118で推定された動きベクトルを用いて被写体判定を行う(ステップS404)。主要被写体は必ずしも画像の中央に存在しているわけではないが、画像の周辺部全てに存在するわけでもない。そこで、被写体判定部124は、画像の周辺部に位置するブロックの動きベクトルを用いて背景被写体の動きを推定する。そして、被写体判定部124は、各ブロックについて背景被写体の動きと明らかに異なる箇所を主要被写体として判定する。例えば、撮影モードが流し撮りモードの場合、背景被写体はある程度動きを持つが主要被写体は殆ど動かない又は背景被写体とは異なる動きを表す。また、撮影モードが手持ち長時間撮影モードの場合、背景は殆ど動かない一方で主要被写体が動きを持つ。この状況を踏まえて動きベクトルから被写体を判定する。すなわち、流し撮りモードでは、画像の周辺部の動きのあるブロックは背景被写体と判定される。一方、手持ち長時間撮影モードでは、画像の周辺部の動きのあるブロックは主要被写体と判定される。   In FIG. 17, when an image is stored in the image storage unit 112, the motion vector estimation unit 118 estimates a motion vector (step S403). The motion vector estimation unit 118 in the second embodiment estimates the motion vector for each block after simply dividing the image into blocks without distinguishing between the main subject and the background subject. The subject determination unit 124 performs subject determination using the motion vector estimated by the motion vector estimation unit 118 (step S404). The main subject does not necessarily exist in the center of the image, but does not exist in the entire peripheral portion of the image. Therefore, the subject determination unit 124 estimates the motion of the background subject using the motion vectors of the blocks located in the peripheral portion of the image. Then, the subject determination unit 124 determines a location that is clearly different from the movement of the background subject for each block as the main subject. For example, when the shooting mode is the panning mode, the background subject moves to some extent, but the main subject hardly moves or represents a motion different from the background subject. When the shooting mode is the handheld long-time shooting mode, the background hardly moves while the main subject moves. Based on this situation, the subject is determined from the motion vector. That is, in the panning mode, a block having a motion around the periphery of the image is determined as a background subject. On the other hand, in the hand-held long-time shooting mode, a block that moves around the periphery of the image is determined as the main subject.

被写体判定に関してより具体的に図18から図21を用いて説明する。図18(a)は、画面内における背景被写体としての動きを推定する領域を示す。ここでは画面全体を7×7画素の小領域に分割し、小領域単位で主要被写体と背景被写体を判定する。なお、中央の3×3画素の領域は、主要被写体が存在する可能性がある部分を表す。また、図18(b)は動きベクトルを推定するブロックの構成を示す。ブロックの大きさは、第1の実施形態と同様、例えば5×5画素である。   The subject determination will be described more specifically with reference to FIGS. FIG. 18A shows an area in which a motion as a background subject in the screen is estimated. Here, the entire screen is divided into small areas of 7 × 7 pixels, and the main subject and the background subject are determined in units of small areas. The central 3 × 3 pixel region represents a portion where the main subject may exist. FIG. 18B shows a configuration of a block for estimating a motion vector. The block size is, for example, 5 × 5 pixels, as in the first embodiment.

この条件下において図19のようなシーンで被写体判定を行う場合、撮影モードによって被写体判定の方法を変えるようにする。例えば撮影モードが流し撮りモードの場合、推定される動きベクトルは図20(a)のようになる。このとき、背景被写体の動きが支配的となる。このとき図18(a)の小領域単位で動きベクトルを(例えば小領域内の動きベクトルの平均をとる等により)統合すると図20(b)の状態になる。ここで背景被写体の小領域の半分以上は動きベクトルが存在しており、これらの動きベクトルは方向や大きさにおおきなばらつきがない(逆方向や大きさが極端に違うといったものがない)ことから背景被写体の動きに対応するものとして認識される。すなわちこの背景被写体の動きとは異なる部分が主要被写体として判定されることになる。ここでは主要被写体が存在する可能性がある小領域を含めて連結した小領域群(図20(b)の右下がり対角パターン箇所)を主要被写体領域とする。また撮影モードが手持ち長時間撮影モードの場合、推定される動きベクトルは図21(a)のようになり、背景被写体には動きがない。このとき図18(a)の小領域単位で動きベクトルを統合すると図21(b)の状態になる。ここで背景被写体の小領域の半分以上は動きベクトルが存在しないことから背景被写体に動きはない、すなわち動きが検出される部分が主要被写体として判定されることになる。ここでは主要被写体が存在する可能性がある小領域を含めて連結した小領域群(図21(b)の右下がり対角パターン箇所)を主要被写体領域とする。   When subject determination is performed in a scene as shown in FIG. 19 under this condition, the subject determination method is changed depending on the shooting mode. For example, when the shooting mode is the panning mode, the estimated motion vector is as shown in FIG. At this time, the movement of the background subject becomes dominant. At this time, when the motion vectors are integrated in units of small areas in FIG. 18A (for example, by averaging the motion vectors in the small areas), the state shown in FIG. 20B is obtained. Here, motion vectors exist in more than half of the small areas of the background subject, and these motion vectors have no significant variation in direction or size (there is no such thing as the opposite direction or extremely different size). It is recognized as corresponding to the movement of the background subject. That is, a portion different from the movement of the background subject is determined as the main subject. Here, a small area group (including a downward-sloping diagonal pattern portion in FIG. 20B) connected including a small area where the main subject may exist is set as a main subject area. When the shooting mode is the handheld long-time shooting mode, the estimated motion vector is as shown in FIG. 21A, and the background subject does not move. At this time, when motion vectors are integrated in units of small areas in FIG. 18A, the state shown in FIG. Here, since the motion vector does not exist in more than half of the small area of the background subject, the background subject does not move, that is, the portion where the motion is detected is determined as the main subject. Here, a small area group including a small area in which a main subject may exist (a right-downward diagonal pattern portion in FIG. 21B) is a main subject area.

なお本実施形態では動き推定領域図18(a)と動きベクトル推定ブロック図18(b)を別々に設定しているが、両者を共用する形をとっても良い。   In this embodiment, the motion estimation area diagram 18 (a) and the motion vector estimation block diagram 18 (b) are set separately, but both may be shared.

以上説明したように第2の実施形態においては動きベクトルから主要被写体と背景被写体とを判定するようにしている。これにより、被写体判定部124において画像認識の処理を行う必要がない。なお、画像認識処理を併用して被写体判定が行われてもよい。   As described above, in the second embodiment, the main subject and the background subject are determined from the motion vector. Thereby, it is not necessary to perform image recognition processing in the subject determination unit 124. Note that subject determination may be performed using image recognition processing together.

(第3の実施形態)
[構成]
図22は、第3の実施形態に係る画像処理方法を用いて画像処理を行う撮像装置の一例の構成を示す図である。図22については、図1と異なる箇所についてのみ説明する。第3の実施形態においては、撮影者が対象画像を選択することが可能である。このため、第3の実施形態の操作部104は、撮影者が対象画像を設定するための操作部材をさらに有する。また、第3の実施形態における撮像装置100は、対象画像の候補を表示するための表示部126も有している。
(Third embodiment)
[Constitution]
FIG. 22 is a diagram illustrating a configuration of an example of an imaging apparatus that performs image processing using the image processing method according to the third embodiment. FIG. 22 will be described only for parts different from FIG. In the third embodiment, a photographer can select a target image. For this reason, the operation unit 104 of the third embodiment further includes an operation member for the photographer to set a target image. The imaging apparatus 100 according to the third embodiment also includes a display unit 126 for displaying candidate target images.

[動作]
次に、本実施形態に係る撮像装置100の動作を説明する。本実施形態における対象画像決定部116は、対象画像の決定に際し、連写動作によって得られた画像を表示部126に例えばサムネイル表示させる。撮影者は、表示部126に表示された画像を見てどの画像を出力対象にするかを操作部104の操作によって選択する。操作部104の操作を受けて、対象画像決定部116は、選択された画像に関する情報(サムネイル表示であれば選択された画像のインデックス番号等)を取得し、対象画像を決定する。
[Operation]
Next, the operation of the imaging apparatus 100 according to the present embodiment will be described. In determining the target image, the target image determination unit 116 according to the present embodiment causes the display unit 126 to display, for example, thumbnails of the images obtained by the continuous shooting operation. The photographer looks at the image displayed on the display unit 126 and selects which image is the output target by operating the operation unit 104. In response to the operation of the operation unit 104, the target image determination unit 116 acquires information on the selected image (for example, the index number of the selected image in the case of thumbnail display), and determines the target image.

表示部126に表示される内容の具体例を図23に示す。サムネイル表示として4枚分の画像が1画面に表示されており、各画像にはインデックス番号をオーバーラップで表示している。この他に操作部104によって時間的に前後の画像を表示させたりサムネイル表示枚数を変更させたりすることを可能にする。サムネイル表示の中から対象画像が決定された際には選択された画像のインデックス番号に基づき実際の対象画像が決定される。なお操作部104の操作は表示部126にタッチパネルを内蔵させて画面をタッチすることで実現させるようにしてもよい。   A specific example of the contents displayed on the display unit 126 is shown in FIG. Four thumbnail images are displayed on one screen, and index numbers are overlapped on each image. In addition to this, the operation unit 104 can display temporally previous and subsequent images and change the number of thumbnails displayed. When the target image is determined from the thumbnail display, the actual target image is determined based on the index number of the selected image. Note that the operation of the operation unit 104 may be realized by incorporating a touch panel in the display unit 126 and touching the screen.

以上説明したように本実施形態によれば、撮影者が望むシーン及び構図を有する画像に対して動きぼけを付加することができる。   As described above, according to the present embodiment, motion blur can be added to an image having a scene and composition desired by the photographer.

以上実施形態に基づいて本発明を説明したが、本発明は上述した実施形態に限定されるものではなく、本発明の要旨の範囲内で種々の変形や応用が可能なことは勿論である。また、前述の各動作フローチャートの説明において、便宜上「まず」、「次に」等を用いて動作を説明しているが、この順で動作を実施することが必須であることを意味するものではない。   Although the present invention has been described above based on the embodiments, the present invention is not limited to the above-described embodiments, and various modifications and applications are naturally possible within the scope of the gist of the present invention. Further, in the description of each operation flowchart described above, the operation is described using “first”, “next”, and the like for convenience, but this does not mean that it is essential to perform the operations in this order. Absent.

また、上述した実施形態における撮像装置による各処理の手法、すなわち、各フローチャートに示す処理は、何れも処理制御部108に実行させることができるプログラムとして記憶される。このプログラムは、メモリカード(ROMカード、RAMカード等)、磁気ディスク(フロッピディスク、ハードディスク等)、光ディスク(CD−ROM、DVD等)、半導体メモリ等の外部記憶装置の記憶媒体に格納して配布することができる。そして、処理制御部108は、この外部記憶装置の記憶媒体に記憶されたプログラムを読み込み、この読み込んだプログラムによって動作が制御されることにより、上述した処理を実行することができる。   In addition, each processing method performed by the imaging apparatus in the above-described embodiment, that is, the processing illustrated in each flowchart is stored as a program that can be executed by the processing control unit 108. This program is stored and distributed in a storage medium of an external storage device such as a memory card (ROM card, RAM card, etc.), magnetic disk (floppy disk, hard disk, etc.), optical disk (CD-ROM, DVD, etc.), semiconductor memory, etc. can do. Then, the process control unit 108 reads the program stored in the storage medium of the external storage device, and the operation is controlled by the read program, so that the process described above can be executed.

さらに、上記した実施形態には種々の段階の発明が含まれており、開示される複数の構成要件の適当な組合せにより種々の発明が抽出され得る。例えば、実施形態に示される全構成要件からいくつかの構成要件が削除されても、上述したような課題を解決でき、上述したような効果が得られる場合には、この構成要件が削除された構成も発明として抽出され得る。   Further, the above-described embodiments include various stages of the invention, and various inventions can be extracted by appropriately combining a plurality of disclosed constituent elements. For example, even if some configuration requirements are deleted from all the configuration requirements shown in the embodiment, the above-described problem can be solved, and this configuration requirement is deleted when the above-described effects can be obtained. The configuration can also be extracted as an invention.

100…撮像装置、102…撮像部、104…操作部、106…撮影条件設定部、108…処理制御部、110…情報記録部、112…画像記憶部、114…被写体判定部、116…対象画像決定部、118…動きベクトル推定部、120…フィルタ構成部、122…フィルタ適用部、124…被写体判定部、126…表示部、1021…レンズ、1022…撮像素子、1023…撮像制御部   DESCRIPTION OF SYMBOLS 100 ... Imaging device, 102 ... Imaging part, 104 ... Operation part, 106 ... Shooting condition setting part, 108 ... Processing control part, 110 ... Information recording part, 112 ... Image storage part, 114 ... Subject determination part, 116 ... Target image Decision unit 118 118 Motion vector estimation unit 120 Filter configuration unit 122 Filter application unit 124 Subject determination unit 126 Display unit 1021 Lens 1022 Imaging element 1023 Imaging control unit

Claims (9)

被写体を連続的に撮像して複数の画像を取得する撮像部と、
前記取得された複数の画像のそれぞれにおける主要被写体の領域と背景被写体の領域とを判定する被写体判定部と、
前記取得された複数の画像の中から対象画像を決定する対象画像決定部と、
前記対象画像と該対象画像が撮像された時刻と時間的に前後する時刻に撮像された画像との間の少なくとも前記背景被写体の領域の動きベクトルを推定する動きベクトル推定部と、
前記推定された動きベクトルに基づき前記対象画像に適用するフィルタを構成するフィルタ構成部と、
前記構成されたフィルタを前記対象画像に適用するフィルタ適用部と、
を具備する画像処理装置。
An imaging unit that continuously captures a subject and obtains a plurality of images;
A subject determination unit that determines a region of a main subject and a region of a background subject in each of the acquired plurality of images;
A target image determination unit that determines a target image from the plurality of acquired images;
A motion vector estimation unit that estimates a motion vector of at least the background subject area between the target image and an image captured at the time when the target image is captured and a time before and after the target image;
A filter constituting unit constituting a filter to be applied to the target image based on the estimated motion vector;
A filter application unit that applies the configured filter to the target image;
An image processing apparatus comprising:
前記動きベクトル推定部は、前記取得された複数の画像をそれぞれ複数のブロックに分割し、該ブロックごとに前記画像の間の動きベクトルを推定し、
前記被写体判定部は、前記推定された動きベクトルに基づいて前記取得された複数の画像のそれぞれにおける主要被写体の領域と背景被写体の領域とを判定する、
請求項1に記載の画像処理装置。
The motion vector estimation unit divides each of the acquired plurality of images into a plurality of blocks, estimates a motion vector between the images for each block,
The subject determination unit determines a main subject region and a background subject region in each of the plurality of acquired images based on the estimated motion vector;
The image processing apparatus according to claim 1.
前記撮像部は、被写体ぶれが生じない程度に露光時間を短くし、前記露光時間を短くした分だけ感度を高くし、前記感度を高くした分だけノイズ除去処理のノイズ低減レベルを大きくして撮像を実行する請求項1又は2に記載の画像処理装置。   The imaging unit shortens the exposure time to such an extent that blurring of the subject does not occur, increases the sensitivity by shortening the exposure time, and increases the noise reduction level of the noise removal processing by increasing the sensitivity. The image processing apparatus according to claim 1 or 2, wherein 前記フィルタ適用部は、前記被写体判定部で判定された主要被写体の領域と背景被写体の領域との境界にマージン領域を設け、該マージン領域内でのフィルタの強度を前記主要被写体の領域からの距離が遠くなるに応じて大きくするように前記フィルタを構成する請求項1乃至3の何れか1項に記載の画像処理装置。   The filter application unit provides a margin region at the boundary between the main subject region and the background subject region determined by the subject determination unit, and determines the filter strength in the margin region from the main subject region. The image processing apparatus according to claim 1, wherein the filter is configured to increase as the distance increases. 前記被写体判定部は、画像認識により前記主要被写体の領域と前記背景被写体の領域とを判定する請求項1乃至4の何れか1項に記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the subject determination unit determines the main subject region and the background subject region by image recognition. 前記対象画像決定部は、前記被写体判定部で判定された前記主要被写体の領域の位置に少なくとも基づいて前記対象画像を決定する請求項1乃至5の何れか1項に記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the target image determination unit determines the target image based at least on the position of the region of the main subject determined by the subject determination unit. 前記被写体判定部は、前記取得された画像をそれぞれ中央部の領域と周辺部の領域とに分割し、前記周辺部の領域の動きベクトルに基づいて前記背景被写体の領域と前記主要被写体の領域とを判定する請求項2に記載の画像処理装置。   The subject determination unit divides the acquired image into a central region and a peripheral region, respectively, and based on a motion vector of the peripheral region, the background subject region and the main subject region The image processing device according to claim 2, wherein the image processing device determines whether or not. 被写体を連続的に撮像して複数の画像を取得することと、
前記取得された複数の画像のそれぞれにおける主要被写体の領域と背景被写体の領域とを判定することと、
前記取得された複数の画像の中から対象画像を決定することと、
前記対象画像と該対象画像が撮像された時刻と時間的に前後する時刻に撮像された画像との間の少なくとも前記背景被写体の領域の動きベクトルを推定することと、
前記推定された動きベクトルに基づき前記対象画像に適用するフィルタを構成することと、
前記構成されたフィルタを前記対象画像に適用することと、
を具備する画像処理方法。
Capturing a plurality of images by continuously capturing a subject;
Determining a main subject region and a background subject region in each of the plurality of acquired images;
Determining a target image from the plurality of acquired images;
Estimating a motion vector of at least the area of the background subject between the target image and an image captured at a time before and after the time when the target image was captured;
Configuring a filter to be applied to the target image based on the estimated motion vector;
Applying the configured filter to the target image;
An image processing method comprising:
被写体を連続的に撮像して複数の画像を取得する機能と、
前記取得された複数の画像のそれぞれにおける主要被写体の領域と背景被写体の領域とを判定する機能と、
前記取得された複数の画像の中から対象画像を決定する機能と、
前記対象画像と該対象画像が撮像された時刻と時間的に前後する時刻に撮像された画像との間の少なくとも前記背景被写体の領域の動きベクトルを推定する機能と、
前記推定された動きベクトルに基づき前記対象画像に適用するフィルタを構成する機能と、
前記構成されたフィルタを前記対象画像に適用する機能と、
をコンピュータに実現させるための画像処理プログラム。
The ability to continuously capture a subject and acquire multiple images;
A function of determining a main subject region and a background subject region in each of the plurality of acquired images;
A function of determining a target image from the plurality of acquired images;
A function for estimating a motion vector of at least the background subject area between the target image and the image captured at the time when the target image was captured and the time before and after the target image;
A function of configuring a filter to be applied to the target image based on the estimated motion vector;
A function of applying the configured filter to the target image;
An image processing program for realizing a computer.
JP2013133100A 2013-06-25 2013-06-25 Image processing apparatus, image processing method, and image processing program Expired - Fee Related JP6157238B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013133100A JP6157238B2 (en) 2013-06-25 2013-06-25 Image processing apparatus, image processing method, and image processing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013133100A JP6157238B2 (en) 2013-06-25 2013-06-25 Image processing apparatus, image processing method, and image processing program

Publications (2)

Publication Number Publication Date
JP2015008428A true JP2015008428A (en) 2015-01-15
JP6157238B2 JP6157238B2 (en) 2017-07-05

Family

ID=52338438

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013133100A Expired - Fee Related JP6157238B2 (en) 2013-06-25 2013-06-25 Image processing apparatus, image processing method, and image processing program

Country Status (1)

Country Link
JP (1) JP6157238B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017017540A (en) * 2015-07-01 2017-01-19 キヤノン株式会社 Image processing device, imaging device and image processing program
US11107193B2 (en) 2017-03-06 2021-08-31 Samsung Electronics Co., Ltd. Method and apparatus for processing image

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007041570A (en) * 2005-07-01 2007-02-15 Nikon Corp Electronic camera
JP2007323458A (en) * 2006-06-02 2007-12-13 Sony Corp Image processor and image processing method
JP2010104005A (en) * 2009-11-13 2010-05-06 Casio Computer Co Ltd Imaging apparatus, and program therefor
JP2011151729A (en) * 2010-01-25 2011-08-04 Sharp Corp Image processor, image photographing device, image display device, and program
JP2012044564A (en) * 2010-08-20 2012-03-01 Sanyo Electric Co Ltd Imaging apparatus
JP2013012124A (en) * 2011-06-30 2013-01-17 Nikon Corp Image processing device, imaging device, and program
JP2013016924A (en) * 2011-06-30 2013-01-24 Nikon Corp Image evaluation device
JP2013058823A (en) * 2011-09-07 2013-03-28 Casio Comput Co Ltd Image processing device, image processing method and program

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007041570A (en) * 2005-07-01 2007-02-15 Nikon Corp Electronic camera
JP2007323458A (en) * 2006-06-02 2007-12-13 Sony Corp Image processor and image processing method
JP2010104005A (en) * 2009-11-13 2010-05-06 Casio Computer Co Ltd Imaging apparatus, and program therefor
JP2011151729A (en) * 2010-01-25 2011-08-04 Sharp Corp Image processor, image photographing device, image display device, and program
JP2012044564A (en) * 2010-08-20 2012-03-01 Sanyo Electric Co Ltd Imaging apparatus
JP2013012124A (en) * 2011-06-30 2013-01-17 Nikon Corp Image processing device, imaging device, and program
JP2013016924A (en) * 2011-06-30 2013-01-24 Nikon Corp Image evaluation device
JP2013058823A (en) * 2011-09-07 2013-03-28 Casio Comput Co Ltd Image processing device, image processing method and program

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017017540A (en) * 2015-07-01 2017-01-19 キヤノン株式会社 Image processing device, imaging device and image processing program
US11107193B2 (en) 2017-03-06 2021-08-31 Samsung Electronics Co., Ltd. Method and apparatus for processing image

Also Published As

Publication number Publication date
JP6157238B2 (en) 2017-07-05

Similar Documents

Publication Publication Date Title
CN109565551B (en) Synthesizing images aligned to a reference frame
US10015469B2 (en) Image blur based on 3D depth information
JP6271990B2 (en) Image processing apparatus and image processing method
JP4678603B2 (en) Imaging apparatus and imaging method
JP6267502B2 (en) IMAGING DEVICE, IMAGING DEVICE CONTROL METHOD, AND PROGRAM
KR101566081B1 (en) Image processing apparatus, image processing method, and storage medium
JP2014232181A (en) Imaging device and control method thereof
JP5968073B2 (en) Image processing apparatus, imaging apparatus, image processing method, and image processing program
JP6319972B2 (en) Image processing apparatus, imaging apparatus, image processing method, and program
US9538074B2 (en) Image processing apparatus, imaging apparatus, and image processing method
JP6261205B2 (en) Image processing device
CN106791456A (en) A kind of photographic method and electronic equipment
JP6320053B2 (en) Image processing apparatus, image processing method, and computer program
JP2010279054A (en) Image pickup device, image processing device, image pickup method, and image processing method
JP6157238B2 (en) Image processing apparatus, image processing method, and image processing program
JP6645711B2 (en) Image processing apparatus, image processing method, and program
JP2019047336A (en) Image processing apparatus, imaging device, image processing method, and program
US11627245B2 (en) Focus adjustment device and focus adjustment method
JP2023033355A (en) Image processing device and control method therefor
US20150254856A1 (en) Smart moving object capture methods, devices and digital imaging systems including the same
JP2011193066A (en) Image sensing device
JP2014138378A (en) Image pickup device, control method thereof, and control program thereof
JP2015156189A (en) image evaluation device, and image evaluation program
JP7475846B2 (en) Information processing device, imaging device, information processing method, and imaging device control method
JP6616668B2 (en) Image processing apparatus and image processing method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160502

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170207

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170407

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170523

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170606

R151 Written notification of patent or utility model registration

Ref document number: 6157238

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees