JP2020080518A - Image processing apparatus - Google Patents
Image processing apparatus Download PDFInfo
- Publication number
- JP2020080518A JP2020080518A JP2018213934A JP2018213934A JP2020080518A JP 2020080518 A JP2020080518 A JP 2020080518A JP 2018213934 A JP2018213934 A JP 2018213934A JP 2018213934 A JP2018213934 A JP 2018213934A JP 2020080518 A JP2020080518 A JP 2020080518A
- Authority
- JP
- Japan
- Prior art keywords
- motion blur
- motion
- correction target
- area
- image processing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Landscapes
- Image Analysis (AREA)
- Adjustment Of Camera Lenses (AREA)
- Image Processing (AREA)
- Studio Devices (AREA)
Abstract
Description
本発明は、画像処理装置及び画像処理方法に関し、特に、画像に発生する被写体の動きブレを制御するための技術に関する。 The present invention relates to an image processing device and an image processing method, and more particularly to a technique for controlling motion blur of a subject that occurs in an image.
移動している被写体のスピード感を表現する撮影技法として流し撮りという技法がある。この流し撮り技法は、露光時間を通常よりも長めに設定し、撮影者が被写体の動きに追従するようにカメラをフォローして撮影を行う。このようにフォロー撮影した画像では、移動している被写体は静止し、背景は動きブレにより流れるような表現になる。一方、このような流し撮り画像を画像処理で生成する技術がある。この技術は、移動している被写体を撮影した複数枚画像間における動きを解析し、その動きに基づき動きブレを付与することにより、あたかも実際に流し撮りしたかのような画像を画像処理で生成する技術である。 There is a technique called panning as a shooting technique that expresses the sense of speed of a moving subject. In this follow shot technique, the exposure time is set to be longer than usual, and the photographer follows the camera so that the photographer follows the movement of the subject. In the follow shot image, the moving subject is stationary, and the background is expressed as a motion blur. On the other hand, there is a technique for generating such a follow shot image by image processing. This technology analyzes the movement between multiple images of a moving subject and adds motion blur based on that movement to generate an image that looks as if it was actually panned by image processing. It is a technology to do.
この画像処理により動きブレを付与する技術として特許文献1がある。特許文献1によると、複数の連続画像を撮影し複数枚間の画像から背景の動き量を算出することで背景に動きブレを付与する技術が開示されている。 As a technique for adding motion blur by this image processing, there is Patent Document 1. According to Japanese Patent Laid-Open No. 2004-242242, a technique is disclosed in which a plurality of consecutive images are captured and the amount of movement of the background is calculated from the images between the plurality of images to add motion blur to the background.
このような流し撮りにおいては、移動している被写体は静止し、背景がブレていることが望ましい。しかしながら、フォロー撮影時において、被写体の動きに追従できていない場合、複数枚画像間において被写体の位置がずれ、その移動量に従い被写体に動きブレを付与してしまうため移動している被写体がブレてしまうといった課題がある。
特に背景とフォロー撮影をしている被写体の動きが近い場合には動き量をうまく分離する事ができず、画像処理でフォロー撮影時の被写体のブレをうまくとることはできない。
In such panning, it is desirable that the moving subject be stationary and the background be blurred. However, during follow-up shooting, if the movement of the subject cannot be tracked, the position of the subject shifts between multiple images, and motion blur is added to the subject according to the amount of movement, so the moving subject is blurred. There is a problem that it will end.
In particular, when the background and the subject of the follow-up shot are close to each other in motion, the amount of movement cannot be well separated, and the image processing cannot properly shake the subject during the follow-up shot.
本発明は、上記の問題点を鑑みてなされたものであり、背景とフォロー被写体の動きが近い場合であってもフォロー撮影時の被写体の動きブレを低減した流し撮り画像を容易に生成することができる画像処理装置を実現することを目的とする。 The present invention has been made in view of the above problems, and easily generates a follow shot image in which the motion blur of the subject during follow shooting is reduced even when the background and the follow subject are close in motion. It is an object of the present invention to realize an image processing device capable of
画像処理装置において、基準領域を指定するための基準領域指定手段と、
前記基準領域と所定の関連を有する動きブレ補正対象領域を自動的に特定する動きブレ補正対象領域特定手段と、
前記動きブレ補正対象領域から基準動きブレを特定する基準動きブレ特定手段と、
前記基準動きブレが所定の動きブレになるように前記動きブレ補正対象領域内の動きブレを変化させるとともに前記動きブレ補正対象領域の内外で動きブレの変化量を異ならせるように制御する動きブレ制御手段と、を有することを特徴とする。
In the image processing device, a reference area designating unit for designating a reference area,
Motion-blur correction target area specifying means for automatically specifying a motion-blur correction target area having a predetermined relationship with the reference area;
A reference motion blur identifying unit that identifies a reference motion blur from the motion blur correction target area;
A motion blur control that changes the motion blur in the motion blur correction target area so that the reference motion blur becomes a predetermined motion blur, and controls the variation amount of the motion blur to be different inside and outside the motion blur correction target area. And a control means.
本発明によれば、背景とフォロー被写体の動きが近い場合であってもフォロー撮影時の被写体の動きブレを低減した流し撮り画像を容易に生成することができる。 According to the present invention, it is possible to easily generate a follow shot image in which the motion blur of the subject at the time of the follow shooting is reduced even when the background and the follow subject are in close motion.
以下、図面を参照しながら本発明の好適な実施の形態について説明する。 Hereinafter, preferred embodiments of the present invention will be described with reference to the drawings.
本発明の実施例1は、ユーザーによる動きブレに関する指示に基づき、画像の動きブレを制御する。以下、実施例1について説明する。
図1は、本実施例の動きブレ制御技術を画像処理装置の一例として撮像装置100に応用した場合の構成例を示すブロック図である。撮像装置100としては例えばカメラやスマートフォンなどが含まれる。以下、実施例1のブロック構成について図1を参照して説明する。なお、実施例1では画像処理装置の一例として撮像装置100に応用した場合について説明するが本発明は撮像装置ではなくてもよく、たとえばPCや撮像機能がない画像再生装置などであってもよい。
The first embodiment of the present invention controls the motion blur of an image based on an instruction regarding the motion blur by the user. Hereinafter, Example 1 will be described.
FIG. 1 is a block diagram showing a configuration example when the motion blur control technique of the present embodiment is applied to an image pickup apparatus 100 as an example of an image processing apparatus. The imaging device 100 includes, for example, a camera and a smartphone. The block configuration of the first embodiment will be described below with reference to FIG. In the first embodiment, the case where the image processing apparatus is applied to the image pickup apparatus 100 will be described, but the present invention is not limited to the image pickup apparatus, and may be, for example, a PC or an image reproducing apparatus having no image pickup function. ..
制御部101は、例えばコンピュータとしてのCPUであり、撮像装置100が備える各ブロックに対する動作制御プログラム(コンピュータプログラム)を後述の記憶媒体としてのROM102より読み出し、後述のRAM103に展開して実行する。これにより、制御部101は、撮像装置100が備える各ブロックの動作を制御する。ROM102は、電気的に消去・記録可能な不揮発性メモリであり、撮像装置100が備える各ブロックの動作制御プログラムに加え、各ブロックの動作に必要なパラメータ等を記憶する。RAM103は、書き換え可能な揮発性メモリであり、制御部101等が実行するプログラムの展開や、撮像装置100が備える各ブロックの動作で生成等されたデータの一時的な記憶等に用いられる。 The control unit 101 is, for example, a CPU as a computer, and reads an operation control program (computer program) for each block included in the imaging apparatus 100 from a ROM 102 as a storage medium described later, expands it in a RAM 103 described later, and executes the RAM 103. As a result, the control unit 101 controls the operation of each block included in the imaging device 100. The ROM 102 is an electrically erasable and recordable non-volatile memory, and stores the operation control program of each block included in the imaging apparatus 100, as well as parameters necessary for the operation of each block. The RAM 103 is a rewritable volatile memory, and is used for developing a program executed by the control unit 101 and the like, and temporarily storing data generated by the operation of each block included in the imaging apparatus 100.
光学系104は、ズームレンズ、フォーカスレンズを含むレンズ群で構成され、被写体像を後述の撮像部105の撮像面上に結像する。撮像部105は、例えばCCDやCMOSセンサー等の撮像素子であり、光学系104により撮像部105の撮像面上に結像された光学像を光電変換し、得られたアナログ画像信号をA/D変換部106に出力する。A/D変換部106は、入力されたアナログ画像信号をデジタル画像データに変換する。A/D変換部106から出力されたデジタル画像データは、RAM103に一時的に記憶される。画像処理部107は、RAM103に記憶されている画像データに対して、ホワイトバランス調整、色補間、ガンマ処理など、様々な画像処理を適用する。また、画像処理部107は、動きブレ制御部200を具備し、記録部108に記憶されている画像に対して動きブレを付与した動きブレ画像を生成する。 The optical system 104 includes a lens group including a zoom lens and a focus lens, and forms a subject image on an image pickup surface of an image pickup unit 105 described later. The image pickup unit 105 is, for example, an image pickup device such as a CCD or a CMOS sensor, photoelectrically converts an optical image formed on the image pickup surface of the image pickup unit 105 by the optical system 104, and converts the obtained analog image signal into an A/D signal. It is output to the conversion unit 106. The A/D converter 106 converts the input analog image signal into digital image data. The digital image data output from the A/D conversion unit 106 is temporarily stored in the RAM 103. The image processing unit 107 applies various image processing such as white balance adjustment, color interpolation, and gamma processing to the image data stored in the RAM 103. The image processing unit 107 also includes a motion blur control unit 200, and generates a motion blur image in which motion blur is added to the image stored in the recording unit 108.
記録部108は、着脱可能なメモリカード等を含む。記録部108は、画像処理部107で処理された画像データを、RAM103を介し、記録画像として記録する。また、記録部108は、記録している画像データを、RAM103を介し、画像処理部107に出力することもできる。表示部109は、LCD等の表示デバイスであり、RAM103に一時的に記憶されている画像や記録部108に記録されている画像の表示、ユーザーからの指示を受け付けるための操作ユーザーインターフェイス画像の表示等を行う。指示入力部110は、タッチパネルやマウス、キーボード等であり、ユーザーによる指示を受け付ける。 The recording unit 108 includes a removable memory card and the like. The recording unit 108 records the image data processed by the image processing unit 107 as a recorded image via the RAM 103. The recording unit 108 can also output the recorded image data to the image processing unit 107 via the RAM 103. The display unit 109 is a display device such as an LCD, and displays an image temporarily stored in the RAM 103 and an image recorded in the recording unit 108, and an operation user interface image for receiving an instruction from the user. And so on. The instruction input unit 110 is a touch panel, a mouse, a keyboard, or the like, and receives an instruction from the user.
次に、本実施例の特徴である画像処理部107の動作について、詳細に説明を行う。本実施例では、露光時間が短い撮像画像に対する動きブレを制御する例について記載する。
まず、画像処理部107が具備する動きブレ制御部200の構成例について、図2を参照して説明する。動きブレ制御部200は、記録部108に記録した画像データに対して、動きブレを付与し、動きブレ画像を生成する。
図2は、動きブレ制御部200の構成例を示す図である。動きブレ制御部200は、動きベクトル算出部201、基準動きブレ特定手段としての基準動きベクトル特定部202、動きブレ変換特性算出部203、動きブレ付与部204及び動きブレ補正対象領域特定部205より構成されている。
次に、動きブレ制御部200の処理について、図3のフローチャートを参照して説明する。
Next, the operation of the image processing unit 107, which is a feature of this embodiment, will be described in detail. In this embodiment, an example of controlling motion blur for a captured image with a short exposure time will be described.
First, a configuration example of the motion blur control unit 200 included in the image processing unit 107 will be described with reference to FIG. The motion blur control unit 200 adds motion blur to the image data recorded in the recording unit 108 to generate a motion blur image.
FIG. 2 is a diagram showing a configuration example of the motion blur control unit 200. The motion blur control unit 200 includes a motion vector calculation unit 201, a reference motion vector identification unit 202 as a reference motion blur identification unit, a motion blur conversion characteristic calculation unit 203, a motion blur imparting unit 204, and a motion blur correction target area identification unit 205. It is configured.
Next, the processing of the motion blur control unit 200 will be described with reference to the flowchart of FIG.
図3のステップS301において、制御部101は撮像部105が撮像する際の露光時間を決定する。そして、撮像部105は決定した露光時間に基づき複数枚画像を撮像(撮影)し、記録部108に記録する。本実施例では、撮像フレームレートとして毎秒60枚の画像を撮像する例について説明する。つまり、撮像部105は1/60秒毎に1枚の画像を撮像する。露光時間は、表示部109のユーザーインターフェイスを介し、ユーザーが決定しても良いし、制御部101が自動露出制御により決定しても良い。自動露出制御による露光時間の決定方法は、例えば、撮像部105が撮像したデジタル画像データの所定領域毎の測光値に基づき露光時間を決定する方法が挙げられる。詳細は後述するが、ここで決定する露光時間は、通常の流し撮りよりも短い時間とし、動体ブレの少ない画像を撮像する。撮像する画像の例について図4を参照して説明する。図4は、撮影者が走っている犬を追従するように撮像装置100を振り、フォローしながら連写撮影(フォロー撮影)をしている例を示し、図4(A)はNフレーム目の撮像画像、図4(B)はN+1フレーム目の撮像画像を示す。尚、Nは正の整数である。また、Nフレーム目、N+1フレーム目の撮像画像は、短い露光時間で撮像しているため撮像画像に大きな動きブレは発生していない。 In step S301 of FIG. 3, the control unit 101 determines the exposure time when the image capturing unit 105 captures an image. Then, the image capturing unit 105 captures (captures) a plurality of images based on the determined exposure time and records the images in the recording unit 108. In this embodiment, an example will be described in which 60 images are picked up per second as an image pickup frame rate. That is, the image capturing unit 105 captures one image every 1/60 seconds. The exposure time may be determined by the user via the user interface of the display unit 109 or may be determined by the control unit 101 by automatic exposure control. As a method of determining the exposure time by the automatic exposure control, for example, there is a method of determining the exposure time based on the photometric value for each predetermined area of the digital image data captured by the image capturing unit 105. Although the details will be described later, the exposure time determined here is shorter than that in the normal follow shot, and an image with less moving body blur is captured. An example of an image to be captured will be described with reference to FIG. FIG. 4 shows an example in which the photographer shakes the imaging device 100 so as to follow a running dog, and performs continuous shooting (follow shooting) while following, and FIG. 4A shows the Nth frame. A captured image, FIG. 4B shows a captured image of the (N+1)th frame. Note that N is a positive integer. Further, since the captured images of the Nth frame and the N+1th frame are captured with a short exposure time, no large motion blur occurs in the captured image.
フォロー撮影時において、走っている犬の細部に完璧に追従し撮影することは非常に困難である。図4の例では、走っている犬の前後の足の動きが、犬の胴体と異なるため、Nフレーム目とN+1フレーム目で変化してしまっている。
図3のステップS302において、動きブレ制御部200は、ステップS301において撮像したNフレーム目の撮像画像に対して動きブレを付与し、動きブレ画像を表示部109に表示する。ステップS302の動きブレ付与の詳細については、図5を用いて後述する。
During follow-up shooting, it is very difficult to follow the details of the running dog perfectly. In the example of FIG. 4, the movements of the front and rear feet of the running dog are different from those of the dog's torso, and therefore change between the Nth frame and the N+1th frame.
In step S302 of FIG. 3, the motion blur control unit 200 adds motion blur to the captured image of the Nth frame captured in step S301, and displays the motion blur image on the display unit 109. Details of the motion blur addition in step S302 will be described later with reference to FIG.
図3のステップS303において、ユーザーはステップS302において表示部109に表示した動きブレ画像を確認し、指示入力部110は、動きブレの調整が必要か否かの指示を受け付ける。ステップS303において、動きブレの調整が必要という指示を受け付けなかった場合は図3のフローは終了となる。ステップS303において、動きブレの調整が必要という指示を受け付けた場合は、図3のステップS304に処理に移行する。
図3のステップS304において、動きブレに関するユーザー指示に基づき、ステップS301の処理で撮像したNフレーム目の撮像画像に対して動きブレを調整し、動きブレ画像を表示部109に表示する。ステップS304の動きブレの調整方法については、図12を用いて後述する。
In step S303 of FIG. 3, the user confirms the motion blur image displayed on the display unit 109 in step S302, and the instruction input unit 110 receives an instruction as to whether or not the motion blur adjustment is necessary. If the instruction that the adjustment of the motion blur is necessary is not received in step S303, the flow of FIG. 3 ends. In step S303, when the instruction that the movement blurring adjustment is necessary is received, the process proceeds to step S304 in FIG.
In step S304 of FIG. 3, the motion blur is adjusted on the captured image of the Nth frame captured in the process of step S301 based on the user instruction regarding the motion blur, and the motion blur image is displayed on the display unit 109. The method of adjusting the motion blur in step S304 will be described later with reference to FIG.
図3のステップS305において、ユーザーはステップS304の処理により表示部109に表示した動きブレ画像を確認し、指示入力部110は、動きブレの調整が完了したか否かの指示を受け付ける。ステップS305において、動きブレの調整が完了したという指示を受け付けた場合は図3のフローは終了となる。一方、ステップS305において、動きブレの調整が完了したという指示を受け付けない場合は、図3のステップS304に戻り、動きブレ調整を繰り返す。
次に、図3のステップS302における自動で動きブレを付与する処理の詳細について、図5のフローチャートを参照して説明する。
In step S305 of FIG. 3, the user confirms the motion blur image displayed on the display unit 109 by the process of step S304, and the instruction input unit 110 receives an instruction as to whether or not the motion blur adjustment is completed. If the instruction that the adjustment of the motion blur is completed is accepted in step S305, the flow of FIG. 3 ends. On the other hand, if the instruction that the adjustment of the motion blur is completed is not accepted in step S305, the process returns to step S304 of FIG. 3 and the motion blur adjustment is repeated.
Next, details of the process of automatically adding motion blur in step S302 of FIG. 3 will be described with reference to the flowchart of FIG.
図5のステップS501において、制御部101が目標動きブレ情報を算出する。目標動きブレ情報とは、露光時間が何秒相当の動きブレの付与を目標とするか示す情報である。この目標動きブレ情報により、動きブレの長さが変わる。例えば、1/60秒相当の動きブレの長さは1/120秒相当の動きブレの長さの2倍となる。 In step S501 of FIG. 5, the control unit 101 calculates target motion blur information. The target motion blur information is information indicating how many seconds the exposure time corresponds to the target motion blur. The target motion blur information changes the length of the motion blur. For example, the length of the motion blur corresponding to 1/60 seconds is twice the length of the motion blur corresponding to 1/120 seconds.
図5のステップS502において、図2の動きベクトル算出部201は、記録部108に記録した撮像画像間の動きベクトルを算出する。そして、算出した動きベクトルを図2の基準動きベクトル特定部202及び動きブレ付与部204に出力する。ここで、動きベクトルの算出方法について、図6、図7及び図8を参照して説明する。
図6は、動きベクトル算出部201によるステップS502の動きベクトルの算出処理を示すフローチャート、図7は、ブロックマッチング法による動きベクトルの算出方法を示す図である。尚、本実施例では、動きベクトルの算出手法例として、ブロックマッチング法について説明するが、動きベクトルの算出手法はこれに限ったものではない。例えば、オプティカルフロー手法でも良い。
In step S502 of FIG. 5, the motion vector calculation unit 201 of FIG. 2 calculates the motion vector between the captured images recorded in the recording unit 108. Then, the calculated motion vector is output to the reference motion vector specifying unit 202 and the motion blur providing unit 204 in FIG. Here, a method of calculating the motion vector will be described with reference to FIGS. 6, 7, and 8.
FIG. 6 is a flowchart showing the motion vector calculation processing of step S502 by the motion vector calculation unit 201, and FIG. 7 is a diagram showing a motion vector calculation method by the block matching method. In this embodiment, a block matching method will be described as an example of a motion vector calculation method, but the motion vector calculation method is not limited to this. For example, an optical flow method may be used.
図6のステップS601において、図2の動きベクトル算出部201は、記録部108に記録した2枚の撮像画像を入力する。そして、Nフレーム目の撮像画像を基準撮像画像に設定し、時間的に後のN+1フレーム目の撮像画像を参照撮像画像に設定する。
図6のステップS602において、図7のように、基準撮像画像701において、N×N画素の基準ブロック702を配置する。
図6のステップS603において、図7のように、参照撮像画像703において、基準撮像画像701の基準ブロック702と同座標704の周囲(N+n)×(N+n)画素を探索範囲705に設定する。
In step S601 of FIG. 6, the motion vector calculation unit 201 of FIG. 2 inputs the two captured images recorded in the recording unit 108. Then, the captured image of the Nth frame is set as the reference captured image, and the captured image of the (N+1)th frame that is temporally later is set as the reference captured image.
In step S602 of FIG. 6, a reference block 702 of N×N pixels is arranged in the reference captured image 701 as shown in FIG.
In step S603 of FIG. 6, as shown in FIG. 7, in the reference captured image 703, the surrounding (N+n)×(N+n) pixels of the same coordinates 704 as the reference block 702 of the reference captured image 701 are set in the search range 705.
図6のステップS604において、参照撮像画像703の探索範囲705に存在する異なる座標のN×n画素の参照ブロックと基準撮像画像701の基準ブロック702の相関演算を行い、相関値を算出する。相関値は、基準ブロック702及び参照ブロックの画素に対する、画像間差分絶対値和に基づき算出する。つまり、差分絶対値和の値が最も小さい座標が、最も相関値が高い座標となる。尚、相関値の算出方法は、差分絶対値和に限ったものではない。例えば、差分二乗和や正規相互相関値に基づき、相関値を算出しても良い。図7の例では、参照ブロック706が最も相関が高いことを示している。
図6のステップS605において、最も高い相関値を示す参照ブロック座標に基づき動きベクトルを算出する。図7の例では、基準撮像画像701の基準ブロック702と同座標704から参照ブロック706の中心座標の差を動きベクトルとする。
In step S604 of FIG. 6, the correlation calculation is performed between the reference block of N×n pixels having different coordinates existing in the search range 705 of the reference captured image 703 and the standard block 702 of the standard captured image 701 to calculate the correlation value. The correlation value is calculated based on the sum of absolute differences between images for the pixels of the standard block 702 and the reference block. That is, the coordinate with the smallest sum of absolute differences is the coordinate with the highest correlation value. The method of calculating the correlation value is not limited to the sum of absolute differences. For example, the correlation value may be calculated based on the sum of squared differences or the normal cross-correlation value. The example of FIG. 7 shows that the reference block 706 has the highest correlation.
In step S605 of FIG. 6, a motion vector is calculated based on the reference block coordinates showing the highest correlation value. In the example of FIG. 7, the difference between the center coordinates of the standard block 702 of the standard captured image 701 and the center coordinates of the reference block 706 is the motion vector.
図6のステップS606において、図7の基準ブロック702を移動させながら、ステップS602、ステップS603、ステップS604及びステップS605の処理を繰り返し、基準撮像画像701の全画素の動きベクトルを算出する。尚、全画素の動きベクトルを算出するのではなく、所定画素毎に動きベクトルを算出してもよい。
以上のような方法に基づき算出した撮像画像間の動きベクトルの例を図8に示す。図8は、図4(A)Nフレーム目の撮像画像を基準撮像画像、図4(B)Nフレーム目の撮像画像を基準撮像画像とした場合の差分情報に基づく動きベクトルを示す図である。図8の矢印が動きベクトルを示し、矢印の長さが動きベクトルの長さ、矢印の方向が動きベクトルの方向を示す。図8の例では画素毎の動きベクトルは描画せず、代表的な動きベクトルのみに簡略化し示している。
In step S606 of FIG. 6, while moving the reference block 702 of FIG. 7, the processes of step S602, step S603, step S604, and step S605 are repeated to calculate motion vectors of all pixels of the reference captured image 701. Note that the motion vector may be calculated for each predetermined pixel instead of calculating the motion vectors of all pixels.
FIG. 8 shows an example of the motion vector between the captured images calculated based on the above method. FIG. 8 is a diagram showing motion vectors based on difference information when the Nth frame captured image of FIG. 4A is the reference captured image and the Nth frame captured image of FIG. 4B is the reference captured image. .. The arrow in FIG. 8 indicates a motion vector, the length of the arrow indicates the length of the motion vector, and the direction of the arrow indicates the direction of the motion vector. In the example of FIG. 8, the motion vector for each pixel is not drawn, but only representative motion vectors are simplified and shown.
図8の例では、撮像装置100を向かって右から左に振り、中央で走っている犬をフォロー撮影している。そのため、背景の静止物は右方向の動きベクトルとして検出し、走っている犬の胴体付近(800)は撮像装置100と同じ動きのため、撮像装置100と犬の相対速度としては0のため、動きベクトルとして0が算出される。しかしながら、犬の手足の振りに対してはフォロー撮影方向と速度や動きが異なるため0以外の動きベクトルが出現する。それぞれ前足の動きベクトルは、801、802で表され、後ろ足の動きベクトルは803、804である。前足(801、802)と後ろ足(803、804)は別方向の動きベクトルとなっている。更に、後ろ足の動きベクトルは、背景のベクトルと同じ動き量になっている事を示している。動きベクトルには方向が存在する。そのため本実施例中では、例えば水平方向では左向き、垂直方向では下向きの動きベクトルはマイナス、逆に右や上向きの動きベクトルはプラスで説明を行なう。 In the example of FIG. 8, the imaging device 100 is swung from right to left, and the follow-up image of the dog running in the center is taken. Therefore, the stationary object in the background is detected as a motion vector in the right direction, and the vicinity of the running dog's torso (800) has the same motion as the imaging device 100, and the relative speed between the imaging device 100 and the dog is 0. 0 is calculated as the motion vector. However, with respect to the swing of the limbs of the dog, a motion vector other than 0 appears because the speed and the motion are different from the follow shooting direction. The motion vectors of the front legs are represented by 801, 802, and the motion vectors of the hind legs are 803, 804. The front legs (801, 802) and the rear legs (803, 804) are motion vectors in different directions. Furthermore, it is shown that the motion vector of the hind legs has the same motion amount as the background vector. The motion vector has a direction. For this reason, in this embodiment, for example, a downward motion vector in the horizontal direction and a downward motion vector in the vertical direction are negative, and conversely, the right and upward motion vectors are positive.
図5のステップS503において、図2の動きブレ変換特性算出部203は、目標動きブレ情報に基づいて動きベクトルを動きブレ付与情報に変換するための特性を算出する。尚、動きブレ付与情報とは、水平方向の動きブレ量と垂直方向の動きブレ量から成り、動きブレ付与部204が動きブレを付与するための動きブレの方向(動きベクトルの向きに対応)と動きブレ量(動きベクトルの長さに対応)を決める情報である。この動きブレ変換特性の算出方法について図9を参照して説明する。図9は、動きブレ変換特性を示す図である。横軸は、動きベクトルの水平方向の移動量を示す値で、縦軸は水平方向の動きブレ量を示している。尚、図9においては、簡略化のため動きベクトルの水平成分を水平方向の動きブレ量に変換する変換特性を示している。本来、動きベクトルは水平方向の移動量と垂直方向の移動量から成るが、垂直方向に関する変換方法及び変換特性は水平方向と同様の方法で算出するため説明は省略する。
図9における動きブレ変換特性L901は以下の式(1)で表され、目標動きブレ情報が1/60秒相当の場合の動きブレ変換特性である。
水平方向の動きブレ量 = 水平方向の移動量 ・・・式(1)
In step S503 of FIG. 5, the motion blur conversion characteristic calculation unit 203 of FIG. 2 calculates a characteristic for converting a motion vector into motion blur imparting information based on the target motion blur information. The motion blur adding information is composed of a horizontal motion blur amount and a vertical motion blur amount, and the motion blur direction for the motion blur imparting unit 204 to impart motion blur (corresponding to the direction of the motion vector). And information that determines the amount of motion blur (corresponding to the length of the motion vector). A method of calculating the motion blur conversion characteristic will be described with reference to FIG. FIG. 9 is a diagram showing motion blur conversion characteristics. The horizontal axis represents the amount of movement of the motion vector in the horizontal direction, and the vertical axis represents the amount of motion blur in the horizontal direction. Note that FIG. 9 shows a conversion characteristic for converting the horizontal component of the motion vector into the horizontal motion blur amount for simplification. Originally, a motion vector is composed of a horizontal movement amount and a vertical movement amount, but the conversion method and conversion characteristics in the vertical direction are calculated by the same method as in the horizontal direction, and therefore description thereof is omitted.
The motion blur conversion characteristic L901 in FIG. 9 is represented by the following equation (1), and is the motion blur conversion characteristic when the target motion blur information is equivalent to 1/60 second.
Horizontal motion blur amount = Horizontal movement amount ...Equation (1)
撮像画像のフレームレートは毎秒60枚であるため、水平方向の移動量は、1/60秒間における移動量となる。動きブレ変換特性L901は、1/60秒間における移動量に相当する動きブレ量を算出している。
また、図9における動きブレ変換特性L902は式(2)で表され、目標動きブレ情報が1/120相当の場合の動きブレ変換特性である。
水平方向の動きブレ量 = 1/2 × 水平方向の移動量 ・・・式(2)
動きブレ変換特性L902は、1/60秒間における移動量の半分である1/120秒間における移動量に相当する動きブレ量を算出している。
Since the frame rate of the captured image is 60 per second, the amount of movement in the horizontal direction is the amount of movement in 1/60 seconds. The motion blur conversion characteristic L901 calculates a motion blur amount corresponding to the movement amount in 1/60 seconds.
Further, the motion blur conversion characteristic L902 in FIG. 9 is represented by Expression (2), and is the motion blur conversion characteristic when the target motion blur information is 1/120.
Horizontal movement blur amount = 1/2 × horizontal movement amount ...Equation (2)
The motion blur conversion characteristic L902 calculates a motion blur amount corresponding to the movement amount in 1/120 seconds, which is half the movement amount in 1/60 seconds.
つまり、動きブレ変換特性L902に基づき変換した場合、動きブレ変換特性901に基づき変換した動きブレ量の二分の一相当の動きブレ量を付与することになる。このように動きブレ変換特性を変えることにより、動きブレ量をコントロールすることが可能となる。図5のステップS504において、動きブレ付与部204は、動きブレ変換特性算出部203が算出した動きブレ変換特性と動きベクトル算出部201が算出した画素毎の動きベクトルを参照する。そして両者のベクトルに基づき撮像画像に動きブレを付与し、動きブレ画像を表示部109に出力する。動きブレ付与方法については、例えば特開2010−15483に記載されている動きベクトルを用いたフィルター処理を行うことで実現できる。この動きブレを付与するフィルター処理は、画素単位もしくは、複数画素による画素ブロック単位で行なうことが可能である。また、動きベクトルの大きさと向きに基づいてフィルター処理を施す際のフィルターのタップ数(フィルターサイズ)を変更してフィルター処理を施すことにより動きブレを変化させることができる。 That is, when the conversion is performed based on the motion blur conversion characteristic L902, a motion blur amount equivalent to one half of the motion blur amount converted based on the motion blur conversion characteristic 901 is added. By changing the motion blur conversion characteristic in this way, the motion blur amount can be controlled. In step S504 of FIG. 5, the motion blur providing unit 204 refers to the motion blur conversion characteristic calculated by the motion blur conversion characteristic calculation unit 203 and the motion vector for each pixel calculated by the motion vector calculation unit 201. Then, a motion blur is added to the captured image based on both vectors, and the motion blur image is output to the display unit 109. The motion blur adding method can be realized by performing a filter process using a motion vector described in JP 2010-15483 A, for example. The filtering process for adding the motion blur can be performed in pixel units or in pixel block units of a plurality of pixels. Further, the motion blur can be changed by changing the tap number (filter size) of the filter when performing the filter processing based on the size and direction of the motion vector and performing the filter processing.
図11は動きブレ付与の方法を示す図である。図11の動きブレ付与情報L1101は、着目画素Aの動きブレ付与情報を示す。また、この動きブレ付与情報L1101は、画素Aから画素B及び画素Cを通り、画素Dまで到達する動きブレ付与情報であり、動きベクトルが水平方向に4ピクセル、垂直方向に4ピクセルを表している。 図5のステップS505において、ステップS504において動きブレ付与部204が生成した動きブレ画像を表示部109に表示する。
以上、図3のステップS302における自動動きブレ制御の処理について説明した。
FIG. 11 is a diagram showing a method of adding motion blur. The motion blur adding information L1101 in FIG. 11 indicates the motion blur adding information of the pixel A of interest. The motion blur imparting information L1101 is motion blur imparting information that passes from the pixel A through the pixel B and the pixel C and reaches the pixel D, and the motion vector represents 4 pixels in the horizontal direction and 4 pixels in the vertical direction. There is. In step S505 of FIG. 5, the motion blur image generated by the motion blur imparting unit 204 in step S504 is displayed on the display unit 109.
The process of the automatic motion blur control in step S302 of FIG. 3 has been described above.
次に、図3のステップS304における動きブレ調整方法について、図12のフローチャートを参照して詳しく説明する。動きブレ調整は、被写体毎に動きブレ量を調整したいというユーザーの要求を実現するために行なう。
図12のステップS1201において、制御部101は、指示入力部110を介し、ユーザーによる動きブレ調整指示として指定基準領域の指定(指示)を受け付ける。このとき指示入力部110は基準領域指定手段として機能する。また、図12のステップS1202において、制御部101は、指示入力部110を介し、ユーザーによる動きブレ調整指示として指定基準領域における指定動きブレの指示を受け付ける。動きブレ調整指示を受け付ける方法に関して図13を参照して説明する。
Next, the motion blur adjustment method in step S304 of FIG. 3 will be described in detail with reference to the flowchart of FIG. The motion blur adjustment is performed in order to fulfill the user's request to adjust the motion blur amount for each subject.
In step S1201 of FIG. 12, the control unit 101 receives a designation (instruction) of a designated reference region as a motion blur adjustment instruction from the user via the instruction input unit 110. At this time, the instruction input unit 110 functions as a reference area designating unit. Further, in step S1202 of FIG. 12, the control unit 101 receives, via the instruction input unit 110, a designated motion blur instruction in the designated reference region as a motion blur adjustment instruction from the user. A method of receiving the motion blur adjustment instruction will be described with reference to FIG.
図13(A)は動きブレ調整前画像を示し、図13(B)は指定基準領域のブレ量以下の動きぶれ量を軽減した動きブレ調整後画像を示し、図13(C)は、指定基準領域の周辺(手足)のみの動きぶれ量を軽減した動きブレ調整後画像を示す。図13(B)のように、指定基準領域のブレ量以下の動きブレ量を軽減した場合は、指定基準領域のブレ量に近い動きブレ量をもつ背景領域なども同時に動きブレ量が軽減されてしまう。そこで本実施例では、図13(C)のように、指定基準領域を含み指定基準領域の被写体に関連する周辺(手足)領域のみの動きぶれ量を制御する。これにより、ユーザーが所望とする領域だけに絞って動きブレを調整することができる。 13A shows an image before motion blur adjustment, FIG. 13B shows an image after motion blur adjustment in which the motion blur amount less than the blur amount of the designated reference area is reduced, and FIG. 7 shows an image after motion blur adjustment in which the amount of motion blur only around the reference area (limbs) is reduced. As shown in FIG. 13B, when the motion blur amount less than or equal to the blur amount of the designated reference region is reduced, the motion blur amount is also reduced at the same time in a background region or the like having a motion blur amount close to the blur amount of the designated reference region. Will end up. Therefore, in the present embodiment, as shown in FIG. 13C, the motion blurring amount is controlled only in the peripheral (limb) region including the designated reference region and related to the subject in the designated reference region. As a result, the motion blur can be adjusted by focusing only on the area desired by the user.
図13(A)動きブレ調整前画像は、図3のステップS302における自動動きブレ制御後に表示部109に表示した動きブレ画像である。ユーザーは表示部109に表示された動きブレ画像を確認し、動きブレ画像の調整が必要か否かを判断する(図3のステップS303の判断)。ここで、図13(A)動きブレ調整前画像の例では、背景だけではなく、主被写体の走っている犬の手足まで動きブレが発生している。図13(A)は、図8の動きベクトルに基づき動きブレを付与している図であり、犬の手足の動きベクトルの大きさが0ではないためである。一般的に、流し撮り画像は主被写体には動きブレが付かずに静止し、背景に動きブレが付与される画像の方が、主被写体に動きブレが付いている画像に比べて主被写体のスピード感が際立ち好ましいとされている。そこで本実施例ではユーザーは、図13(A)の動きブレ調整前画像のような動きブレ画像を確認し、タッチパネルによるタッチ操作、又は、マウスによるクリック操作等により動きブレ画像の調整を指示する。 The image before motion blur adjustment in FIG. 13A is the motion blur image displayed on the display unit 109 after the automatic motion blur control in step S302 in FIG. The user confirms the motion blur image displayed on the display unit 109 and determines whether or not the motion blur image needs to be adjusted (determination in step S303 in FIG. 3). Here, in the example of the image before motion blur adjustment in FIG. 13A, motion blur occurs not only in the background but also in the limbs of the dog running the main subject. FIG. 13A is a diagram in which motion blur is added based on the motion vector of FIG. 8, and the size of the motion vector of the limbs of the dog is not zero. Generally, in a follow shot image, an image in which the main subject is stationary without any motion blur and the background is subject to motion blur is compared to an image in which the main subject has motion blur compared to the image in which the main subject is motion blur. It is said that a sense of speed is outstanding and preferable. Therefore, in this embodiment, the user confirms a motion blur image such as the image before motion blur adjustment in FIG. 13A, and gives an instruction to adjust the motion blur image by a touch operation on the touch panel, a click operation by the mouse, or the like. ..
具体的には、図13(A)L1301、L1302に示すように、ユーザーは動きブレの調整したい領域をタッチ操作又はクリック操作する。その際に、タッチ操作のやり方やクリック操作等のやり方に基づき、指定基準領域の動きブレを小さく調整するのか、大きく調整するのかを指定する。例えば、ユーザーがシングルタッチ又はシングルクリックで指定した場合、制御部101は、指定基準領域の指定動きブレとして、動きブレを小さくする指示として受け付ける。また、ユーザーがダブルタッチ又はダブルクリックで指定した場合、制御部101は、指定基準領域の指定動きブレとして、動きブレを大きくする指示として受け付ける。なお、指定基準領域を指定する方法としては上記のようなタッチやクリックではなくてもよく、例えば画面内における座標情報をテンキーなどで入力することによって指定してもよい。 Specifically, as shown in L1301 and L1302 of FIG. 13A, the user performs a touch operation or a click operation on an area in which the motion blur is desired to be adjusted. At that time, whether to adjust the motion blur of the designated reference region to be small or large is designated based on the manner of the touch operation or the manner of the click operation. For example, when the user makes a single-touch or single-click designation, the control unit 101 receives an instruction to reduce the movement blur as the designated movement blur of the designated reference area. When the user makes a double-touch or double-click designation, the control unit 101 accepts a designated motion blur in the designated reference region as an instruction to increase the motion blur. It should be noted that the method of designating the designation reference area does not have to be touch or click as described above, but may be designated by inputting coordinate information on the screen with a ten-key or the like.
例えば、図13(A)動きブレ調整前画像において、犬の動きブレを小さく調整する場合、ユーザーは走っている犬の手足の一部(L1301、L1302)をシングルクリックで指定する。すると、制御部101が指定した座標を指定基準領域として受け付けると共に、指定基準領域とその周辺の領域を自動的に検出し、指定動きブレとして動きブレを小さくする指示として受け付ける。尚、以下の説明では、ユーザーが走っている犬をシングルクリックして指定し、犬の動きブレを小さく調整する例について説明する。
尚、制御部101が受け付ける指定基準領域は、ユーザーがクリックにより指定した一か所だけの座標だけではなくてもよい。例えば、ユーザーが走っている犬全体あるいはその一部を丸く囲う指定を行った場合、制御部101は、その囲われた領域を指定基準領域として受け付けても良い。
For example, in the image before motion blur adjustment in FIG. 13A, when the motion blur of the dog is adjusted to be small, the user specifies a part of the limbs (L1301 and L1302) of the running dog with a single click. Then, the control unit 101 accepts the coordinates designated as the designated reference region, automatically detects the designated reference region and the surrounding region, and receives the designated movement blur as an instruction to reduce the motion blur. In the following description, an example will be described in which the user is designated by single-clicking on the running dog to reduce the motion blur of the dog.
It should be noted that the designated reference area received by the control unit 101 does not have to be only one coordinate designated by the user by clicking. For example, when the user specifies to circle the whole running dog or a part thereof, the control unit 101 may accept the enclosed area as the designated reference area.
図12のステップS502′において、動きベクトル算出部201は、記録部108に記録した撮像画像間の動きベクトルを算出する。具体的には、動きベクトル算出部201は、図4(A)Nフレーム目の撮像画像と図4(B)N+1フレーム目の撮像画像を入力し、両者の差分情報に基づき図8のような動きベクトルを算出する。尚、図12のステップS502´における動きベクトルの算出方法は、図5のステップS502と同様の処理により算出するものとし、説明は省略する。また、図3のステップS302の自動動きブレ制御処理の際に算出した動きベクトルを記録部108に記録し、図12のステップS502′において使用しても良い。 In step S502′ of FIG. 12, the motion vector calculation unit 201 calculates the motion vector between the captured images recorded in the recording unit 108. Specifically, the motion vector calculation unit 201 inputs the imaged image of the Nth frame of FIG. 4A and the imaged image of the N+1th frame of FIG. 4B, and based on the difference information between them, as shown in FIG. Calculate the motion vector. The method of calculating the motion vector in step S502' in FIG. 12 is the same as that in step S502 in FIG. 5, and description thereof will be omitted. Further, the motion vector calculated in the automatic motion blur control process of step S302 of FIG. 3 may be recorded in the recording unit 108 and used in step S502′ of FIG.
図12のステップS1203において、基準動きベクトル特定部202は、ステップS1201において制御部101が受け付けた指定基準領域と動きベクトル算出部201が算出した動きベクトルに基づき、基準動きベクトルを特定する。具体的には、図8において、指定基準領域である犬の動きベクトル801〜804の4つの領域を選択したときには、選択した4つの領域の動きベクトルを基準動きベクトル(基準動きブレ)として特定する。指定基準領域内に複数の動きベクトルが存在する場合は、指定基準領域内の動きベクトルのヒストグラムを取得し、最も頻度の高い動きベクトルを基準動きベクトルとしても良い。
この時、動きベクトルの向き、大きさが異なる場合には、それぞれ4つの基準動きベクトルする。
In step S1203 of FIG. 12, the reference motion vector identification unit 202 identifies the reference motion vector based on the designated reference area accepted by the control unit 101 in step S1201 and the motion vector calculated by the motion vector calculation unit 201. Specifically, in FIG. 8, when four areas of dog motion vectors 801 to 804 that are designated reference areas are selected, the motion vectors of the selected four areas are specified as reference motion vectors (reference motion blur). .. When there are a plurality of motion vectors in the designated reference area, a histogram of the motion vectors in the designated reference area may be acquired and the most frequent motion vector may be used as the reference motion vector.
At this time, when the direction and magnitude of the motion vector are different, four reference motion vectors are used.
次に図12のステップS1204において、図2の動きブレ変換特性算出部203は、目標動きブレ、基準動きベクトル及び指定動きブレに基づき動きブレ変換特性を算出する。動きブレ変換特性の算出方法について図14を参照して説明する。図14の動きブレ変換特性は、制御部101が1/60秒相当の動きブレを目標動きブレとして算出した場合の動きブレ変換特性の例を示している。尚、動きベクトルは水平方向と垂直方向という2次元の方向と移動量から成るが、本実施例では説明の簡略化のため、水平方向の動きベクトルの移動量を水平方向の動きブレ量に変換する変換特性を示している。2次元の方向と移動量から成る動きベクトルを用いた動きブレ量変換方法及び変換特性も同様の処理により算出するものとし、説明は省略する Next, in step S1204 of FIG. 12, the motion blur conversion characteristic calculation unit 203 of FIG. 2 calculates the motion blur conversion characteristic based on the target motion blur, the reference motion vector, and the designated motion blur. A method of calculating the motion blur conversion characteristic will be described with reference to FIG. The motion blur conversion characteristic of FIG. 14 shows an example of the motion blur conversion characteristic when the control unit 101 calculates a motion blur equivalent to 1/60 seconds as the target motion blur. It should be noted that the motion vector is composed of a two-dimensional direction such as a horizontal direction and a vertical direction and a moving amount, but in the present embodiment, the moving amount of the horizontal motion vector is converted into a horizontal motion blur amount for simplification of description. It shows the conversion characteristics to be. A motion blur amount conversion method and a conversion characteristic using a motion vector composed of a two-dimensional direction and a movement amount are also calculated by the same process, and a description thereof will be omitted.
図14(A)動きブレ変換特性において、破線のL901が目標動きブレが1/60秒相当の場合の動きブレ変換特性を示す。動きブレ変換特性L901は、図3のステップS302において動きブレ変換特性算出部203が算出した動きブレ変換特性であり、この動きブレ変換特性に基づき生成した動きブレ画像が図13(A)動きブレ調整前画像である。動きブレ変換特性算出部203は、基準動きベクトル及び指定動きブレに基づき、動きブレ変換特性L901を変更することで、基準動きベクトルの大きさの領域の動きブレを軽減するように動きブレ変換特性L1401を算出する。具体的には、図8における基準の動きベクトル801,802は水平方向に左、803,804は水平方向に右方向のベクトルを表わす。長さが5画素だとすると、基準動きベクトルに対応する動きブレ量が0になるように、動きブレ変換特性L901を左右方向に5画素以内の範囲の動き量を0にする特性の直線を生成し、動きブレ変換特性L1401として算出する。 In the motion blur conversion characteristic of FIG. 14A, a broken line L901 indicates the motion blur conversion characteristic when the target motion blur is equivalent to 1/60 seconds. The motion blur conversion characteristic L901 is the motion blur conversion characteristic calculated by the motion blur conversion characteristic calculation unit 203 in step S302 of FIG. 3, and the motion blur image generated based on this motion blur conversion characteristic is the motion blur conversion characteristic of FIG. It is an image before adjustment. The motion blur conversion characteristic calculation unit 203 changes the motion blur conversion characteristic L901 on the basis of the reference motion vector and the designated motion blur to reduce the motion blur in the area having the size of the reference motion vector. Calculate L1401. Specifically, the reference motion vectors 801 and 802 in FIG. 8 are horizontal left vectors, and 803 and 804 are horizontal horizontal right vectors. Assuming that the length is 5 pixels, a straight line of a characteristic that makes the motion amount within the range of 5 pixels within the 5 pixels in the horizontal direction 0 is generated so that the motion blur amount corresponding to the reference motion vector becomes 0. , A motion blur conversion characteristic L1401.
次に図12のステップS1205において、図2の動きブレ補正対象領域特定部205は、ステップS503において決定した動きブレ変換特性を行う動きブレ補正対象領域を自動的に特定する。図10を用いて説明する。
図10において、1001は基準撮像フレームに動きベクトルを表示した撮像画像で、表示部109に出力される。この時、ユーザーが動きブレを調整したい領域を制御部101が受け付け、その指定基準領域が1002であるとする。撮像画像の画素位置を拡大したものが1003である。動きブレ補正対象領域は、指定基準領域に対して、特徴量が類似している所定範囲内の周囲の領域を計算し、類似している領域を含めた領域を動きブレ補正対象領域に自動的に特定する。求まった動きブレ補正対象領域の例が図10(B)である。図10(B)の1011、1012は動きベクトルが異なるため、別々の領域として動きブレ補正対象領域となっている。逆に前足(801,802)と後ろ足(803,804)の領域はそれぞれ同じ動きブレ補正対象領域として含まれている。
Next, in step S1205 of FIG. 12, the motion blur correction target area identification unit 205 of FIG. 2 automatically identifies the motion blur correction target area having the motion blur conversion characteristic determined in step S503. This will be described with reference to FIG.
In FIG. 10, reference numeral 1001 denotes a captured image in which a motion vector is displayed in the reference captured frame, which is output to the display unit 109. At this time, it is assumed that the control unit 101 receives an area in which the user wants to adjust the motion blur, and the designated reference area is 1002. An enlarged image of the pixel position of the captured image is 1003. For the motion blur correction target area, the surrounding area within a predetermined range where the feature amount is similar to the designated reference area is calculated, and the area including the similar area is automatically set as the motion blur correction target area. Specify to. An example of the obtained motion blur correction target area is shown in FIG. Since the motion vectors 1011 and 1012 in FIG. 10B are different, they are the motion blur correction target regions as separate regions. On the contrary, the regions of the front legs (801, 802) and the rear legs (803, 804) are included as the same motion blur correction target regions, respectively.
特徴量として、指定基準領域の画像信号値に近い輝度や色情報とし、特徴量の差が所定の閾値未満の場合に類似している領域として動きブレ補正対象領域に加える。つまり、以下の式で判定される。
(指定基準領域の特徴量 ― 周囲の画素位置の特徴量)< 類似判定閾値・・・式(3)
The characteristic amount is luminance or color information close to the image signal value of the designated reference region, and is added to the motion blur correction target region as a similar region when the difference between the characteristic amounts is less than a predetermined threshold value. That is, it is determined by the following formula.
(Feature amount of designated reference area-feature amount of surrounding pixel positions) <similarity determination threshold value...Equation (3)
その他特徴量の差としては、動きベクトル向きや、大きさ、被写体距離情報を利用した奥行き、指定基準領域からの画面内での距離の差などが所定の類似判定閾値未満か否かで判断する。その他にも一般的な被写体判別に使われる特徴量(画像認識結果)を用いることが可能である。また、指定基準領域から所定の範囲(所定の類似判定閾値未満)の中で、指定基準領域に関連する周囲領域を決定することで、想定外の範囲に動きブレ調整の影響が広がることを防ぐことが可能である。 The other difference in the feature amount is determined by whether or not the motion vector direction, size, depth using subject distance information, difference in distance from the designated reference region within the screen, etc. is less than a predetermined similarity determination threshold value. .. In addition, it is possible to use a feature amount (image recognition result) used for general subject discrimination. Further, by determining the surrounding area related to the designated reference area within a predetermined range (less than a predetermined similarity determination threshold value) from the designated reference area, it is possible to prevent the influence of the motion blur adjustment from spreading to an unexpected range. It is possible.
また、1001は動きブレ調整後画像を表示するので、動きブレ付与後の画像を見て動きブレを変更したい領域を選択でき、直感的に指定基準領域の位置を指定できる。
図12のステップS504´において、動きブレ付与部204は、S1205で求めた動きブレ補正対象領域に対して、S1204で求めた動きブレ変換特性に基づいて、S502′で求めた動きベクトル情報を用いて動きブレを付与する。図12のステップS504´における動きブレの付与方法は、図5のステップS504と同様の処理により付与するものとし、説明は省略する。
Further, since 1001 displays the image after the motion blur adjustment, it is possible to select the region in which the motion blur is desired to be changed by looking at the image after the motion blur addition, and intuitively specify the position of the designated reference region.
In step S504′ of FIG. 12, the motion blur providing unit 204 uses the motion vector information obtained in step S502′ for the motion blur correction target area obtained in step S1205, based on the motion blur conversion characteristics obtained in step S1204. To add motion blur. The motion blur imparting method in step S504′ of FIG. 12 is performed by the same process as in step S504 of FIG. 5, and description thereof will be omitted.
図12のステップS505′において、ステップS504´で求めた動きブレ画像を表示部109に表示する。この動きブレ画像を図13(C)に示す。図13(C)の動きブレ調整後画像は、図13(A)の動きブレ調整前画像に比べ、犬の手足周辺の動きブレが静止し、背景の動きブレ自体は変化していない画像となる。これは、ユーザーが指定した犬の手足の一部を指定基準領域とし、指定基準領域の手足の周辺領域を含む動きブレ補正対象領域内の動きブレ量が0になるような動きブレ変換特性で動きブレを制御したためである。このようにユーザーが指定した指定基準領域を含む動きブレ補正対象領域内に対して、動きブレ変換特性を設定することで、ユーザー好みの動きブレに調整することが可能となる。なお、上記例では指定基準領域の手足の周辺領域を含む動きブレ補正対象領域の動きブレ量が0になるような動きブレ変換特性で動きブレを制御したが、0でなくても小さくするような制御であってもよい。即ち前記動きブレ補正対象領域の内外で、前記動きブレの変化量を異ならせればよい。
以上、図3のステップS304における動きブレ調整に関して説明した。
次に、図3のステップS304における動きブレ調整の変形例(実施例2)について説明する。
In step S505′ of FIG. 12, the motion blur image obtained in step S504′ is displayed on the display unit 109. This motion blur image is shown in FIG. The image after motion blur adjustment in FIG. 13C is an image in which the motion blur around the limbs of the dog is stationary and the background motion blur itself does not change compared to the image before motion blur adjustment in FIG. 13A. Become. This is a motion blur conversion characteristic in which a part of the limbs of the dog designated by the user is set as the designated reference region, and the amount of motion blur in the motion blur correction target region including the peripheral region of the limbs of the designated reference region becomes zero. This is because the motion blur is controlled. As described above, by setting the motion blur conversion characteristics in the motion blur correction target area including the designated reference area designated by the user, it is possible to adjust the motion blur to the user's preference. In the above example, the motion blur is controlled by the motion blur conversion characteristic such that the motion blur amount of the motion blur correction target region including the peripheral regions of the limbs of the designated reference region is 0. Any control may be used. That is, the amount of change in the motion blur may be varied inside and outside the motion blur correction target area.
The motion blur adjustment in step S304 of FIG. 3 has been described above.
Next, a modified example (second embodiment) of the motion blur adjustment in step S304 of FIG. 3 will be described.
実施例1の説明では、動きブレ補正対象領域に対して、動きブレを弱める例について説明を行なった。実施例2では逆に、動きブレをより大きくする例について説明を行なう。例えば、図3のステップS304で動きブレ調整を行ない、動きブレ補正対象領域の動きブレを軽減した後、動きブレを軽減しすぎたためユーザーが所望した画像効果が得られず、動きブレを大きくしたい場合がある。このとき、再度図3のステップS304で処理する。 In the description of the first embodiment, the example in which the motion blur is weakened in the motion blur correction target area has been described. On the contrary, in the second embodiment, an example in which the motion blur is further increased will be described. For example, after the motion blur adjustment is performed in step S304 of FIG. 3 to reduce the motion blur in the motion blur correction target area, the image blur desired by the user cannot be obtained because the motion blur is too reduced, and the motion blur is desired to be increased. There are cases. At this time, the process is performed again in step S304 of FIG.
この場合に動きブレ付与を行うために設定する動きブレ変換特性は例えば図14(B)のようなものとする。動きブレを付与した時の動きブレ変換特性としてはL902に比べ、より大きな動きブレを付与させるため図14(B)のL1402の動きブレ変換特性になるように制御して動きブレ付与を行う。このように、動きブレ補正対象領域は水平方向として左右両方向の動きを含むため、動きブレ補正対象領域のプラスマイナスそれぞれの方向を持つ動きベクトルに対してより大きな動きブレを付与させる必要がある。 In this case, the motion blur conversion characteristic set to add motion blur is, for example, as shown in FIG. As to the motion blur conversion characteristic when the motion blur is applied, in order to impart a motion blur larger than that of L902, the motion blur is imparted by controlling the motion blur conversion characteristic of L1402 in FIG. 14B. In this way, since the motion blur correction target area includes movements in both the left and right directions as the horizontal direction, it is necessary to give a larger motion blur to the motion vector having the plus and minus directions of the motion blur correction target area.
動きブレ調整を行なう時に表示部109に表示する撮像画像について図15を用いて説明する。図15は図3のS302またはS305の処理後の動きブレを付与した画像を表示部109に表示し、動きブレ調整を行なうか否かの判断と動きブレの調整の仕方(動きブレを調整する動きブレ補正対象領域、強弱の調整)の表示を説明する図である。図15(A)は、図3のステップS302もしくはステップS305の処理後に出力される動きブレを付与した結果の画像である。この時、ユーザーがさらに犬の前足、後足に部分的に動きブレを強めようとした場合、犬の前足と後ろ足の位置をタッチする。ユーザーがタッチした位置を指定基準領域(L1501、L1502)で示している。この指定基準領域を含む関連する周囲領域は、動きブレ補正対象領域として上記のように自動的に特定される。この動きブレ補正対象領域に対しては、動きブレがついていないので図15(A)の動きブレ量の調整量を示すブラーコントロールバー1500におけるブラー(ブレ)を指示するカーソル位置は、1511の位置となっている。つまり、動きブレ補正対象領域に対しては、動きブレが無いことを示している。 A captured image displayed on the display unit 109 when the motion blur adjustment is performed will be described with reference to FIG. In FIG. 15, an image with motion blur after the processing of S302 or S305 in FIG. 3 is displayed on the display unit 109, and it is determined whether the motion blur adjustment is performed and how to adjust the motion blur (adjust the motion blur). FIG. 7 is a diagram illustrating a display of a motion blur correction target area and adjustment of strength). FIG. 15A is an image resulting from motion blur output after the process of step S302 or step S305 of FIG. At this time, if the user further attempts to partially intensify the motion blur on the front and rear legs of the dog, touch the positions of the front and rear legs of the dog. The position touched by the user is indicated by the designated reference area (L1501, L1502). The related surrounding area including the designated reference area is automatically specified as the motion blur correction target area as described above. Since there is no motion blur in the motion blur correction target area, the cursor position for instructing blur (blurring) in the blur control bar 1500 showing the adjustment amount of the motion blur amount in FIG. Has become. That is, it indicates that there is no motion blur in the motion blur correction target area.
続いてユーザーが、動きブレ補正対象領域に動きブレを付与させたい時には、図15(B)のブラーコントロールバー1500の1512の位置にカーソルを移動する。このカーソルの移動に合わせて図3のステップS304を実行し、動きブレ補正対象領域に対して、図14(B)のL1402の動きブレ変換特性の変換処理を実行し、動きブレ補正対象領域にブレを付与する。動きブレの調整後の表示を図15(B)で表す。以上のように動きブレの調整に関する情報を表示部109で表示することによりユーザーは、動きブレの調整を行なうか否か、どの領域に対して、動きブレの強さを好みの動きブレに調整することが可能となる。 Then, when the user wants to add motion blur to the motion blur correction target area, the user moves the cursor to the position 1512 of the blur control bar 1500 in FIG. 15B. In accordance with this movement of the cursor, step S304 of FIG. 3 is executed, the conversion processing of the motion blur conversion characteristic of L1402 of FIG. 14B is executed for the motion blur correction target area, and the motion blur correction target area is set. Add blur. The display after the adjustment of the motion blur is shown in FIG. As described above, by displaying the information regarding the adjustment of the motion blur on the display unit 109, the user adjusts the strength of the motion blur to the desired motion blur for which region, whether or not to adjust the motion blur. It becomes possible to do.
以上、実施例について説明を行なった。実施例によれば背景とフォロー被写体の動きが近い場合であってもフォロー被写体の動きブレを低減した流し撮り画像を生成することができる。 The examples have been described above. According to the embodiment, it is possible to generate a follow shot image in which the motion blur of the follow subject is reduced even when the background and the follow subject are close in motion.
尚、実施例においては、動きブレが小さい短秒時露光画像を撮像し、動きブレを付与することにより、動きブレを制御する実施例について説明を行なったが、動きブレの制御方法はこれに限ったものではない。例えば、動きブレが大きい長秒露光画像を撮像し、動きブレを低減することにより、動きブレを制御しても良い。動きブレを低減する方法については、例えば、ブラインドデコンボリューション手法といったような公知の技術を用い、説明は省略する。(ブラインドデコンボリューション手法は、画像における動きブレの特性を解析し、動きブレ特性の逆特性を画像に対してコンボリューションすることにより動きブレを低減する手法である。) In addition, in the embodiment, the embodiment in which the motion blur is controlled by capturing the short-time exposure image with small motion blur and imparting the motion blur has been described. It's not limited. For example, the motion blur may be controlled by capturing a long-second exposure image with large motion blur and reducing the motion blur. As a method for reducing motion blur, a known technique such as a blind deconvolution method is used, and a description thereof will be omitted. (The blind deconvolution method is a method of analyzing the characteristics of motion blur in an image and convolving the inverse characteristic of the motion blur characteristic with the image to reduce motion blur.)
尚、実施例において、指定動きブレとして動きブレ量の指定を受け付ける例について説明したが、指定動きブレとして受け付ける情報はこれに限ったものではない。例えば、指定動きブレとして動きブレ方向の指定を受け付けても良い。この場合、動きブレ変換特性算出部203は、基準動きベクトルに対応する動きブレの方向を指定動きブレの方向に変換する特性を算出する。これにより、動きブレの方向を調整することが可能となる。 In the embodiment, the example in which the designation of the motion blur amount is received as the designated motion blur has been described, but the information received as the designated motion blur is not limited to this. For example, the designation of the motion blur direction may be accepted as the designated motion blur. In this case, the motion blur conversion characteristic calculation unit 203 calculates a characteristic for converting the direction of the motion blur corresponding to the reference motion vector into the direction of the designated motion blur. This makes it possible to adjust the direction of motion blur.
尚、実施例において、基準動きベクトルの特定方法はユーザー指定を受け付けた領域に関連する情報と説明を行なったが、これに限ったものではない。例えば、撮像装置100がフォーカス位置を合わせた合焦領域の動きベクトルを基準動きベクトルとして特定しても良い。
また、実施例では複数の画像に基づき動きブレを自動生成して、1枚の画像に対して動きブレを付与しているが1枚の画像だけを用いてブレを付与してもよい。即ち、その1枚の画像に対して例えばユーザーが指定した領域に所定方向または所定量の動きブレを付与するようにしてもよいことは言うまでもない。
In the embodiment, the method of specifying the reference motion vector has been described with the information related to the area where the user designation is accepted, but the method is not limited to this. For example, the image capturing apparatus 100 may specify the motion vector of the focused area in which the focus position is adjusted as the reference motion vector.
Further, in the embodiment, the motion blur is automatically generated based on a plurality of images and the motion blur is applied to one image, but the motion blur may be applied using only one image. That is, it goes without saying that, for example, a motion blur of a predetermined direction or a predetermined amount may be added to the area designated by the user for the one image.
以上、本発明の好ましい実施例について説明したが、本発明はこれらの実施例に限定されず、その要旨の範囲内で種々の変形及び変更が可能である。
例えば実施例では撮像装置に着脱可能な記録部から読み出された複数の画像を取得して、それらの複数の画像を用いて撮像装置内で動きブレ画像を形成したが、上記の記録部は着脱可能なものでなくてもよいし、クラウドなどに設けた外部の記録部でもよい。また、上記のような記録部を撮像措置ではなく外部の情報処理装置に接続して記録部から読み出された画像を用いて情報処理装置内で動きブレ画像を形成してもよい。
Although the preferred embodiments of the present invention have been described above, the present invention is not limited to these embodiments, and various modifications and changes can be made within the scope of the gist thereof.
For example, in the embodiment, a plurality of images read from the recording unit that is attachable to and detachable from the image pickup apparatus is acquired, and a motion blur image is formed in the image pickup apparatus using the plurality of images. It need not be removable, and may be an external recording unit provided in a cloud or the like. Further, the above-described recording unit may be connected to an external information processing device instead of the image capturing device, and a motion blur image may be formed in the information processing device using an image read from the recording unit.
また、本発明における制御の一部または全部を上述した実施例の機能を実現するプログラム(ソフトウェア)をネットワーク又は各種記憶媒体を介して撮像装置や情報処理装置に供給するようにしてもよい。そしてその撮像装置や情報処理装置におけるコンピュータ(又はCPUやMPU等)がプログラムを読み出して実行するようにしてもよい。その場合、そのプログラム、及び該プログラムを記憶した記憶媒体は本発明を構成することとなる。 In addition, a program (software) that implements a part or all of the control according to the present invention to realize the functions of the above-described embodiments may be supplied to the imaging device or the information processing device via a network or various storage media. Then, the computer (or the CPU, MPU, or the like) in the imaging device or the information processing device may read out and execute the program. In that case, the program and the storage medium storing the program constitute the present invention.
100 撮像装置
101 制御部
102 ROM
103 RAM
104 光学系
105 撮像部
106 A/D変換部
107 画像処理部
108 記録部
109 表示部
110 指示入力部
200 動きブレ制御部
201 動きベクトル算出部
202 基準動きベクトル特定部
203 動きブレ変換特性算出部
204 動きブレ付与部
205 動きブレ補正対象領域特定部
100 image pickup device 101 control unit 102 ROM
103 RAM
104 optical system 105 image pickup unit 106 A/D conversion unit 107 image processing unit 108 recording unit 109 display unit 110 instruction input unit 200 motion blur control unit 201 motion vector calculation unit 202 reference motion vector identification unit 203 motion blur conversion characteristic calculation unit 204 Motion blurring unit 205 Motion blur correction target area specifying unit
Claims (17)
前記基準領域と所定の関連を有する動きブレ補正対象領域を自動的に特定する動きブレ補正対象領域特定手段と、
前記動きブレ補正対象領域から基準動きブレを特定する基準動きブレ特定手段と、
前記基準動きブレが所定の動きブレになるように前記動きブレ補正対象領域内の動きブレを変化させるとともに前記動きブレ補正対象領域の内外で動きブレの変化量を異ならせるように制御する動きブレ制御手段と、を有することを特徴とする画像処理装置。 A reference area designating means for designating a reference area,
Motion-blur correction target area specifying means for automatically specifying a motion-blur correction target area having a predetermined relationship with the reference area;
A reference motion blur identifying unit that identifies a reference motion blur from the motion blur correction target area;
A motion blur control that changes the motion blur in the motion blur correction target area so that the reference motion blur becomes a predetermined motion blur, and controls the variation amount of the motion blur to be different inside and outside the motion blur correction target area. An image processing apparatus comprising: a control unit.
前記基準領域と所定の関連を有する動きブレ補正対象領域を自動的に特定する動きブレ補正対象領域特定ステップと、
前記動きブレ補正対象領域から基準動きブレを特定する基準動きブレ特定ステップと、
前記基準動きブレが所定の動きブレになるように前記動きブレ補正対象領域内の動きブレを変化させる変化させるとともに前記動きブレ補正対象領域の内外で動きブレの変化量を異ならせるように制御する動きブレ制御ステップとを有することを特徴とする画像処理方法。 A reference area specifying step for specifying a reference area,
A motion blur correction target area specifying step of automatically specifying a motion blur correction target area having a predetermined relationship with the reference area;
A reference motion blur identifying step of identifying a reference motion blur from the motion blur correction target area;
The motion blur in the motion blur correction target area is changed so that the reference motion blur becomes a predetermined motion blur, and the change amount of the motion blur is controlled to be different inside and outside the motion blur correction target area. An image processing method comprising: a motion blur control step.
A computer-readable storage medium storing the computer program according to claim 16.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018213934A JP7143191B2 (en) | 2018-11-14 | 2018-11-14 | Image processing device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018213934A JP7143191B2 (en) | 2018-11-14 | 2018-11-14 | Image processing device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020080518A true JP2020080518A (en) | 2020-05-28 |
JP7143191B2 JP7143191B2 (en) | 2022-09-28 |
Family
ID=70802042
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018213934A Active JP7143191B2 (en) | 2018-11-14 | 2018-11-14 | Image processing device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7143191B2 (en) |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006080844A (en) * | 2004-09-09 | 2006-03-23 | Nikon Corp | Electronic camera |
WO2018116322A1 (en) * | 2016-12-20 | 2018-06-28 | Indian Institute Of Technology Madras | System and method for generating pan shots from videos |
-
2018
- 2018-11-14 JP JP2018213934A patent/JP7143191B2/en active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006080844A (en) * | 2004-09-09 | 2006-03-23 | Nikon Corp | Electronic camera |
WO2018116322A1 (en) * | 2016-12-20 | 2018-06-28 | Indian Institute Of Technology Madras | System and method for generating pan shots from videos |
Also Published As
Publication number | Publication date |
---|---|
JP7143191B2 (en) | 2022-09-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4582423B2 (en) | Imaging apparatus, image processing apparatus, imaging method, and image processing method | |
US8023000B2 (en) | Image pickup apparatus, image processing apparatus, image pickup method, and image processing method | |
US9432575B2 (en) | Image processing apparatus | |
JP5374220B2 (en) | Motion vector detection device, control method therefor, and imaging device | |
JP5159515B2 (en) | Image processing apparatus and control method thereof | |
JP5409189B2 (en) | Imaging apparatus and control method thereof | |
JP6539091B2 (en) | Image pickup apparatus and control method thereof | |
US8643728B2 (en) | Digital photographing device, method of controlling the digital photographing device, and computer-readable storage medium for determining photographing settings based on image object motion | |
JP2017006330A (en) | Medical picture processing device, medical picture processing method, and medical observation system | |
KR20100034631A (en) | Digital photographing apparatus, method for tracking, and recording medium storing program to implement the method | |
JP5187035B2 (en) | Imaging apparatus, image processing apparatus, and image processing program | |
US20160269636A1 (en) | Image processing apparatus, image processing method, and storage medium | |
JP2009017223A (en) | Imaging device, image processing device, and their image processing method and program | |
JP2010114752A (en) | Device and method of imaging and program | |
JP6261205B2 (en) | Image processing device | |
JP5144724B2 (en) | Imaging apparatus, image processing apparatus, imaging method, and image processing method | |
JP7198043B2 (en) | Image processing device, image processing method | |
US20150350547A1 (en) | Scene Stability Detection | |
JP6541501B2 (en) | IMAGE PROCESSING APPARATUS, IMAGING APPARATUS, AND IMAGE PROCESSING METHOD | |
JP2011193066A (en) | Image sensing device | |
JP7143191B2 (en) | Image processing device | |
JP2023165555A (en) | Image processing apparatus, imaging apparatus, control method, and program | |
JP7327917B2 (en) | Image processing device and image processing method | |
JP7224822B2 (en) | Image processing device and image processing method | |
JP7442989B2 (en) | Imaging device, control method for the imaging device, and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210906 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20220603 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220705 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220803 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220816 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220914 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 7143191 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |