JP7143191B2 - Image processing device - Google Patents

Image processing device Download PDF

Info

Publication number
JP7143191B2
JP7143191B2 JP2018213934A JP2018213934A JP7143191B2 JP 7143191 B2 JP7143191 B2 JP 7143191B2 JP 2018213934 A JP2018213934 A JP 2018213934A JP 2018213934 A JP2018213934 A JP 2018213934A JP 7143191 B2 JP7143191 B2 JP 7143191B2
Authority
JP
Japan
Prior art keywords
motion blur
motion
area
correction target
image processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018213934A
Other languages
Japanese (ja)
Other versions
JP2020080518A (en
Inventor
宏典 海田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2018213934A priority Critical patent/JP7143191B2/en
Publication of JP2020080518A publication Critical patent/JP2020080518A/en
Application granted granted Critical
Publication of JP7143191B2 publication Critical patent/JP7143191B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)
  • Adjustment Of Camera Lenses (AREA)
  • Image Processing (AREA)
  • Studio Devices (AREA)

Description

本発明は、画像処理装置及び画像処理方法に関し、特に、画像に発生する被写体の動きブレを制御するための技術に関する。 The present invention relates to an image processing apparatus and image processing method, and more particularly to a technique for controlling motion blurring of a subject that occurs in an image.

移動している被写体のスピード感を表現する撮影技法として流し撮りという技法がある。この流し撮り技法は、露光時間を通常よりも長めに設定し、撮影者が被写体の動きに追従するようにカメラをフォローして撮影を行う。このようにフォロー撮影した画像では、移動している被写体は静止し、背景は動きブレにより流れるような表現になる。一方、このような流し撮り画像を画像処理で生成する技術がある。この技術は、移動している被写体を撮影した複数枚画像間における動きを解析し、その動きに基づき動きブレを付与することにより、あたかも実際に流し撮りしたかのような画像を画像処理で生成する技術である。 There is a technique called panning as a photographing technique for expressing the sense of speed of a moving subject. In this panning technique, the exposure time is set longer than usual, and the photographer follows the movement of the subject with the camera. In images captured in follow-up photography in this way, the moving subject remains stationary, and the background appears flowing due to motion blur. On the other hand, there is a technique for generating such panning images by image processing. This technology analyzes the movement between multiple images of a moving subject and applies motion blur based on that movement to create an image that looks as if it were actually panned. It is a technology to

この画像処理により動きブレを付与する技術として特許文献1がある。特許文献1によると、複数の連続画像を撮影し複数枚間の画像から背景の動き量を算出することで背景に動きブレを付与する技術が開示されている。 Japanese Patent Application Laid-Open No. 2002-200300 discloses a technique for imparting motion blur by this image processing. Japanese Patent Application Laid-Open No. 2002-200001 discloses a technique of capturing a plurality of consecutive images and calculating the amount of movement of the background from the images between the plurality of images, thereby imparting motion blur to the background.

特開2010-15483号公報JP 2010-15483 A

このような流し撮りにおいては、移動している被写体は静止し、背景がブレていることが望ましい。しかしながら、フォロー撮影時において、被写体の動きに追従できていない場合、複数枚画像間において被写体の位置がずれ、その移動量に従い被写体に動きブレを付与してしまうため移動している被写体がブレてしまうといった課題がある。
特に背景とフォロー撮影をしている被写体の動きが近い場合には動き量をうまく分離する事ができず、画像処理でフォロー撮影時の被写体のブレをうまくとることはできない。
In such a panning shot, it is desirable that the moving subject is still and the background is blurred. However, during follow-up photography, if the movement of the subject cannot be followed, the position of the subject shifts between the multiple images, and motion blur is applied to the subject according to the amount of movement, resulting in blurring of the moving subject. There is a problem of squeezing.
In particular, when the movement of the background and the subject being followed up is close to each other, the amount of movement cannot be separated well, and image processing cannot effectively remove the blurring of the subject during the follow up shooting.

本発明は、上記の問題点を鑑みてなされたものであり、背景とフォロー被写体の動きが近い場合であってもフォロー撮影時の被写体の動きブレを低減した流し撮り画像を容易に生成することができる画像処理装置を実現することを目的とする。 SUMMARY OF THE INVENTION The present invention has been made in view of the above problems, and it is an object of the present invention to easily generate a panning image in which movement blurring of a subject during follow-up photography is reduced even when the movement of the background and the follow-up subject is close to each other. An object of the present invention is to realize an image processing apparatus capable of

画像処理装置において、基準領域を指定するための基準領域指定手段と、
前記基準領域と所定の関連を有する動きブレ補正対象領域を自動的に特定する動きブレ補正対象領域特定手段と、
前記動きブレ補正対象領域から基準動きブレを特定する基準動きブレ特定手段と、
前記基準動きブレが所定の動きブレになるように前記動きブレ補正対象領域内の動きブレを変化させるとともに前記動きブレ補正対象領域の内外で動きブレの変化量を異ならせるように制御する動きブレ制御手段と、を有することを特徴とする。
In the image processing device, reference area designating means for designating a reference area;
motion blur correction target area identifying means for automatically identifying a motion blur correction target area having a predetermined relationship with the reference area;
reference motion blur identifying means for identifying a reference motion blur from the motion blur correction target area;
The motion blur is controlled such that the motion blur within the motion blur correction target area is changed so that the reference motion blur becomes a predetermined motion blur, and the change amount of the motion blur is different between inside and outside the motion blur correction target area. and a control means.

本発明によれば、背景とフォロー被写体の動きが近い場合であってもフォロー撮影時の被写体の動きブレを低減した流し撮り画像を容易に生成することができる。 According to the present invention, even when the movement of the background and the follow subject is close, it is possible to easily generate a panning image in which motion blurring of the subject during follow shooting is reduced.

実施例1の画像処理装置の構成例を示す図。1 is a diagram showing a configuration example of an image processing apparatus according to a first embodiment; FIG. 実施例1における動きブレ制御部200の構成例を示す図。4 is a diagram showing a configuration example of a motion blur control unit 200 according to the first embodiment; FIG. 実施例1における動きブレ制御部200の処理フローを示すフローチャート。4 is a flowchart showing a processing flow of a motion blur control unit 200 according to the first embodiment; 代表シーンにおける撮像画像を示す図。FIG. 4 is a diagram showing a captured image in a representative scene; ステップS302自動動きブレ制御の処理フローを示すフローチャート。FIG. 10 is a flow chart showing a processing flow of automatic motion blur control in step S302; FIG. 動きベクトル算出部201の処理フローを示すフローチャート。4 is a flowchart showing a processing flow of a motion vector calculation unit 201; 動きベクトルの算出方法を示す図。FIG. 4 is a diagram showing a method of calculating a motion vector; 代表シーンにおける動きベクトルを示す図。FIG. 4 is a diagram showing motion vectors in a representative scene; 動きブレ変換特性を示す図。FIG. 5 is a diagram showing motion blurring conversion characteristics; 動きブレ補正対象領域の領域検出の方法を示す図。FIG. 4 is a diagram showing a method of detecting a motion blur correction target area; 動きブレ付与方法を示す図。FIG. 10 is a diagram showing a motion blur imparting method; ステップS304動きブレ調整の処理フローを示すフローチャート。FIG. 10 is a flowchart showing a processing flow of motion blur adjustment in step S304; FIG. 代表シーンにおける動きブレ調整の効果を示す図。FIG. 10 is a diagram showing the effect of motion blur adjustment in a representative scene; 動きブレ変換特性を示す図。FIG. 5 is a diagram showing motion blurring conversion characteristics; 動きブレ変換を行う際のユーザー表示画面を示す図。FIG. 10 is a diagram showing a user display screen when motion blur conversion is performed;

以下、図面を参照しながら本発明の好適な実施の形態について説明する。 Preferred embodiments of the present invention will be described below with reference to the drawings.

本発明の実施例1は、ユーザーによる動きブレに関する指示に基づき、画像の動きブレを制御する。以下、実施例1について説明する。
図1は、本実施例の動きブレ制御技術を画像処理装置の一例として撮像装置100に応用した場合の構成例を示すブロック図である。撮像装置100としては例えばカメラやスマートフォンなどが含まれる。以下、実施例1のブロック構成について図1を参照して説明する。なお、実施例1では画像処理装置の一例として撮像装置100に応用した場合について説明するが本発明は撮像装置ではなくてもよく、たとえばPCや撮像機能がない画像再生装置などであってもよい。
Embodiment 1 of the present invention controls motion blur of an image based on a user's instruction regarding motion blur. Example 1 will be described below.
FIG. 1 is a block diagram showing a configuration example when the motion blur control technique of this embodiment is applied to an imaging device 100 as an example of an image processing device. The imaging device 100 includes, for example, a camera and a smart phone. A block configuration of the first embodiment will be described below with reference to FIG. In the first embodiment, a case where the image processing apparatus is applied to the imaging apparatus 100 will be described as an example of the image processing apparatus. .

制御部101は、例えばコンピュータとしてのCPUであり、撮像装置100が備える各ブロックに対する動作制御プログラム(コンピュータプログラム)を後述の記憶媒体としてのROM102より読み出し、後述のRAM103に展開して実行する。これにより、制御部101は、撮像装置100が備える各ブロックの動作を制御する。ROM102は、電気的に消去・記録可能な不揮発性メモリであり、撮像装置100が備える各ブロックの動作制御プログラムに加え、各ブロックの動作に必要なパラメータ等を記憶する。RAM103は、書き換え可能な揮発性メモリであり、制御部101等が実行するプログラムの展開や、撮像装置100が備える各ブロックの動作で生成等されたデータの一時的な記憶等に用いられる。 The control unit 101 is, for example, a CPU as a computer, and reads an operation control program (computer program) for each block included in the imaging apparatus 100 from a ROM 102 as a storage medium described later, develops it in a RAM 103 described later, and executes it. Thereby, the control unit 101 controls the operation of each block included in the imaging device 100 . The ROM 102 is an electrically erasable/recordable non-volatile memory, and stores an operation control program for each block included in the imaging apparatus 100, as well as parameters required for the operation of each block. A RAM 103 is a rewritable volatile memory, and is used for development of programs executed by the control unit 101 and the like, temporary storage of data generated by the operation of each block included in the imaging apparatus 100, and the like.

光学系104は、ズームレンズ、フォーカスレンズを含むレンズ群で構成され、被写体像を後述の撮像部105の撮像面上に結像する。撮像部105は、例えばCCDやCMOSセンサー等の撮像素子であり、光学系104により撮像部105の撮像面上に結像された光学像を光電変換し、得られたアナログ画像信号をA/D変換部106に出力する。A/D変換部106は、入力されたアナログ画像信号をデジタル画像データに変換する。A/D変換部106から出力されたデジタル画像データは、RAM103に一時的に記憶される。画像処理部107は、RAM103に記憶されている画像データに対して、ホワイトバランス調整、色補間、ガンマ処理など、様々な画像処理を適用する。また、画像処理部107は、動きブレ制御部200を具備し、記録部108に記憶されている画像に対して動きブレを付与した動きブレ画像を生成する。 The optical system 104 is composed of a lens group including a zoom lens and a focus lens, and forms a subject image on an imaging surface of an imaging unit 105, which will be described later. The imaging unit 105 is, for example, an imaging device such as a CCD or CMOS sensor, photoelectrically converts an optical image formed on the imaging surface of the imaging unit 105 by the optical system 104, and converts the obtained analog image signal into an A/D signal. Output to conversion unit 106 . The A/D converter 106 converts the input analog image signal into digital image data. Digital image data output from the A/D converter 106 is temporarily stored in the RAM 103 . The image processing unit 107 applies various image processing such as white balance adjustment, color interpolation, and gamma processing to the image data stored in the RAM 103 . The image processing unit 107 also includes a motion blurring control unit 200 and generates a motion blurring image by adding motion blurring to the image stored in the recording unit 108 .

記録部108は、着脱可能なメモリカード等を含む。記録部108は、画像処理部107で処理された画像データを、RAM103を介し、記録画像として記録する。また、記録部108は、記録している画像データを、RAM103を介し、画像処理部107に出力することもできる。表示部109は、LCD等の表示デバイスであり、RAM103に一時的に記憶されている画像や記録部108に記録されている画像の表示、ユーザーからの指示を受け付けるための操作ユーザーインターフェイス画像の表示等を行う。指示入力部110は、タッチパネルやマウス、キーボード等であり、ユーザーによる指示を受け付ける。 Recording unit 108 includes a detachable memory card or the like. A recording unit 108 records the image data processed by the image processing unit 107 as a recorded image via the RAM 103 . The recording unit 108 can also output the recorded image data to the image processing unit 107 via the RAM 103 . A display unit 109 is a display device such as an LCD, and displays images temporarily stored in the RAM 103 and images recorded in the recording unit 108, and displays an operation user interface image for receiving instructions from the user. etc. The instruction input unit 110 is a touch panel, a mouse, a keyboard, or the like, and receives instructions from the user.

次に、本実施例の特徴である画像処理部107の動作について、詳細に説明を行う。本実施例では、露光時間が短い撮像画像に対する動きブレを制御する例について記載する。
まず、画像処理部107が具備する動きブレ制御部200の構成例について、図2を参照して説明する。動きブレ制御部200は、記録部108に記録した画像データに対して、動きブレを付与し、動きブレ画像を生成する。
図2は、動きブレ制御部200の構成例を示す図である。動きブレ制御部200は、動きベクトル算出部201、基準動きブレ特定手段としての基準動きベクトル特定部202、動きブレ変換特性算出部203、動きブレ付与部204及び動きブレ補正対象領域特定部205より構成されている。
次に、動きブレ制御部200の処理について、図3のフローチャートを参照して説明する。
Next, the operation of the image processing unit 107, which is a feature of this embodiment, will be described in detail. In this embodiment, an example of controlling motion blur for a captured image with a short exposure time will be described.
First, a configuration example of the motion blur control unit 200 included in the image processing unit 107 will be described with reference to FIG. A motion blur control unit 200 applies motion blur to the image data recorded in the recording unit 108 to generate a motion blurred image.
FIG. 2 is a diagram showing a configuration example of the motion blur control unit 200. As shown in FIG. The motion blur control unit 200 includes a motion vector calculation unit 201, a reference motion vector identification unit 202 as reference motion blur identification means, a motion blur conversion characteristic calculation unit 203, a motion blur imparting unit 204, and a motion blur correction target area identification unit 205. It is configured.
Next, processing of the motion blur control unit 200 will be described with reference to the flowchart of FIG.

図3のステップS301において、制御部101は撮像部105が撮像する際の露光時間を決定する。そして、撮像部105は決定した露光時間に基づき複数枚画像を撮像(撮影)し、記録部108に記録する。本実施例では、撮像フレームレートとして毎秒60枚の画像を撮像する例について説明する。つまり、撮像部105は1/60秒毎に1枚の画像を撮像する。露光時間は、表示部109のユーザーインターフェイスを介し、ユーザーが決定しても良いし、制御部101が自動露出制御により決定しても良い。自動露出制御による露光時間の決定方法は、例えば、撮像部105が撮像したデジタル画像データの所定領域毎の測光値に基づき露光時間を決定する方法が挙げられる。詳細は後述するが、ここで決定する露光時間は、通常の流し撮りよりも短い時間とし、動体ブレの少ない画像を撮像する。撮像する画像の例について図4を参照して説明する。図4は、撮影者が走っている犬を追従するように撮像装置100を振り、フォローしながら連写撮影(フォロー撮影)をしている例を示し、図4(A)はNフレーム目の撮像画像、図4(B)はN+1フレーム目の撮像画像を示す。尚、Nは正の整数である。また、Nフレーム目、N+1フレーム目の撮像画像は、短い露光時間で撮像しているため撮像画像に大きな動きブレは発生していない。 In step S301 of FIG. 3, the control unit 101 determines the exposure time when the imaging unit 105 takes an image. Then, the image capturing unit 105 captures (photographs) a plurality of images based on the determined exposure time, and records them in the recording unit 108 . In this embodiment, an example in which 60 images are captured per second as the imaging frame rate will be described. That is, the imaging unit 105 captures one image every 1/60th of a second. The exposure time may be determined by the user via the user interface of the display unit 109, or may be determined by the control unit 101 through automatic exposure control. A method of determining the exposure time by automatic exposure control includes, for example, a method of determining the exposure time based on the photometric value for each predetermined area of the digital image data captured by the imaging unit 105 . Although the details will be described later, the exposure time determined here is set to be shorter than that of normal panning, and an image with little moving object blurring is captured. An example of an image to be captured will be described with reference to FIG. FIG. 4 shows an example in which the photographer swings the imaging device 100 so as to follow a running dog and performs continuous shooting (follow-up shooting) while following the dog. FIG. A captured image, and FIG. 4B shows a captured image of the N+1th frame. Note that N is a positive integer. Also, since the captured images of the Nth frame and the N+1th frame are captured with a short exposure time, no large motion blur occurs in the captured images.

フォロー撮影時において、走っている犬の細部に完璧に追従し撮影することは非常に困難である。図4の例では、走っている犬の前後の足の動きが、犬の胴体と異なるため、Nフレーム目とN+1フレーム目で変化してしまっている。
図3のステップS302において、動きブレ制御部200は、ステップS301において撮像したNフレーム目の撮像画像に対して動きブレを付与し、動きブレ画像を表示部109に表示する。ステップS302の動きブレ付与の詳細については、図5を用いて後述する。
During follow-up photography, it is extremely difficult to perfectly follow and photograph the details of a running dog. In the example of FIG. 4, the movement of the front and back legs of the running dog is different from that of the body of the dog, and therefore changes between the N-th frame and the N+1-th frame.
In step S<b>302 in FIG. 3 , the motion blur control unit 200 imparts motion blur to the captured image of the Nth frame captured in step S<b>301 and displays the motion blurred image on the display unit 109 . Details of the motion blur imparting in step S302 will be described later with reference to FIG.

図3のステップS303において、ユーザーはステップS302において表示部109に表示した動きブレ画像を確認し、指示入力部110は、動きブレの調整が必要か否かの指示を受け付ける。ステップS303において、動きブレの調整が必要という指示を受け付けなかった場合は図3のフローは終了となる。ステップS303において、動きブレの調整が必要という指示を受け付けた場合は、図3のステップS304に処理に移行する。
図3のステップS304において、動きブレに関するユーザー指示に基づき、ステップS301の処理で撮像したNフレーム目の撮像画像に対して動きブレを調整し、動きブレ画像を表示部109に表示する。ステップS304の動きブレの調整方法については、図12を用いて後述する。
In step S303 of FIG. 3, the user confirms the motion-blurred image displayed on the display unit 109 in step S302, and the instruction input unit 110 receives an instruction as to whether adjustment of motion blur is necessary. In step S303, if the instruction that motion blur adjustment is necessary is not accepted, the flow of FIG. 3 ends. In step S303, if an instruction that motion blurring adjustment is necessary is accepted, the process proceeds to step S304 in FIG.
In step S<b>304 in FIG. 3 , motion blur is adjusted for the captured image of the Nth frame captured in the processing of step S<b>301 based on the user's instruction regarding motion blur, and the motion blurred image is displayed on the display unit 109 . The motion blur adjustment method in step S304 will be described later with reference to FIG.

図3のステップS305において、ユーザーはステップS304の処理により表示部109に表示した動きブレ画像を確認し、指示入力部110は、動きブレの調整が完了したか否かの指示を受け付ける。ステップS305において、動きブレの調整が完了したという指示を受け付けた場合は図3のフローは終了となる。一方、ステップS305において、動きブレの調整が完了したという指示を受け付けない場合は、図3のステップS304に戻り、動きブレ調整を繰り返す。
次に、図3のステップS302における自動で動きブレを付与する処理の詳細について、図5のフローチャートを参照して説明する。
In step S305 of FIG. 3, the user confirms the motion-blurred image displayed on the display unit 109 by the process of step S304, and the instruction input unit 110 receives an instruction as to whether or not the motion-blur adjustment has been completed. In step S305, if an instruction that the adjustment of motion blur has been completed is received, the flow of FIG. 3 ends. On the other hand, in step S305, if the instruction that the motion blurring adjustment has been completed is not received, the process returns to step S304 in FIG. 3 to repeat the motion blurring adjustment.
Next, details of the process of automatically imparting motion blur in step S302 of FIG. 3 will be described with reference to the flowchart of FIG.

図5のステップS501において、制御部101が目標動きブレ情報を算出する。目標動きブレ情報とは、露光時間が何秒相当の動きブレの付与を目標とするか示す情報である。この目標動きブレ情報により、動きブレの長さが変わる。例えば、1/60秒相当の動きブレの長さは1/120秒相当の動きブレの長さの2倍となる。 In step S501 of FIG. 5, the control unit 101 calculates target motion blur information. The target motion blur information is information indicating how many seconds of exposure time the motion blur should be imparted as a target. This target motion blur information changes the length of the motion blur. For example, the length of motion blur equivalent to 1/60 second is twice the length of motion blur equivalent to 1/120 second.

図5のステップS502において、図2の動きベクトル算出部201は、記録部108に記録した撮像画像間の動きベクトルを算出する。そして、算出した動きベクトルを図2の基準動きベクトル特定部202及び動きブレ付与部204に出力する。ここで、動きベクトルの算出方法について、図6、図7及び図8を参照して説明する。
図6は、動きベクトル算出部201によるステップS502の動きベクトルの算出処理を示すフローチャート、図7は、ブロックマッチング法による動きベクトルの算出方法を示す図である。尚、本実施例では、動きベクトルの算出手法例として、ブロックマッチング法について説明するが、動きベクトルの算出手法はこれに限ったものではない。例えば、オプティカルフロー手法でも良い。
In step S502 in FIG. 5, the motion vector calculation unit 201 in FIG. 2 calculates a motion vector between captured images recorded in the recording unit . Then, the calculated motion vector is output to the reference motion vector specifying unit 202 and the motion blur imparting unit 204 in FIG. Here, a motion vector calculation method will be described with reference to FIGS. 6, 7 and 8. FIG.
FIG. 6 is a flowchart showing the motion vector calculation processing in step S502 by the motion vector calculation unit 201, and FIG. 7 is a diagram showing a motion vector calculation method by the block matching method. In this embodiment, a block matching method will be described as an example of a motion vector calculation method, but the motion vector calculation method is not limited to this. For example, an optical flow method may be used.

図6のステップS601において、図2の動きベクトル算出部201は、記録部108に記録した2枚の撮像画像を入力する。そして、Nフレーム目の撮像画像を基準撮像画像に設定し、時間的に後のN+1フレーム目の撮像画像を参照撮像画像に設定する。
図6のステップS602において、図7のように、基準撮像画像701において、N×N画素の基準ブロック702を配置する。
図6のステップS603において、図7のように、参照撮像画像703において、基準撮像画像701の基準ブロック702と同座標704の周囲(N+n)×(N+n)画素を探索範囲705に設定する。
In step S601 in FIG. 6, the motion vector calculation unit 201 in FIG. 2 inputs two captured images recorded in the recording unit . Then, the captured image of the Nth frame is set as the reference captured image, and the captured image of the N+1th frame later in time is set as the reference captured image.
In step S602 of FIG. 6, a reference block 702 of N×N pixels is arranged in a reference captured image 701 as shown in FIG.
In step S603 of FIG. 6, in the reference captured image 703, (N+n)×(N+n) pixels around the same coordinates 704 as the reference block 702 of the reference captured image 701 are set as the search range 705 as shown in FIG.

図6のステップS604において、参照撮像画像703の探索範囲705に存在する異なる座標のN×n画素の参照ブロックと基準撮像画像701の基準ブロック702の相関演算を行い、相関値を算出する。相関値は、基準ブロック702及び参照ブロックの画素に対する、画像間差分絶対値和に基づき算出する。つまり、差分絶対値和の値が最も小さい座標が、最も相関値が高い座標となる。尚、相関値の算出方法は、差分絶対値和に限ったものではない。例えば、差分二乗和や正規相互相関値に基づき、相関値を算出しても良い。図7の例では、参照ブロック706が最も相関が高いことを示している。
図6のステップS605において、最も高い相関値を示す参照ブロック座標に基づき動きベクトルを算出する。図7の例では、基準撮像画像701の基準ブロック702と同座標704から参照ブロック706の中心座標の差を動きベクトルとする。
In step S604 of FIG. 6, a correlation calculation is performed between a reference block of N×n pixels at different coordinates existing in the search range 705 of the reference captured image 703 and the reference block 702 of the reference captured image 701 to calculate a correlation value. A correlation value is calculated based on the sum of the inter-image absolute difference values for the pixels of the standard block 702 and the reference block. That is, the coordinate with the smallest sum of absolute difference values is the coordinate with the highest correlation value. Note that the method of calculating the correlation value is not limited to the sum of absolute differences. For example, the correlation value may be calculated based on the sum of squared differences or normal cross-correlation value. In the example of FIG. 7, reference block 706 shows the highest correlation.
At step S605 in FIG. 6, a motion vector is calculated based on the reference block coordinates showing the highest correlation value. In the example of FIG. 7, the motion vector is the difference between the coordinates 704 of the reference block 702 of the reference captured image 701 and the center coordinates of the reference block 706 .

図6のステップS606において、図7の基準ブロック702を移動させながら、ステップS602、ステップS603、ステップS604及びステップS605の処理を繰り返し、基準撮像画像701の全画素の動きベクトルを算出する。尚、全画素の動きベクトルを算出するのではなく、所定画素毎に動きベクトルを算出してもよい。
以上のような方法に基づき算出した撮像画像間の動きベクトルの例を図8に示す。図8は、図4(A)Nフレーム目の撮像画像を基準撮像画像、図4(B)Nフレーム目の撮像画像を基準撮像画像とした場合の差分情報に基づく動きベクトルを示す図である。図8の矢印が動きベクトルを示し、矢印の長さが動きベクトルの長さ、矢印の方向が動きベクトルの方向を示す。図8の例では画素毎の動きベクトルは描画せず、代表的な動きベクトルのみに簡略化し示している。
In step S606 of FIG. 6, while moving the reference block 702 of FIG. 7, the processing of steps S602, S603, S604, and S605 is repeated to calculate motion vectors of all pixels of the reference captured image 701. FIG. Instead of calculating motion vectors for all pixels, motion vectors may be calculated for each predetermined pixel.
FIG. 8 shows an example of motion vectors between captured images calculated based on the above method. 8A and 8B are diagrams showing motion vectors based on difference information when the captured image of the Nth frame in FIG. 4A is the reference captured image and the captured image of the Nth frame in FIG. 4B is the reference captured image. . The arrow in FIG. 8 indicates the motion vector, the length of the arrow indicates the length of the motion vector, and the direction of the arrow indicates the direction of the motion vector. In the example of FIG. 8, motion vectors for each pixel are not drawn, and only representative motion vectors are shown in a simplified manner.

図8の例では、撮像装置100を向かって右から左に振り、中央で走っている犬をフォロー撮影している。そのため、背景の静止物は右方向の動きベクトルとして検出し、走っている犬の胴体付近(800)は撮像装置100と同じ動きのため、撮像装置100と犬の相対速度としては0のため、動きベクトルとして0が算出される。しかしながら、犬の手足の振りに対してはフォロー撮影方向と速度や動きが異なるため0以外の動きベクトルが出現する。それぞれ前足の動きベクトルは、801、802で表され、後ろ足の動きベクトルは803、804である。前足(801、802)と後ろ足(803、804)は別方向の動きベクトルとなっている。更に、後ろ足の動きベクトルは、背景のベクトルと同じ動き量になっている事を示している。動きベクトルには方向が存在する。そのため本実施例中では、例えば水平方向では左向き、垂直方向では下向きの動きベクトルはマイナス、逆に右や上向きの動きベクトルはプラスで説明を行なう。 In the example of FIG. 8, the user swings the imaging device 100 from right to left to capture a follow-up shot of a running dog in the center. Therefore, a stationary object in the background is detected as a motion vector in the right direction. 0 is calculated as a motion vector. However, motion vectors other than 0 appear for the swinging of the dog's limbs because the speed and motion are different from those in the follow-up shooting direction. The motion vectors of the front legs are represented by 801 and 802, and the motion vectors of the rear legs are 803 and 804, respectively. Front legs (801, 802) and rear legs (803, 804) have motion vectors in different directions. Furthermore, it shows that the motion vector of the hind leg has the same amount of motion as the vector of the background. A motion vector has a direction. Therefore, in the present embodiment, for example, leftward motion vectors in the horizontal direction and downward motion vectors in the vertical direction are assumed to be negative, while rightward and upward motion vectors are positive.

図5のステップS503において、図2の動きブレ変換特性算出部203は、目標動きブレ情報に基づいて動きベクトルを動きブレ付与情報に変換するための特性を算出する。尚、動きブレ付与情報とは、水平方向の動きブレ量と垂直方向の動きブレ量から成り、動きブレ付与部204が動きブレを付与するための動きブレの方向(動きベクトルの向きに対応)と動きブレ量(動きベクトルの長さに対応)を決める情報である。この動きブレ変換特性の算出方法について図9を参照して説明する。図9は、動きブレ変換特性を示す図である。横軸は、動きベクトルの水平方向の移動量を示す値で、縦軸は水平方向の動きブレ量を示している。尚、図9においては、簡略化のため動きベクトルの水平成分を水平方向の動きブレ量に変換する変換特性を示している。本来、動きベクトルは水平方向の移動量と垂直方向の移動量から成るが、垂直方向に関する変換方法及び変換特性は水平方向と同様の方法で算出するため説明は省略する。
図9における動きブレ変換特性L901は以下の式(1)で表され、目標動きブレ情報が1/60秒相当の場合の動きブレ変換特性である。
水平方向の動きブレ量 = 水平方向の移動量 ・・・式(1)
In step S503 in FIG. 5, the motion blurring conversion characteristic calculation unit 203 in FIG. 2 calculates a characteristic for converting a motion vector into motion blurring addition information based on the target motion blurring information. The motion blur imparting information consists of the amount of motion blur in the horizontal direction and the amount of motion blur in the vertical direction. and the motion blur amount (corresponding to the length of the motion vector). A method for calculating the motion blurring conversion characteristic will be described with reference to FIG. FIG. 9 is a diagram showing motion blur conversion characteristics. The horizontal axis represents the amount of movement of the motion vector in the horizontal direction, and the vertical axis represents the amount of motion blur in the horizontal direction. For the sake of simplification, FIG. 9 shows conversion characteristics for converting the horizontal component of the motion vector into the amount of motion blur in the horizontal direction. Originally, a motion vector consists of a horizontal movement amount and a vertical movement amount, but since the conversion method and conversion characteristics for the vertical direction are calculated in the same manner as for the horizontal direction, description thereof will be omitted.
A motion blurring conversion characteristic L901 in FIG. 9 is represented by the following equation (1), and is a motion blurring conversion characteristic when the target motion blurring information is equivalent to 1/60 second.
Horizontal motion blur amount = horizontal movement amount (1)

撮像画像のフレームレートは毎秒60枚であるため、水平方向の移動量は、1/60秒間における移動量となる。動きブレ変換特性L901は、1/60秒間における移動量に相当する動きブレ量を算出している。
また、図9における動きブレ変換特性L902は式(2)で表され、目標動きブレ情報が1/120相当の場合の動きブレ変換特性である。
水平方向の動きブレ量 = 1/2 × 水平方向の移動量 ・・・式(2)
動きブレ変換特性L902は、1/60秒間における移動量の半分である1/120秒間における移動量に相当する動きブレ量を算出している。
Since the frame rate of captured images is 60 frames per second, the amount of movement in the horizontal direction is the amount of movement in 1/60 second. The motion blurring conversion characteristic L901 calculates the motion blurring amount corresponding to the moving amount in 1/60 second.
Also, the motion blur conversion characteristic L902 in FIG. 9 is represented by Equation (2), and is the motion blur conversion characteristic when the target motion blur information is equivalent to 1/120.
Horizontal motion blur amount = 1/2 x horizontal movement amount (2)
The motion blurring conversion characteristic L902 calculates the motion blurring amount corresponding to the moving amount in 1/120 second, which is half the moving amount in 1/60 second.

つまり、動きブレ変換特性L902に基づき変換した場合、動きブレ変換特性901に基づき変換した動きブレ量の二分の一相当の動きブレ量を付与することになる。このように動きブレ変換特性を変えることにより、動きブレ量をコントロールすることが可能となる。図5のステップS504において、動きブレ付与部204は、動きブレ変換特性算出部203が算出した動きブレ変換特性と動きベクトル算出部201が算出した画素毎の動きベクトルを参照する。そして両者のベクトルに基づき撮像画像に動きブレを付与し、動きブレ画像を表示部109に出力する。動きブレ付与方法については、例えば特開2010-15483に記載されている動きベクトルを用いたフィルター処理を行うことで実現できる。この動きブレを付与するフィルター処理は、画素単位もしくは、複数画素による画素ブロック単位で行なうことが可能である。また、動きベクトルの大きさと向きに基づいてフィルター処理を施す際のフィルターのタップ数(フィルターサイズ)を変更してフィルター処理を施すことにより動きブレを変化させることができる。 That is, when conversion is performed based on the motion blurring conversion characteristic L902, a motion blurring amount equivalent to half the motion blurring amount converted based on the motion blurring conversion characteristic 901 is added. By changing the motion blurring conversion characteristics in this way, it is possible to control the motion blurring amount. In step S<b>504 in FIG. 5 , the motion blur applying unit 204 refers to the motion blur conversion characteristics calculated by the motion blur conversion characteristics calculation unit 203 and the motion vectors for each pixel calculated by the motion vector calculation unit 201 . Then, motion blur is applied to the captured image based on both vectors, and the motion blurred image is output to the display unit 109 . The motion blur imparting method can be realized by performing filter processing using a motion vector, for example, described in Japanese Patent Laid-Open No. 2010-15483. The filter processing for imparting motion blur can be performed in units of pixels or in units of pixel blocks made up of a plurality of pixels. In addition, motion blur can be changed by changing the number of filter taps (filter size) when filtering is performed based on the magnitude and direction of the motion vector.

図11は動きブレ付与の方法を示す図である。図11の動きブレ付与情報L1101は、着目画素Aの動きブレ付与情報を示す。また、この動きブレ付与情報L1101は、画素Aから画素B及び画素Cを通り、画素Dまで到達する動きブレ付与情報であり、動きベクトルが水平方向に4ピクセル、垂直方向に4ピクセルを表している。 図5のステップS505において、ステップS504において動きブレ付与部204が生成した動きブレ画像を表示部109に表示する。
以上、図3のステップS302における自動動きブレ制御の処理について説明した。
FIG. 11 is a diagram showing a method of imparting motion blur. Motion blurring addition information L1101 in FIG. 11 indicates motion blurring addition information for the pixel A of interest. Further, this motion blurring addition information L1101 is motion blurring addition information that reaches pixel D from pixel A through pixels B and C, and a motion vector represents 4 pixels in the horizontal direction and 4 pixels in the vertical direction. there is In step S505 of FIG. 5, the motion blurring image generated by the motion blur imparting unit 204 in step S504 is displayed on the display unit 109. FIG.
The automatic motion blur control processing in step S302 of FIG. 3 has been described above.

次に、図3のステップS304における動きブレ調整方法について、図12のフローチャートを参照して詳しく説明する。動きブレ調整は、被写体毎に動きブレ量を調整したいというユーザーの要求を実現するために行なう。
図12のステップS1201において、制御部101は、指示入力部110を介し、ユーザーによる動きブレ調整指示として指定基準領域の指定(指示)を受け付ける。このとき指示入力部110は基準領域指定手段として機能する。また、図12のステップS1202において、制御部101は、指示入力部110を介し、ユーザーによる動きブレ調整指示として指定基準領域における指定動きブレの指示を受け付ける。動きブレ調整指示を受け付ける方法に関して図13を参照して説明する。
Next, the motion blur adjustment method in step S304 of FIG. 3 will be described in detail with reference to the flowchart of FIG. Motion blur adjustment is performed to meet a user's request to adjust the amount of motion blur for each subject.
In step S1201 of FIG. 12, the control unit 101 receives designation (instruction) of a designated reference area as a motion blur adjustment instruction from the user via the instruction input unit 110. FIG. At this time, the instruction input unit 110 functions as a reference area specifying means. Further, in step S1202 in FIG. 12, the control unit 101 receives a specified motion blurring instruction in the specified reference area as a motion blurring adjustment instruction from the user via the instruction inputting unit 110. FIG. A method of accepting a motion blur adjustment instruction will be described with reference to FIG.

図13(A)は動きブレ調整前画像を示し、図13(B)は指定基準領域のブレ量以下の動きぶれ量を軽減した動きブレ調整後画像を示し、図13(C)は、指定基準領域の周辺(手足)のみの動きぶれ量を軽減した動きブレ調整後画像を示す。図13(B)のように、指定基準領域のブレ量以下の動きブレ量を軽減した場合は、指定基準領域のブレ量に近い動きブレ量をもつ背景領域なども同時に動きブレ量が軽減されてしまう。そこで本実施例では、図13(C)のように、指定基準領域を含み指定基準領域の被写体に関連する周辺(手足)領域のみの動きぶれ量を制御する。これにより、ユーザーが所望とする領域だけに絞って動きブレを調整することができる。 FIG. 13A shows an image before motion blur adjustment, FIG. 13B shows an image after motion blur adjustment in which the motion blur amount is reduced to a value equal to or less than the blur amount of the specified reference area, and FIG. FIG. 10 shows an image after motion blur adjustment in which the amount of motion blur only around the reference area (hands and feet) is reduced. As shown in FIG. 13B, when the motion blur amount less than or equal to the blur amount of the designated reference area is reduced, the motion blur amount of the background area having the motion blur amount close to the blur amount of the designated reference area is also reduced at the same time. end up Therefore, in this embodiment, as shown in FIG. 13C, the amount of motion blurring is controlled only in peripheral (hands and feet) areas that include the specified reference area and are related to the subject in the specified reference area. As a result, it is possible to adjust the motion blur by focusing only on the area desired by the user.

図13(A)動きブレ調整前画像は、図3のステップS302における自動動きブレ制御後に表示部109に表示した動きブレ画像である。ユーザーは表示部109に表示された動きブレ画像を確認し、動きブレ画像の調整が必要か否かを判断する(図3のステップS303の判断)。ここで、図13(A)動きブレ調整前画像の例では、背景だけではなく、主被写体の走っている犬の手足まで動きブレが発生している。図13(A)は、図8の動きベクトルに基づき動きブレを付与している図であり、犬の手足の動きベクトルの大きさが0ではないためである。一般的に、流し撮り画像は主被写体には動きブレが付かずに静止し、背景に動きブレが付与される画像の方が、主被写体に動きブレが付いている画像に比べて主被写体のスピード感が際立ち好ましいとされている。そこで本実施例ではユーザーは、図13(A)の動きブレ調整前画像のような動きブレ画像を確認し、タッチパネルによるタッチ操作、又は、マウスによるクリック操作等により動きブレ画像の調整を指示する。 FIG. 13A shows an image before motion blurring adjustment, which is a motion blurring image displayed on the display unit 109 after the automatic motion blurring control in step S302 of FIG. The user confirms the motion-blurred image displayed on the display unit 109, and determines whether adjustment of the motion-blurred image is necessary (determination in step S303 in FIG. 3). Here, in the example of the image before motion blur adjustment in FIG. 13A, motion blur occurs not only in the background but also in the hands and feet of the main subject, the running dog. FIG. 13A is a diagram in which motion blur is added based on the motion vectors in FIG. In general, in panning images, the main subject is still without motion blurring, and the background is motion-blurred. It is said that the sense of speed stands out and is preferable. Therefore, in this embodiment, the user confirms a motion-blurred image such as the image before motion-blurring adjustment in FIG. .

具体的には、図13(A)L1301、L1302に示すように、ユーザーは動きブレの調整したい領域をタッチ操作又はクリック操作する。その際に、タッチ操作のやり方やクリック操作等のやり方に基づき、指定基準領域の動きブレを小さく調整するのか、大きく調整するのかを指定する。例えば、ユーザーがシングルタッチ又はシングルクリックで指定した場合、制御部101は、指定基準領域の指定動きブレとして、動きブレを小さくする指示として受け付ける。また、ユーザーがダブルタッチ又はダブルクリックで指定した場合、制御部101は、指定基準領域の指定動きブレとして、動きブレを大きくする指示として受け付ける。なお、指定基準領域を指定する方法としては上記のようなタッチやクリックではなくてもよく、例えば画面内における座標情報をテンキーなどで入力することによって指定してもよい。 Specifically, as indicated by L1301 and L1302 in FIG. 13A, the user touches or clicks an area to be adjusted for motion blur. At that time, it is specified whether to adjust the movement blur of the designated reference area to be small or large, based on the way of touch operation, click operation, or the like. For example, when the user designates with a single touch or single click, the control unit 101 receives an instruction to reduce the motion blur as the designated motion blur of the designated reference area. Also, when the user double-touches or double-clicks to specify, the control unit 101 receives an instruction to increase the motion blur as the specified motion blur of the specified reference area. It should be noted that the method of specifying the specification reference area need not be the touch or click as described above, and may be specified by, for example, inputting coordinate information on the screen using a numeric keypad or the like.

例えば、図13(A)動きブレ調整前画像において、犬の動きブレを小さく調整する場合、ユーザーは走っている犬の手足の一部(L1301、L1302)をシングルクリックで指定する。すると、制御部101が指定した座標を指定基準領域として受け付けると共に、指定基準領域とその周辺の領域を自動的に検出し、指定動きブレとして動きブレを小さくする指示として受け付ける。尚、以下の説明では、ユーザーが走っている犬をシングルクリックして指定し、犬の動きブレを小さく調整する例について説明する。
尚、制御部101が受け付ける指定基準領域は、ユーザーがクリックにより指定した一か所だけの座標だけではなくてもよい。例えば、ユーザーが走っている犬全体あるいはその一部を丸く囲う指定を行った場合、制御部101は、その囲われた領域を指定基準領域として受け付けても良い。
For example, in the image before motion blurring adjustment in FIG. 13A, when the motion blurring of the dog is to be adjusted to be small, the user designates a part of the limbs (L1301, L1302) of the running dog with a single click. Then, the control unit 101 accepts the specified coordinates as a specified reference area, automatically detects the specified reference area and its surrounding areas, and accepts an instruction to reduce the motion blur as a specified motion blur. In the following description, an example will be described in which the user designates a running dog by single-clicking and adjusts the motion blur of the dog to be small.
Note that the designation reference area accepted by the control unit 101 may not be limited to the coordinates of only one location designated by the user by clicking. For example, when the user designates that the whole or a part of the running dog is surrounded by a circle, the control unit 101 may accept the surrounded area as the designation reference area.

図12のステップS502′において、動きベクトル算出部201は、記録部108に記録した撮像画像間の動きベクトルを算出する。具体的には、動きベクトル算出部201は、図4(A)Nフレーム目の撮像画像と図4(B)N+1フレーム目の撮像画像を入力し、両者の差分情報に基づき図8のような動きベクトルを算出する。尚、図12のステップS502´における動きベクトルの算出方法は、図5のステップS502と同様の処理により算出するものとし、説明は省略する。また、図3のステップS302の自動動きブレ制御処理の際に算出した動きベクトルを記録部108に記録し、図12のステップS502′において使用しても良い。 In step S502′ of FIG. 12, the motion vector calculation unit 201 calculates a motion vector between the captured images recorded in the recording unit 108. FIG. Specifically, the motion vector calculation unit 201 inputs the captured image of the Nth frame in FIG. 4A and the captured image of the N+1th frame in FIG. Calculate the motion vector. It should be noted that the motion vector calculation method in step S502′ of FIG. 12 is calculated by the same processing as in step S502 of FIG. 5, and a description thereof will be omitted. Also, the motion vector calculated during the automatic motion blur control processing in step S302 of FIG. 3 may be recorded in the recording unit 108 and used in step S502' of FIG.

図12のステップS1203において、基準動きベクトル特定部202は、ステップS1201において制御部101が受け付けた指定基準領域と動きベクトル算出部201が算出した動きベクトルに基づき、基準動きベクトルを特定する。具体的には、図8において、指定基準領域である犬の動きベクトル801~804の4つの領域を選択したときには、選択した4つの領域の動きベクトルを基準動きベクトル(基準動きブレ)として特定する。指定基準領域内に複数の動きベクトルが存在する場合は、指定基準領域内の動きベクトルのヒストグラムを取得し、最も頻度の高い動きベクトルを基準動きベクトルとしても良い。
この時、動きベクトルの向き、大きさが異なる場合には、それぞれ4つの基準動きベクトルする。
In step S1203 of FIG. 12, the reference motion vector identifying unit 202 identifies a reference motion vector based on the specified reference region received by the control unit 101 in step S1201 and the motion vector calculated by the motion vector calculation unit 201. FIG. Specifically, in FIG. 8, when four regions of dog motion vectors 801 to 804 are selected as designated reference regions, the motion vectors of the four selected regions are specified as reference motion vectors (reference motion blur). . If a plurality of motion vectors exist within the designated reference area, a histogram of motion vectors within the designated reference area may be obtained, and the motion vector with the highest frequency may be used as the reference motion vector.
At this time, if the motion vectors have different directions and magnitudes, four reference motion vectors are used.

次に図12のステップS1204において、図2の動きブレ変換特性算出部203は、目標動きブレ、基準動きベクトル及び指定動きブレに基づき動きブレ変換特性を算出する。動きブレ変換特性の算出方法について図14を参照して説明する。図14の動きブレ変換特性は、制御部101が1/60秒相当の動きブレを目標動きブレとして算出した場合の動きブレ変換特性の例を示している。尚、動きベクトルは水平方向と垂直方向という2次元の方向と移動量から成るが、本実施例では説明の簡略化のため、水平方向の動きベクトルの移動量を水平方向の動きブレ量に変換する変換特性を示している。2次元の方向と移動量から成る動きベクトルを用いた動きブレ量変換方法及び変換特性も同様の処理により算出するものとし、説明は省略する Next, in step S1204 in FIG. 12, the motion blurring conversion characteristic calculation unit 203 in FIG. 2 calculates motion blurring conversion characteristics based on the target motion blurring, the reference motion vector, and the designated motion blurring. A method of calculating motion blurring conversion characteristics will be described with reference to FIG. The motion blurring conversion characteristics of FIG. 14 show an example of the motion blurring conversion characteristics when the control unit 101 calculates the motion blur corresponding to 1/60 second as the target motion blurring. A motion vector consists of two-dimensional directions, ie, horizontal and vertical directions, and a movement amount. In this embodiment, the movement amount of the motion vector in the horizontal direction is converted into the amount of motion blur in the horizontal direction for the sake of simplification of the explanation. It shows the conversion characteristics that A motion blur amount conversion method and conversion characteristics using a motion vector consisting of a two-dimensional direction and a movement amount are calculated by the same processing, and the description is omitted.

図14(A)動きブレ変換特性において、破線のL901が目標動きブレが1/60秒相当の場合の動きブレ変換特性を示す。動きブレ変換特性L901は、図3のステップS302において動きブレ変換特性算出部203が算出した動きブレ変換特性であり、この動きブレ変換特性に基づき生成した動きブレ画像が図13(A)動きブレ調整前画像である。動きブレ変換特性算出部203は、基準動きベクトル及び指定動きブレに基づき、動きブレ変換特性L901を変更することで、基準動きベクトルの大きさの領域の動きブレを軽減するように動きブレ変換特性L1401を算出する。具体的には、図8における基準の動きベクトル801,802は水平方向に左、803,804は水平方向に右方向のベクトルを表わす。長さが5画素だとすると、基準動きベクトルに対応する動きブレ量が0になるように、動きブレ変換特性L901を左右方向に5画素以内の範囲の動き量を0にする特性の直線を生成し、動きブレ変換特性L1401として算出する。 In FIG. 14(A) motion blur conversion characteristics, dashed line L901 indicates the motion blur conversion characteristics when the target motion blur is equivalent to 1/60 seconds. A motion blurring conversion characteristic L901 is a motion blurring conversion characteristic calculated by the motion blurring conversion characteristic calculation unit 203 in step S302 in FIG. This is an image before adjustment. The motion blurring conversion characteristics calculation unit 203 changes the motion blurring conversion characteristics L901 based on the reference motion vector and the designated motion blurring, thereby calculating the motion blurring conversion characteristics so as to reduce the motion blur in the area having the size of the reference motion vector. Calculate L1401. Specifically, reference motion vectors 801 and 802 in FIG. 8 represent horizontal left vectors, and reference motion vectors 803 and 804 represent horizontal right vectors. Assuming that the length is 5 pixels, a straight line having the motion blurring conversion characteristic L901 that sets the motion blurring amount within a range of 5 pixels in the horizontal direction to 0 is generated so that the motion blurring amount corresponding to the reference motion vector becomes 0. , is calculated as the motion blur conversion characteristic L1401.

次に図12のステップS1205において、図2の動きブレ補正対象領域特定部205は、ステップS503において決定した動きブレ変換特性を行う動きブレ補正対象領域を自動的に特定する。図10を用いて説明する。
図10において、1001は基準撮像フレームに動きベクトルを表示した撮像画像で、表示部109に出力される。この時、ユーザーが動きブレを調整したい領域を制御部101が受け付け、その指定基準領域が1002であるとする。撮像画像の画素位置を拡大したものが1003である。動きブレ補正対象領域は、指定基準領域に対して、特徴量が類似している所定範囲内の周囲の領域を計算し、類似している領域を含めた領域を動きブレ補正対象領域に自動的に特定する。求まった動きブレ補正対象領域の例が図10(B)である。図10(B)の1011、1012は動きベクトルが異なるため、別々の領域として動きブレ補正対象領域となっている。逆に前足(801,802)と後ろ足(803,804)の領域はそれぞれ同じ動きブレ補正対象領域として含まれている。
Next, in step S1205 in FIG. 12, the motion blur correction target area specifying unit 205 in FIG. 2 automatically specifies a motion blur correction target area for applying the motion blur conversion characteristics determined in step S503. Description will be made with reference to FIG.
In FIG. 10 , reference numeral 1001 denotes a captured image in which a motion vector is displayed in a reference captured frame, which is output to the display unit 109 . At this time, it is assumed that the control unit 101 receives an area in which the user wishes to adjust the motion blur, and that the designation reference area is 1002 . 1003 is an enlarged pixel position of the captured image. The motion blur correction target area is calculated by calculating the surrounding area within a predetermined range where the feature value is similar to the specified reference area, and automatically selecting the area including the similar area as the motion blur correction target area. to be specified. FIG. 10B shows an example of the determined motion blur correction target area. Since 1011 and 1012 in FIG. 10B have different motion vectors, they are separate motion blur correction target areas. Conversely, the regions of the front legs (801, 802) and the rear legs (803, 804) are included as the same motion blur correction target regions.

特徴量として、指定基準領域の画像信号値に近い輝度や色情報とし、特徴量の差が所定の閾値未満の場合に類似している領域として動きブレ補正対象領域に加える。つまり、以下の式で判定される。
(指定基準領域の特徴量 ― 周囲の画素位置の特徴量)< 類似判定閾値・・・式(3)
Luminance and color information close to the image signal value of the specified reference area is used as the feature amount, and if the difference in the feature amount is less than a predetermined threshold, the area is added to the motion blur correction target area as a similar area. That is, it is determined by the following formula.
(feature amount of designated reference area−feature amount of surrounding pixel positions)<similarity determination threshold Expression (3)

その他特徴量の差としては、動きベクトル向きや、大きさ、被写体距離情報を利用した奥行き、指定基準領域からの画面内での距離の差などが所定の類似判定閾値未満か否かで判断する。その他にも一般的な被写体判別に使われる特徴量(画像認識結果)を用いることが可能である。また、指定基準領域から所定の範囲(所定の類似判定閾値未満)の中で、指定基準領域に関連する周囲領域を決定することで、想定外の範囲に動きブレ調整の影響が広がることを防ぐことが可能である。 Other feature amount differences are determined based on whether the motion vector direction, size, depth using subject distance information, difference in distance within the screen from the designated reference area, etc. are less than a predetermined similarity determination threshold. . In addition, it is possible to use a feature amount (image recognition result) that is generally used for subject discrimination. In addition, by determining the surrounding area related to the designated reference area within a predetermined range (less than a predetermined similarity determination threshold) from the designated reference area, it is possible to prevent the effects of motion blur adjustment from spreading to an unexpected range. It is possible.

また、1001は動きブレ調整後画像を表示するので、動きブレ付与後の画像を見て動きブレを変更したい領域を選択でき、直感的に指定基準領域の位置を指定できる。
図12のステップS504´において、動きブレ付与部204は、S1205で求めた動きブレ補正対象領域に対して、S1204で求めた動きブレ変換特性に基づいて、S502′で求めた動きベクトル情報を用いて動きブレを付与する。図12のステップS504´における動きブレの付与方法は、図5のステップS504と同様の処理により付与するものとし、説明は省略する。
Further, 1001 displays the image after motion blur adjustment, so that the user can select an area whose motion blur is to be changed by looking at the image after applying motion blur, and can intuitively specify the position of the specified reference area.
In step S504′ of FIG. 12, the motion blur imparting unit 204 uses the motion vector information obtained in S502′ based on the motion blur conversion characteristics obtained in S1204 for the motion blur correction target area obtained in S1205. to add motion blur. The motion blurring method in step S504′ of FIG. 12 is performed by the same process as in step S504 of FIG. 5, and the description thereof is omitted.

図12のステップS505′において、ステップS504´で求めた動きブレ画像を表示部109に表示する。この動きブレ画像を図13(C)に示す。図13(C)の動きブレ調整後画像は、図13(A)の動きブレ調整前画像に比べ、犬の手足周辺の動きブレが静止し、背景の動きブレ自体は変化していない画像となる。これは、ユーザーが指定した犬の手足の一部を指定基準領域とし、指定基準領域の手足の周辺領域を含む動きブレ補正対象領域内の動きブレ量が0になるような動きブレ変換特性で動きブレを制御したためである。このようにユーザーが指定した指定基準領域を含む動きブレ補正対象領域内に対して、動きブレ変換特性を設定することで、ユーザー好みの動きブレに調整することが可能となる。なお、上記例では指定基準領域の手足の周辺領域を含む動きブレ補正対象領域の動きブレ量が0になるような動きブレ変換特性で動きブレを制御したが、0でなくても小さくするような制御であってもよい。即ち前記動きブレ補正対象領域の内外で、前記動きブレの変化量を異ならせればよい。
以上、図3のステップS304における動きブレ調整に関して説明した。
次に、図3のステップS304における動きブレ調整の変形例(実施例2)について説明する。
In step S505' of FIG. 12, the motion-blurred image obtained in step S504' is displayed on the display unit 109. FIG. This motion-blurred image is shown in FIG. Compared to the image before motion blur adjustment in FIG. 13(A), motion blur around the limbs of the dog is still in the image after motion blur adjustment in FIG. Become. This motion blurring conversion characteristic is such that the amount of motion blur in the motion blur correction target region including the peripheral region of the limbs of the specified reference region is zero. This is because motion blur is controlled. In this way, by setting the motion blur conversion characteristics for the motion blur correction target region including the reference region designated by the user, it is possible to adjust the motion blur to the user's preference. In the above example, motion blur is controlled with the motion blur conversion characteristic so that the motion blur amount of the motion blur correction target area including the peripheral areas of the limbs of the specified reference area becomes 0. control. That is, the change amount of the motion blur should be made different between the inside and outside of the motion blur correction target area.
The motion blur adjustment in step S304 of FIG. 3 has been described above.
Next, a modified example (second embodiment) of motion blur adjustment in step S304 of FIG. 3 will be described.

実施例1の説明では、動きブレ補正対象領域に対して、動きブレを弱める例について説明を行なった。実施例2では逆に、動きブレをより大きくする例について説明を行なう。例えば、図3のステップS304で動きブレ調整を行ない、動きブレ補正対象領域の動きブレを軽減した後、動きブレを軽減しすぎたためユーザーが所望した画像効果が得られず、動きブレを大きくしたい場合がある。このとき、再度図3のステップS304で処理する。 In the description of the first embodiment, an example of weakening motion blur in the motion blur correction target area has been described. Conversely, in a second embodiment, an example in which motion blur is increased will be described. For example, after performing the motion blur adjustment in step S304 in FIG. 3 to reduce the motion blur in the motion blur correction target area, the motion blur is reduced too much and the image effect desired by the user cannot be obtained. Sometimes. At this time, the processing is performed again in step S304 of FIG.

この場合に動きブレ付与を行うために設定する動きブレ変換特性は例えば図14(B)のようなものとする。動きブレを付与した時の動きブレ変換特性としてはL902に比べ、より大きな動きブレを付与させるため図14(B)のL1402の動きブレ変換特性になるように制御して動きブレ付与を行う。このように、動きブレ補正対象領域は水平方向として左右両方向の動きを含むため、動きブレ補正対象領域のプラスマイナスそれぞれの方向を持つ動きベクトルに対してより大きな動きブレを付与させる必要がある。 In this case, it is assumed that the motion blurring conversion characteristics set to apply motion blurring are as shown in FIG. 14B, for example. Compared to L902, the motion blurring conversion characteristics when motion blurring is applied are controlled to achieve the motion blurring conversion characteristics of L1402 in FIG. 14B in order to apply larger motion blurring. In this way, since the motion blur correction target area includes motion in both the left and right directions as a horizontal direction, it is necessary to impart greater motion blur to the motion vectors having the plus and minus directions of the motion blur correction target area.

動きブレ調整を行なう時に表示部109に表示する撮像画像について図15を用いて説明する。図15は図3のS302またはS305の処理後の動きブレを付与した画像を表示部109に表示し、動きブレ調整を行なうか否かの判断と動きブレの調整の仕方(動きブレを調整する動きブレ補正対象領域、強弱の調整)の表示を説明する図である。図15(A)は、図3のステップS302もしくはステップS305の処理後に出力される動きブレを付与した結果の画像である。この時、ユーザーがさらに犬の前足、後足に部分的に動きブレを強めようとした場合、犬の前足と後ろ足の位置をタッチする。ユーザーがタッチした位置を指定基準領域(L1501、L1502)で示している。この指定基準領域を含む関連する周囲領域は、動きブレ補正対象領域として上記のように自動的に特定される。この動きブレ補正対象領域に対しては、動きブレがついていないので図15(A)の動きブレ量の調整量を示すブラーコントロールバー1500におけるブラー(ブレ)を指示するカーソル位置は、1511の位置となっている。つまり、動きブレ補正対象領域に対しては、動きブレが無いことを示している。 A captured image displayed on the display unit 109 when motion blur adjustment is performed will be described with reference to FIG. 15 . FIG. 15 shows on the display unit 109 the motion-blurred image after processing in S302 or S305 of FIG. FIG. 10 is a diagram for explaining the display of the motion blur correction target area and intensity adjustment). FIG. 15A is an image resulting from adding motion blur, which is output after processing in step S302 or step S305 in FIG. At this time, if the user wants to further strengthen the motion blurring of the front and rear legs of the dog, the user touches the position of the front and rear legs of the dog. The position touched by the user is indicated by designated reference areas (L1501, L1502). A related surrounding area including this specified reference area is automatically identified as a motion blur correction target area as described above. Since there is no motion blur in this motion blur correction target area, the cursor position for instructing blur in the blur control bar 1500 indicating the adjustment amount of the motion blur amount in FIG. It has become. In other words, it indicates that there is no motion blur in the motion blur correction target area.

続いてユーザーが、動きブレ補正対象領域に動きブレを付与させたい時には、図15(B)のブラーコントロールバー1500の1512の位置にカーソルを移動する。このカーソルの移動に合わせて図3のステップS304を実行し、動きブレ補正対象領域に対して、図14(B)のL1402の動きブレ変換特性の変換処理を実行し、動きブレ補正対象領域にブレを付与する。動きブレの調整後の表示を図15(B)で表す。以上のように動きブレの調整に関する情報を表示部109で表示することによりユーザーは、動きブレの調整を行なうか否か、どの領域に対して、動きブレの強さを好みの動きブレに調整することが可能となる。 Subsequently, when the user wishes to add motion blur to the motion blur correction target area, the user moves the cursor to the position 1512 of the blur control bar 1500 in FIG. 15B. Step S304 of FIG. 3 is executed in accordance with the movement of the cursor, and conversion processing of the motion blur conversion characteristics of L1402 of FIG. Give blur. The display after motion blur adjustment is shown in FIG. 15(B). As described above, the display unit 109 displays the information related to motion blur adjustment, so that the user can decide whether or not to perform motion blur adjustment, and adjust the strength of motion blur to a preferred motion blur for which region. It becomes possible to

以上、実施例について説明を行なった。実施例によれば背景とフォロー被写体の動きが近い場合であってもフォロー被写体の動きブレを低減した流し撮り画像を生成することができる。 The embodiments have been described above. According to the embodiment, even when the movement of the background and the follow subject is close to each other, it is possible to generate a panning image in which motion blurring of the follow subject is reduced.

尚、実施例においては、動きブレが小さい短秒時露光画像を撮像し、動きブレを付与することにより、動きブレを制御する実施例について説明を行なったが、動きブレの制御方法はこれに限ったものではない。例えば、動きブレが大きい長秒露光画像を撮像し、動きブレを低減することにより、動きブレを制御しても良い。動きブレを低減する方法については、例えば、ブラインドデコンボリューション手法といったような公知の技術を用い、説明は省略する。(ブラインドデコンボリューション手法は、画像における動きブレの特性を解析し、動きブレ特性の逆特性を画像に対してコンボリューションすることにより動きブレを低減する手法である。) In the embodiment, an embodiment has been described in which motion blur is controlled by picking up a short-time exposure image with little motion blur and imparting motion blur. It is not limited. For example, motion blur may be controlled by capturing a long-second exposure image with large motion blur and reducing motion blur. A known technique such as a blind deconvolution method is used as a method for reducing motion blur, and the description thereof is omitted. (The blind deconvolution method is a method for reducing motion blur by analyzing the characteristics of motion blur in an image and convolving the inverse characteristics of the motion blur characteristics on the image.)

尚、実施例において、指定動きブレとして動きブレ量の指定を受け付ける例について説明したが、指定動きブレとして受け付ける情報はこれに限ったものではない。例えば、指定動きブレとして動きブレ方向の指定を受け付けても良い。この場合、動きブレ変換特性算出部203は、基準動きベクトルに対応する動きブレの方向を指定動きブレの方向に変換する特性を算出する。これにより、動きブレの方向を調整することが可能となる。 In the embodiment, an example of accepting the specification of the amount of motion blur as the specified motion blur has been described, but the information accepted as the specified motion blur is not limited to this. For example, designation of the motion blur direction may be accepted as the designated motion blur. In this case, the motion blurring conversion characteristic calculation unit 203 calculates a characteristic for converting the direction of motion blurring corresponding to the reference motion vector to the direction of the designated motion blurring. This makes it possible to adjust the direction of motion blur.

尚、実施例において、基準動きベクトルの特定方法はユーザー指定を受け付けた領域に関連する情報と説明を行なったが、これに限ったものではない。例えば、撮像装置100がフォーカス位置を合わせた合焦領域の動きベクトルを基準動きベクトルとして特定しても良い。
また、実施例では複数の画像に基づき動きブレを自動生成して、1枚の画像に対して動きブレを付与しているが1枚の画像だけを用いてブレを付与してもよい。即ち、その1枚の画像に対して例えばユーザーが指定した領域に所定方向または所定量の動きブレを付与するようにしてもよいことは言うまでもない。
In the embodiment, the reference motion vector identification method is described as information related to the area for which the user designation is accepted, but the method is not limited to this. For example, the motion vector of the in-focus area in which the imaging device 100 is focused may be specified as the reference motion vector.
Further, in the embodiment, motion blurring is automatically generated based on a plurality of images and motion blurring is applied to one image, but blurring may be applied using only one image. That is, it goes without saying that motion blur of a predetermined direction or a predetermined amount may be imparted to a region designated by the user, for example, with respect to the one image.

以上、本発明の好ましい実施例について説明したが、本発明はこれらの実施例に限定されず、その要旨の範囲内で種々の変形及び変更が可能である。
例えば実施例では撮像装置に着脱可能な記録部から読み出された複数の画像を取得して、それらの複数の画像を用いて撮像装置内で動きブレ画像を形成したが、上記の記録部は着脱可能なものでなくてもよいし、クラウドなどに設けた外部の記録部でもよい。また、上記のような記録部を撮像措置ではなく外部の情報処理装置に接続して記録部から読み出された画像を用いて情報処理装置内で動きブレ画像を形成してもよい。
Although preferred embodiments of the present invention have been described above, the present invention is not limited to these embodiments, and various modifications and changes are possible within the scope of the gist.
For example, in the embodiment, a plurality of images read from a recording unit detachable from the imaging device are obtained, and a motion-blurred image is formed in the imaging device using the plurality of images. It may not be detachable, and may be an external recording unit provided in a cloud or the like. Alternatively, the recording unit as described above may be connected to an external information processing device instead of the imaging device, and an image read from the recording unit may be used to form a motion-blurred image within the information processing device.

また、本発明における制御の一部または全部を上述した実施例の機能を実現するプログラム(ソフトウェア)をネットワーク又は各種記憶媒体を介して撮像装置や情報処理装置に供給するようにしてもよい。そしてその撮像装置や情報処理装置におけるコンピュータ(又はCPUやMPU等)がプログラムを読み出して実行するようにしてもよい。その場合、そのプログラム、及び該プログラムを記憶した記憶媒体は本発明を構成することとなる。 Also, a program (software) that implements the functions of the above-described embodiments for part or all of the control in the present invention may be supplied to the imaging device or the information processing device via a network or various storage media. Then, the computer (or CPU, MPU, etc.) in the imaging device or information processing device may read and execute the program. In that case, the program and the storage medium storing the program constitute the present invention.

100 撮像装置
101 制御部
102 ROM
103 RAM
104 光学系
105 撮像部
106 A/D変換部
107 画像処理部
108 記録部
109 表示部
110 指示入力部
200 動きブレ制御部
201 動きベクトル算出部
202 基準動きベクトル特定部
203 動きブレ変換特性算出部
204 動きブレ付与部
205 動きブレ補正対象領域特定部
100 imaging device 101 control unit 102 ROM
103 RAM
104 optical system 105 imaging unit 106 A/D conversion unit 107 image processing unit 108 recording unit 109 display unit 110 instruction input unit 200 motion blur control unit 201 motion vector calculation unit 202 reference motion vector identification unit 203 motion blur conversion characteristic calculation unit 204 Motion blur imparting unit 205 Motion blur correction target area specifying unit

Claims (17)

基準領域を指定するための基準領域指定手段と、
前記基準領域と所定の関連を有する動きブレ補正対象領域を自動的に特定する動きブレ補正対象領域特定手段と、
前記動きブレ補正対象領域から基準動きブレを特定する基準動きブレ特定手段と、
前記基準動きブレが所定の動きブレになるように前記動きブレ補正対象領域内の動きブレを変化させるとともに前記動きブレ補正対象領域の内外で動きブレの変化量を異ならせるように制御する動きブレ制御手段と、を有することを特徴とする画像処理装置。
reference area designating means for designating a reference area;
motion blur correction target area identifying means for automatically identifying a motion blur correction target area having a predetermined relationship with the reference area;
reference motion blur identifying means for identifying a reference motion blur from the motion blur correction target area;
The motion blur is controlled such that the motion blur within the motion blur correction target area is changed so that the reference motion blur becomes a predetermined motion blur, and the change amount of the motion blur is different between inside and outside the motion blur correction target area. and a control means.
前記動きブレ補正対象領域特定手段は、ユーザーによる前記基準領域の指定を受け付けることを特徴とする請求項1記載の画像処理装置。 2. The image processing apparatus according to claim 1, wherein said motion blur correction target area specifying means accepts designation of said reference area by a user. 前記動きブレ補正対象領域特定手段は、ユーザーによる前記基準領域の座標情報の指定を受け付けることを特徴とする請求項2記載の画像処理装置。 3. The image processing apparatus according to claim 2, wherein said motion blur correction target area specifying means receives designation of coordinate information of said reference area by a user. 前記動きブレ補正対象領域内の動きブレ量または方向の変更を指示するための指示手段を有することを特徴とする請求項1記載の画像処理装置。 2. The image processing apparatus according to claim 1, further comprising instruction means for instructing a change in motion blur amount or direction within said motion blur correction target area. 前記指示手段は、ユーザーによる前記指示を受け付けることを特徴とする請求項4記載の画像処理装置。 5. The image processing apparatus according to claim 4, wherein said instruction means receives said instruction from a user. 前記動きブレ制御手段は、動きベクトルの大きさと向きに基づいてフィルター処理を施す際のフィルターのタップ数を変更してフィルター処理を施すことにより動きブレを変化させることを特徴とする請求項1から5のいずれか一項に記載の画像処理装置。 2. The motion blur control means changes the motion blur by performing filtering by changing the number of taps of a filter when performing filtering based on the magnitude and direction of the motion vector. 6. The image processing device according to any one of 5. 前記所定の関連を有する領域は、前記基準領域から画面内において所定範囲内であって、前記基準領域の動きベクトルの大きさまたは向きとの差が所定の閾値未満の領域であることを特徴とする請求項1記載の画像処理装置。 The area having the predetermined relationship is an area within a predetermined range within the screen from the reference area, and a difference between the magnitude or direction of the motion vector of the reference area and the reference area is less than a predetermined threshold. 2. The image processing apparatus according to claim 1. 前記所定の関連を有する領域は、前記基準領域の被写体との被写体距離の差が所定の閾値未満の領域であることを特徴とする請求項1記載の画像処理装置。 2. The image processing apparatus according to claim 1, wherein the area having the predetermined relationship is an area in which a difference in subject distance from the subject in the reference area is less than a predetermined threshold. 前記所定の関連を有する領域は、前記基準領域の色または輝度との差が所定の閾値未満の領域である事を特徴とする請求項1記載の画像処理装置。 2. The image processing apparatus according to claim 1, wherein the area having the predetermined relationship is an area having a difference in color or luminance from the reference area less than a predetermined threshold. 前記動きブレ補正対象領域特定手段は、前記基準領域指定手段によって複数の基準領域が指定された場合には、それぞれの基準領域と前記所定の関連を有する領域を自動的に特定することを特徴とする請求項1記載の画像処理装置。 When a plurality of reference areas are specified by the reference area specifying means, the motion blur correction target area specifying means automatically specifies an area having the predetermined relationship with each of the reference areas. 2. The image processing apparatus according to claim 1. 前記動きブレ制御手段は、少なくとも前記基準動きブレとの差が所定の閾値未満の動きブレを持つ画素の動きブレを小さくするにように動きブレを制御することを特徴とする請求項1から10のいずれか1項に記載の画像処理装置。 11. The motion blur control means controls the motion blur so as to reduce the motion blur of at least a pixel having a motion blur whose difference from the reference motion blur is less than a predetermined threshold. The image processing device according to any one of . 前記動きブレ制御手段は、少なくとも前記基準動きブレとの差が所定の閾値未満の動きブレを持つ画素の動きブレを大きくするにように動きブレを制御することを特徴とする請求項1から10のいずれか1項に記載の画像処理装置。 11. The motion blur control means controls the motion blur so as to increase the motion blur of at least a pixel having a motion blur whose difference from the reference motion blur is less than a predetermined threshold. The image processing device according to any one of . 前記基準動きブレ特定手段は、画像間の差分情報を元に動きベクトルを算出することによって前記動きブレを特定することを特徴とする請求項1から12のいずれか1項に記載の画像処理装置。 13. The image processing apparatus according to any one of claims 1 to 12, wherein the reference motion blur identifying means identifies the motion blur by calculating a motion vector based on difference information between images. . 前記動きブレ制御手段により前記動きブレ補正対象領域内の動きブレを変化させる前の動きブレ情報を表示する表示手段を有することを特徴とする請求項1から13のいずれか1項に記載の画像処理装置。 14. The image according to any one of claims 1 to 13, further comprising display means for displaying motion blur information before the motion blur in said motion blur correction target area is changed by said motion blur control means. processing equipment. 基準領域を指定するための基準領域指定ステップと、
前記基準領域と所定の関連を有する動きブレ補正対象領域を自動的に特定する動きブレ補正対象領域特定ステップと、
前記動きブレ補正対象領域から基準動きブレを特定する基準動きブレ特定ステップと、
前記基準動きブレが所定の動きブレになるように前記動きブレ補正対象領域内の動きブレを変化させるとともに前記動きブレ補正対象領域の内外で動きブレの変化量を異ならせるように制御する動きブレ制御ステップとを有することを特徴とする画像処理方法。
a reference area specifying step for specifying a reference area;
a motion blur correction target area identifying step of automatically identifying a motion blur correction target area having a predetermined relationship with the reference area;
a reference motion blur identifying step of identifying a reference motion blur from the motion blur correction target area;
The motion blur within the motion blur correction target area is changed so that the reference motion blur becomes a predetermined motion blur, and control is performed so that the change amount of the motion blur is different between inside and outside the motion blur correction target area. and a motion blur control step.
請求項1から14のうちいずれか一項に記載の画像処理装置の各手段としてコンピュータを機能させるためのコンピュータプログラム。 A computer program for causing a computer to function as each means of the image processing apparatus according to any one of claims 1 to 14. 請求項16に記載のコンピュータプログラムを記憶したコンピュータで読み取り可能な記憶媒体。 17. A computer readable storage medium storing the computer program according to claim 16.
JP2018213934A 2018-11-14 2018-11-14 Image processing device Active JP7143191B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018213934A JP7143191B2 (en) 2018-11-14 2018-11-14 Image processing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018213934A JP7143191B2 (en) 2018-11-14 2018-11-14 Image processing device

Publications (2)

Publication Number Publication Date
JP2020080518A JP2020080518A (en) 2020-05-28
JP7143191B2 true JP7143191B2 (en) 2022-09-28

Family

ID=70802042

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018213934A Active JP7143191B2 (en) 2018-11-14 2018-11-14 Image processing device

Country Status (1)

Country Link
JP (1) JP7143191B2 (en)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006080844A (en) 2004-09-09 2006-03-23 Nikon Corp Electronic camera
WO2018116322A1 (en) 2016-12-20 2018-06-28 Indian Institute Of Technology Madras System and method for generating pan shots from videos

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006080844A (en) 2004-09-09 2006-03-23 Nikon Corp Electronic camera
WO2018116322A1 (en) 2016-12-20 2018-06-28 Indian Institute Of Technology Madras System and method for generating pan shots from videos

Also Published As

Publication number Publication date
JP2020080518A (en) 2020-05-28

Similar Documents

Publication Publication Date Title
US8023000B2 (en) Image pickup apparatus, image processing apparatus, image pickup method, and image processing method
JP4582423B2 (en) Imaging apparatus, image processing apparatus, imaging method, and image processing method
US9432575B2 (en) Image processing apparatus
JP5036599B2 (en) Imaging device
JP6102602B2 (en) Image processing apparatus, image processing method, image processing program, and imaging apparatus
KR100890949B1 (en) Electronic device and method in an electronic device for processing image data
JP2008271241A5 (en)
JPWO2008087721A1 (en) Image composition apparatus, image composition method, and program
KR20130018330A (en) Imaging apparatus, image processing method, and recording medium for recording program thereon
JP2009017223A (en) Imaging device, image processing device, and their image processing method and program
KR20140118031A (en) Image processing apparatus and method thereof
JP6261205B2 (en) Image processing device
JP4958806B2 (en) Blur detection device, blur correction device, and imaging device
JP5144724B2 (en) Imaging apparatus, image processing apparatus, imaging method, and image processing method
JP6541501B2 (en) IMAGE PROCESSING APPARATUS, IMAGING APPARATUS, AND IMAGE PROCESSING METHOD
US9686470B2 (en) Scene stability detection
US11064135B2 (en) Image capturing apparatus, control method for image capturing apparatus, and control program for image capturing apparatus
JP7143191B2 (en) Image processing device
US11972546B2 (en) Image processing apparatus and image processing method
JP7224822B2 (en) Image processing device and image processing method
JP2009118434A (en) Blurring correction device and imaging apparatus
JP2019016893A (en) Image processing apparatus, control method therefor, and program
JP6808446B2 (en) Image processing equipment, image processing methods and programs
KR20100121944A (en) Image processing method and apparatus, and digital photographing apparatus using thereof
JP2020150448A (en) Image pickup apparatus, control method therefor, program, and storage medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210906

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220603

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220705

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220803

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220816

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220914

R151 Written notification of patent or utility model registration

Ref document number: 7143191

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151