JP2005328117A - Image processing apparatus and method, recording medium, and program - Google Patents

Image processing apparatus and method, recording medium, and program Download PDF

Info

Publication number
JP2005328117A
JP2005328117A JP2004141887A JP2004141887A JP2005328117A JP 2005328117 A JP2005328117 A JP 2005328117A JP 2004141887 A JP2004141887 A JP 2004141887A JP 2004141887 A JP2004141887 A JP 2004141887A JP 2005328117 A JP2005328117 A JP 2005328117A
Authority
JP
Japan
Prior art keywords
image
parameter
blur
correcting
original data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2004141887A
Other languages
Japanese (ja)
Other versions
JP4389656B2 (en
Inventor
Tetsujiro Kondo
哲二郎 近藤
Tsutomu Watanabe
勉 渡辺
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2004141887A priority Critical patent/JP4389656B2/en
Publication of JP2005328117A publication Critical patent/JP2005328117A/en
Application granted granted Critical
Publication of JP4389656B2 publication Critical patent/JP4389656B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Facsimile Image Signal Circuits (AREA)
  • Studio Devices (AREA)
  • Image Processing (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an image processing apparatus and method, a recording medium, and a program whereby a user can quickly correct a blurred motion. <P>SOLUTION: A reproduction section 62 reproduces image data recorded by a recording section 61 and displays the image data on a display section 67 via a capture section 63. A motion vector detection section 102 detects a motion vector of a correction region designated by an input section 69 among frames captured by the capture section 63. A parameter conversion section 102 converts the motion vector into a parameter, which is stored in the recording section 61 together with the image data corresponding to the parameter. When the image data of the frame are supplied to the display section 67 and displayed thereon, a prediction section 65 corrects the blurred motion on the basis of a stored blur parameter, and the display section 67 displays the resulting image data. When correction of a blur of the image is instructed, an initial value on the basis of the stored blur parameter is calculated and the image corrected by the initial value is displayed. The image processing apparatus or the like can be applied to digital cameras. <P>COPYRIGHT: (C)2006,JPO&NCIPI

Description

本発明は、画像処理装置および方法、記録媒体、並びにプログラムに関し、特に、ぼけた画像を補正し、効率的に保存することができるようにした画像処理装置および方法、記録媒体、並びにプログラムに関する。   The present invention relates to an image processing apparatus and method, a recording medium, and a program, and more particularly to an image processing apparatus and method, a recording medium, and a program that can correct a blurred image and efficiently save it.

最近、デジタルカメラ(電子カメラ)が普及し、多くのユーザに使用されている。デジタルカメラで撮像された画像データは、メモリに記憶される。この画像データは、電子的かつデジタル的に記録されているため、ユーザは、撮像された画像の明るさや色調を補正することが可能である。画像データは、音声データなどに比べてデータ量が多いため、補正前の画像データと補正後の画像データの両方をメモリに保持しておくことは、メモリを有効に利用する点において、好ましくない。また、補正後の画像データで補正前の画像データを更新し、保存すると、画像を元に戻せなくなる。そこで、補正前の画像データ(未加工データ)と、画質設定のパラメータを対応付けて、メモリに記憶しておくことが知られている(例えば、特許文献1)。   Recently, digital cameras (electronic cameras) have become widespread and are used by many users. Image data captured by the digital camera is stored in a memory. Since this image data is recorded electronically and digitally, the user can correct the brightness and color tone of the captured image. Since image data has a larger amount of data than audio data or the like, it is not preferable to store both uncorrected image data and corrected image data in the memory in terms of effective use of the memory. . Further, if the image data before correction is updated with the corrected image data and stored, the image cannot be restored. Thus, it is known that image data before correction (raw data) and image quality setting parameters are associated with each other and stored in a memory (for example, Patent Document 1).

特開2001−251551号公報JP 2001-251551 A

撮像した画像の画質を調整するには、比較的面倒な操作が必要となる。このため、デジタルカメラ自体に、画質調整のための機能が備えられていたとしても、一般ユーザは、その機能を利用しないことが多い。特に画像のぼけを補正する場合、パラメータを設定し、補正する処理を何回も繰り返す必要があり、所望の補正画像(ぼけが充分補正された画像)を得るのに時間がかかる。   In order to adjust the image quality of the captured image, a relatively troublesome operation is required. For this reason, even if the digital camera itself has a function for image quality adjustment, a general user often does not use the function. In particular, when correcting blur of an image, it is necessary to repeat the process of setting parameters and correcting the image many times, and it takes time to obtain a desired corrected image (an image in which blur is sufficiently corrected).

本発明は、このような状況に鑑みてなされたものであり、ユーザが、画像のぼけを比較的容易にかつ迅速に補正できるようにするものである。   The present invention has been made in view of such circumstances, and enables a user to correct image blur relatively easily and quickly.

請求項1の画像処理装置は、画像の元データと、前記元データに基づく画像を補正するパラメータを、前記元データに対応付けて保存する保存手段と、保存されている前記元データに基づく画像を表示する場合、対応して保存されている前記パラメータに基づいて、前記画像のぼけを補正するように前記元データを補正して第1の補正データを生成する第1の生成手段と、前記第1の補正データに基づく第1の画像の表示を制御する第1の表示制御手段と、前記第1の画像のぼけの補正の指示を判定する判定手段と、前記第1の画像のぼけの補正が指示された場合、ぼけを補正する前記パラメータの初期値を設定する初期値設定手段と、前記初期値に基づいてぼけを補正するように前記元データを補正して第2の補正データを生成する第2の生成手段と、前記第2の補正データに基づく第2の画像の表示を制御する第2の表示制御手段と、前記第2の画像を補正するパラメータを取得する取得手段と、取得された前記パラメータに基づいてぼけを補正するように前記元データを補正して第3の補正データを生成する第3の生成手段と、前記第3の補正データに基づく第3の画像の表示を制御する第3の表示制御手段と、前記第3の画像の保存が指令された場合、前記取得手段により取得された前記パラメータにより、前記元データに対応して保存されている前記パラメータを更新する更新手段とを備えることを特徴とする。   The image processing apparatus according to claim 1, a storage unit that stores original data of an image and a parameter for correcting an image based on the original data in association with the original data, and an image based on the stored original data A first generating means for correcting the original data to generate first correction data so as to correct the blur of the image based on the parameter stored correspondingly, and First display control means for controlling the display of the first image based on the first correction data, determination means for determining an instruction for correcting blur of the first image, blur of the first image When correction is instructed, an initial value setting means for setting an initial value of the parameter for correcting blur, and the original data is corrected so as to correct blur based on the initial value, and second correction data is obtained. Second to generate Generating means, second display control means for controlling display of the second image based on the second correction data, acquisition means for acquiring a parameter for correcting the second image, and the acquired parameter A third generation unit that corrects the original data so as to correct blur based on the first correction data to generate third correction data; and a third control unit that controls display of a third image based on the third correction data. Display control means, and update means for updating the parameter stored in correspondence with the original data by the parameter acquired by the acquisition means when storage of the third image is instructed. It is characterized by providing.

前記初期値設定手段は、複数の初期値を設定し、第2の生成手段は、複数の初期値に基づいて、複数の第2の補正データを生成し、第2の表示制御手段は、複数の第2の補正データに基づく複数の第2の画像の表示を制御し、画像処理装置は、複数の第2の画像の1つを選択する選択手段をさらに備え、取得手段は、選択された第2の画像を補正するパラメータを取得するようにすることができる。   The initial value setting means sets a plurality of initial values, the second generation means generates a plurality of second correction data based on the plurality of initial values, and the second display control means And controlling the display of the plurality of second images based on the second correction data, and the image processing apparatus further includes selection means for selecting one of the plurality of second images, and the acquisition means is selected A parameter for correcting the second image can be acquired.

前記初期値設定手段は、保存されているパラメータとの差分の総和、差分の絶対値、または差分の2乗の総和が最小となる値を、初期値として設定するようにすることができる。   The initial value setting means may set a value that minimizes the sum of differences from stored parameters, an absolute value of differences, or a sum of squares of differences as an initial value.

前記初期値設定手段は、画像が撮影された月日、曜日、または時刻に基づいて、初期値を設定するようにすることができる。   The initial value setting means may set an initial value based on a date, a day of the week, or a time when an image is taken.

請求項5の画像処理方法は、画像の元データと、前記元データに基づく画像を補正するパラメータを、前記元データに対応付けて保存する保存ステップと、保存されている前記元データに基づく画像を表示する場合、対応して保存されている前記パラメータに基づいて、前記画像のぼけを補正するように前記元データを補正して第1の補正データを生成する第1の生成ステップと、前記第1の補正データに基づく第1の画像の表示を制御する第1の表示制御ステップと、前記第1の画像のぼけの補正の指示を判定する判定ステップと、前記第1の画像のぼけの補正が指示された場合、ぼけを補正する前記パラメータの初期値を設定する初期値設定ステップと、前記初期値に基づいてぼけを補正するように前記元データを補正して第2の補正データを生成する第2の生成ステップと、前記第2の補正データに基づく第2の画像の表示を制御する第2の表示制御ステップと、前記第2の画像を補正するパラメータを取得する取得ステップと、取得された前記パラメータに基づいてぼけを補正するように前記元データを補正して第3の補正データを生成する第3の生成ステップと、前記第3の補正データに基づく第3の画像の表示を制御する第3の表示制御ステップと、前記第3の画像の保存が指令された場合、前記取得ステップにより取得された前記パラメータにより、前記元データに対応して保存されている前記パラメータを更新する更新ステップとを含むことを特徴とする。   6. The image processing method according to claim 5, wherein the original data of the image and a parameter for correcting the image based on the original data are stored in association with the original data, and the image based on the stored original data A first generation step of generating the first correction data by correcting the original data so as to correct the blur of the image based on the parameter stored correspondingly, A first display control step for controlling display of the first image based on the first correction data; a determination step for determining an instruction for correcting blur of the first image; and blur of the first image When correction is instructed, an initial value setting step for setting an initial value of the parameter for correcting blur, and the original data is corrected so as to correct blur based on the initial value, and a second correction data is set. A second generation step for generating data, a second display control step for controlling display of the second image based on the second correction data, and an acquisition step for acquiring parameters for correcting the second image A third generation step of generating third correction data by correcting the original data so as to correct blur based on the acquired parameter, and a third image based on the third correction data When the third display control step for controlling the display of the image and the storage of the third image are instructed, the parameter stored in correspondence with the original data by the parameter acquired in the acquisition step And an updating step for updating.

請求項6の記録媒体のプログラムは、画像の元データと、前記元データに基づく画像を補正するパラメータを、前記元データに対応付けて保存する保存ステップと、保存されている前記元データに基づく画像を表示する場合、対応して保存されている前記パラメータに基づいて、前記画像のぼけを補正するように前記元データを補正して第1の補正データを生成する第1の生成ステップと、前記第1の補正データに基づく第1の画像の表示を制御する第1の表示制御ステップと、前記第1の画像のぼけの補正の指示を判定する判定ステップと、前記第1の画像のぼけの補正が指示された場合、ぼけを補正する前記パラメータの初期値を設定する初期値設定ステップと、前記初期値に基づいてぼけを補正するように前記元データを補正して第2の補正データを生成する第2の生成ステップと、前記第2の補正データに基づく第2の画像の表示を制御する第2の表示制御ステップと、前記第2の画像を補正するパラメータを取得する取得ステップと、取得された前記パラメータに基づいてぼけを補正するように前記元データを補正して第3の補正データを生成する第3の生成ステップと、前記第3の補正データに基づく第3の画像の表示を制御する第3の表示制御ステップと、前記第3の画像の保存が指令された場合、前記取得ステップにより取得された前記パラメータにより、前記元データに対応して保存されている前記パラメータを更新する更新ステップとを含むことを特徴とする。   The recording medium program according to claim 6 is based on a storage step of storing original data of an image and a parameter for correcting an image based on the original data in association with the original data, and on the stored original data A first generation step of generating first correction data by correcting the original data so as to correct blur of the image based on the corresponding stored parameters when displaying an image; A first display control step for controlling display of the first image based on the first correction data; a determination step for determining an instruction to correct blur of the first image; and blur of the first image When the correction is instructed, an initial value setting step for setting an initial value of the parameter for correcting blur, and the original data is corrected so as to correct blur based on the initial value, and the second value is set. A second generation step for generating correction data; a second display control step for controlling display of the second image based on the second correction data; and acquisition for acquiring a parameter for correcting the second image. A third generation step of generating third correction data by correcting the original data so as to correct blur based on the acquired parameter, and a third step based on the third correction data A third display control step for controlling display of an image; and when the storage of the third image is instructed, the parameter acquired in the acquisition step is stored in correspondence with the original data And an update step for updating the parameter.

請求項7のプログラムは、画像の元データと、前記元データに基づく画像を補正するパラメータを、前記元データに対応付けて保存する保存ステップと、保存されている前記元データに基づく画像を表示する場合、対応して保存されている前記パラメータに基づいて、前記画像のぼけを補正するように前記元データを補正して第1の補正データを生成する第1の生成ステップと、前記第1の補正データに基づく第1の画像の表示を制御する第1の表示制御ステップと、前記第1の画像のぼけの補正の指示を判定する判定ステップと、前記第1の画像のぼけの補正が指示された場合、ぼけを補正する前記パラメータの初期値を設定する初期値設定ステップと、前記初期値に基づいてぼけを補正するように前記元データを補正して第2の補正データを生成する第2の生成ステップと、前記第2の補正データに基づく第2の画像の表示を制御する第2の表示制御ステップと、前記第2の画像を補正するパラメータを取得する取得ステップと、取得された前記パラメータに基づいてぼけを補正するように前記元データを補正して第3の補正データを生成する第3の生成ステップと、前記第3の補正データに基づく第3の画像の表示を制御する第3の表示制御ステップと、前記第3の画像の保存が指令された場合、前記取得ステップにより取得された前記パラメータにより、前記元データに対応して保存されている前記パラメータを更新する更新ステップとをコンピュータに実行させることを特徴とする。   The program according to claim 7, wherein a storage step of storing the original data of the image and a parameter for correcting the image based on the original data in association with the original data, and displaying the image based on the stored original data A first generation step of generating the first correction data by correcting the original data so as to correct the blur of the image based on the correspondingly stored parameters; A first display control step for controlling display of the first image based on the correction data, a determination step for determining an instruction to correct blur of the first image, and correction of blur of the first image. When instructed, an initial value setting step for setting an initial value of the parameter for correcting the blur, and correcting the original data so as to correct the blur based on the initial value, and a second correction data A second generation step for generating the second image, a second display control step for controlling the display of the second image based on the second correction data, and an acquisition step for acquiring a parameter for correcting the second image. A third generation step of generating third correction data by correcting the original data so as to correct blur based on the acquired parameter; and a third image based on the third correction data. When the third display control step for controlling display and the storage of the third image are instructed, the parameter stored in correspondence with the original data is determined by the parameter acquired in the acquisition step. An update step for updating is executed by a computer.

本発明においては、既に保存されているパラメータに基づいて補正された第1の画像が表示された場合に、ぼけの補正が指示されると、初期値が設定される。そして、初期値に基づいて補正された第2の画素が表示され、これを補正するパラメータが取得される。保存が指令された場合、取得されたパラメータにより、既に保存されているパラメータが更新される。   In the present invention, when the first image corrected based on the already stored parameters is displayed, the initial value is set when the blur correction is instructed. Then, the second pixel corrected based on the initial value is displayed, and a parameter for correcting the second pixel is acquired. When saving is instructed, the parameters already saved are updated with the acquired parameters.

本発明によれば、画像のぼけを補正することができる。特に、本発明によれば、画像のぼけを簡単、容易、迅速に補正することが可能となる。   According to the present invention, image blur can be corrected. In particular, according to the present invention, blurring of an image can be corrected easily, easily, and quickly.

以下に本発明の最良の形態を説明するが、開示される発明と実施の形態との対応関係を例示すると、次のようになる。明細書中には記載されているが、発明に対応するものとして、ここには記載されていない実施の形態があったとしても、そのことは、その実施の形態が、その発明に対応するものではないことを意味するものではない。逆に、実施の形態が発明に対応するものとしてここに記載されていたとしても、そのことは、その実施の形態が、その発明以外の発明には対応しないものであることを意味するものでもない。   BEST MODE FOR CARRYING OUT THE INVENTION The best mode of the present invention will be described below. The correspondence relationship between the disclosed invention and the embodiments is exemplified as follows. Although there is an embodiment which is described in the specification but is not described here as corresponding to the invention, it means that the embodiment corresponds to the invention. It doesn't mean not. Conversely, even if an embodiment is described herein as corresponding to an invention, that means that the embodiment does not correspond to an invention other than the invention. Absent.

さらに、この記載は、明細書に記載されている発明の全てを意味するものではない。換言すれば、この記載は、明細書に記載されている発明であって、この出願では請求されていない発明の存在、すなわち、将来、分割出願されたり、補正により出現し、追加される発明の存在を否定するものではない。   Further, this description does not mean all the inventions described in the specification. In other words, this description is for the invention described in the specification and not claimed in this application, i.e., for the invention that will be applied for in the future or that will appear as a result of amendment and added. It does not deny existence.

請求項1の画像処理装置は、画像の元データと、前記元データに基づく画像を補正するパラメータを、前記元データに対応付けて保存する保存手段(例えば、図6のステップS26の処理を実行する図3の保存部134)と、保存されている前記元データに基づく画像を表示する場合、対応して保存されている前記パラメータに基づいて、前記画像のぼけを補正するように前記元データを補正して第1の補正データを生成する第1の生成手段(例えば、図4のステップS6の処理を実行する図3の第1の生成部139)と、前記第1の補正データに基づく第1の画像の表示を制御する第1の表示制御手段(例えば、図4のステップS7の処理を実行する図3の第1の表示制御部142)と、前記第1の画像のぼけの補正の指示を判定する判定手段(例えば、図4のステップS10の処理を実行する図3の判定部131)と、前記第1の画像のぼけの補正が指示された場合、ぼけを補正する前記パラメータの初期値を設定する初期値設定手段(例えば、図5のステップS12の処理を実行する図3の初期値設定部133)と、前記初期値に基づいてぼけを補正するように前記元データを補正して第2の補正データを生成する第2の生成手段(例えば、図5のステップS14の処理を実行する図3の第2の生成部140)と、前記第2の補正データに基づく第2の画像の表示を制御する第2の表示制御手段(例えば、図5のステップS15の処理を実行する図3の第2の表示制御部143)と、前記第2の画像を補正するパラメータを取得する取得手段(例えば、図6のステップS18の処理を実行する図3の取得部137)と、取得された前記パラメータに基づいてぼけを補正するように前記元データを補正して第3の補正データを生成する第3の生成手段(例えば、図6のステップS20の処理を実行する図3の第3の生成部141)と、前記第3の補正データに基づく第3の画像の表示を制御する第3の表示制御手段(例えば、図6のステップS21の処理を実行する図3の第3の表示制御部144)と、前記第3の画像の保存が指令された場合、前記取得手段により取得された前記パラメータにより、前記元データに対応して保存されている前記パラメータを更新する更新手段(例えば、図6のステップS26の処理を実行する図3の更新部135)とを備えることを特徴とする。   The image processing apparatus according to claim 1 saves the original data of the image and a parameter for correcting the image based on the original data in association with the original data (for example, executes the process of step S26 in FIG. 6). 3 and when the image based on the stored original data is displayed, the original data is corrected so as to correct the blur of the image based on the corresponding stored parameter. Is generated based on the first correction data (for example, the first generation unit 139 in FIG. 3 that executes the process of step S6 in FIG. 4) and the first correction data. First display control means for controlling the display of the first image (for example, the first display control unit 142 in FIG. 3 that executes the process of step S7 in FIG. 4), and correction of blur in the first image Determining means (for example, the step of FIG. 3 and the initial value setting means for setting the initial value of the parameter for correcting the blur (for example, when determining the blur of the first image is instructed) The initial value setting unit 133 in FIG. 3 that executes the process of step S12 in FIG. 5 and a second correction data that generates second correction data by correcting the original data so as to correct blur based on the initial value. Generating means (for example, the second generation unit 140 in FIG. 3 that executes the process of step S14 in FIG. 5) and second display control for controlling the display of the second image based on the second correction data. Means (for example, the second display control unit 143 in FIG. 3 for executing the processing in step S15 in FIG. 5) and acquisition means (for example, in step S18 in FIG. 6) for acquiring parameters for correcting the second image. The acquisition unit 137) of FIG. 3 that executes the process and the acquired parameter Accordingly, third generation means for correcting the original data so as to correct blur and generating third correction data (for example, the third generation unit 141 in FIG. 3 for executing the processing of step S20 in FIG. 6). ) And third display control means for controlling the display of the third image based on the third correction data (for example, the third display control unit 144 of FIG. 3 for executing the processing of step S21 of FIG. 6). When the storage of the third image is instructed, update means (for example, FIG. 6) updates the parameter stored corresponding to the original data by the parameter acquired by the acquisition means. And an update unit 135) of FIG. 3 for executing the process of step S26.

前記初期値設定手段は、複数の前記初期値を設定し、前記第2の生成手段は、複数の前記初期値に基づいて、複数の前記第2の補正データを生成し、前記第2の表示制御手段は、複数の前記第2の補正データに基づく複数の前記第2の画像の表示を制御し、前記画像処理装置は、複数の前記第2の画像の1つを選択する選択手段(例えば、図5のステップS16の処理を実行する図3の選択部136)をさらに備え、前記取得手段は、選択された前記第2の画像を補正するパラメータを取得する。   The initial value setting means sets a plurality of the initial values, and the second generation means generates a plurality of the second correction data based on the plurality of the initial values, and the second display The control unit controls display of the plurality of second images based on the plurality of second correction data, and the image processing apparatus selects selection unit (for example, one of the plurality of second images). 3 further executes the process of step S16 in FIG. 5, and the acquisition means acquires a parameter for correcting the selected second image.

前記初期値設定手段は、保存されているパラメータとの差分の総和、差分の絶対値、または差分の2乗の総和が最小となる値を、初期値として設定する(例えば、図13のステップS71乃至S74の処理)。   The initial value setting means sets, as an initial value, a value that minimizes the sum of differences from the stored parameters, the absolute value of the differences, or the sum of squares of the differences (for example, step S71 in FIG. 13). To S74).

前記初期値設定手段は、画像が撮影された月日、曜日、または時刻に基づいて、初期値を設定する(例えば、図16のステップS91乃至S95の処理)。   The initial value setting means sets an initial value based on the date, day of the week, or time when the image was taken (for example, processing in steps S91 to S95 in FIG. 16).

請求項5の画像処理方法、請求項6の記録媒体のプログラム、並びに請求項7のプログラムは、画像の元データと、前記元データに基づく画像を補正するパラメータを、前記元データに対応付けて保存する保存ステップ(例えば、保存時の図6のステップS26)と、保存されている前記元データに基づく画像を表示する場合、対応して保存されている前記パラメータに基づいて、前記画像のぼけを補正するように前記元データを補正して第1の補正データを生成する第1の生成ステップ(例えば、図4のステップS6)と、前記第1の補正データに基づく第1の画像の表示を制御する第1の表示制御ステップ(例えば、図4のステップS7)と、前記第1の画像のぼけの補正の指示を判定する判定ステップ(例えば、図4のステップS10)と、前記第1の画像のぼけの補正が指示された場合、ぼけを補正する前記パラメータの初期値を設定する初期値設定ステップ(例えば、図5のステップS12)と、前記初期値に基づいてぼけを補正するように前記元データを補正して第2の補正データを生成する第2の生成ステップ(例えば、図5のステップS14)と、前記第2の補正データに基づく第2の画像の表示を制御する第2の表示制御ステップ(例えば、図5のステップS15)と、前記第2の画像を補正するパラメータを取得する取得ステップ(例えば、図6のステップS18)と、取得された前記パラメータに基づいてぼけを補正するように前記元データを補正して第3の補正データを生成する第3の生成ステップ(例えば、図6のステップS20)と、前記第3の補正データに基づく第3の画像の表示を制御する第3の表示制御ステップ(例えば、図6のステップS21)と、前記第3の画像の保存が指令された場合、前記取得ステップにより取得された前記パラメータにより、前記元データに対応して保存されている前記パラメータを更新する更新ステップ(例えば、更新時の図6のステップS26)とを含むことを特徴とする。   An image processing method according to claim 5, a program for a recording medium according to claim 6, and a program according to claim 7, wherein the original data of an image and a parameter for correcting an image based on the original data are associated with the original data. When displaying an image based on the saved step (eg, step S26 in FIG. 6 at the time of saving) and the saved original data, the image is blurred based on the corresponding saved parameter. A first generation step (for example, step S6 in FIG. 4) for correcting the original data so as to correct the first data and generating a first image based on the first correction data A first display control step (for example, step S7 in FIG. 4) for controlling the image, a determination step (for example, step S10 in FIG. 4) for determining an instruction for correcting the blur of the first image, and the first When the correction of the blur of the image is instructed, an initial value setting step (for example, step S12 in FIG. 5) for setting the initial value of the parameter for correcting the blur, and the blur is corrected based on the initial value. A second generation step (for example, step S14 in FIG. 5) for correcting the original data to generate second correction data, and a second control for controlling the display of the second image based on the second correction data. 2 display control steps (for example, step S15 in FIG. 5), an acquisition step for acquiring parameters for correcting the second image (for example, step S18 in FIG. 6), and blurring based on the acquired parameters. A third generation step (for example, step S20 in FIG. 6) for correcting the original data to generate the third correction data so as to correct, and the display of the third image based on the third correction data Control When a third display control step (for example, step S21 in FIG. 6) and storage of the third image are instructed, the parameter is acquired corresponding to the original data by the parameter acquired in the acquisition step. And an updating step (for example, step S26 in FIG. 6 at the time of updating) of updating the parameter that has been performed.

以下、図を参照して本発明の実施の形態について説明する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings.

図1は、本発明を適用した画像処理装置の実施の形態の構成例を表している。この画像処理装置1は、例えば、デジタルカメラ(電子カメラ)として構成される。図1において、CPU(Central Processing Unit)21は、ROM(Read Only Memory)22に記憶されているプログラム、または記憶部29からRAM(Random Access Memory)23にロードされたプログラムに従って各種の処理を実行する。RAM23にはまた、CPU21が各種の処理を実行する上において必要なデータなども適宜記憶される。   FIG. 1 shows a configuration example of an embodiment of an image processing apparatus to which the present invention is applied. The image processing apparatus 1 is configured as a digital camera (electronic camera), for example. In FIG. 1, a CPU (Central Processing Unit) 21 executes various processes according to a program stored in a ROM (Read Only Memory) 22 or a program loaded from a storage unit 29 to a RAM (Random Access Memory) 23. To do. The RAM 23 also appropriately stores data necessary for the CPU 21 to execute various processes.

CPU21、ROM22、およびRAM23は、バス24を介して相互に接続されている。このバス24にはまた、入出力インタフェース25も接続されている。   The CPU 21, ROM 22, and RAM 23 are connected to each other via a bus 24. An input / output interface 25 is also connected to the bus 24.

入出力インタフェース25には、CMOS(Complementary Metal-Oxide Semiconductor)、CCD(Charge Coupled Devices)などの撮像装置からなる撮像部26、キー、スイッチ、ボタンなどよりなる入力部27、CRT(Cathode Ray Tube)、LCD(Liquid Crystal display)などよりなるディスプレイ、並びにスピーカなどよりなる出力部28、ハードディスクなどより構成される記憶部29、モデムなどより構成される通信部30が接続されている。通信部30は、インターネットを含むネットワークを介しての通信処理を行う。   The input / output interface 25 includes an imaging unit 26 including an imaging device such as a complementary metal-oxide semiconductor (CMOS) and a charge coupled device (CCD), an input unit 27 including keys, switches, buttons, and the like, and a CRT (Cathode Ray Tube). Further, a display made up of LCD (Liquid Crystal Display), etc., an output unit 28 made up of speakers, a storage unit 29 made up of a hard disk, etc., and a communication unit 30 made up of a modem are connected. The communication unit 30 performs communication processing via a network including the Internet.

入出力インタフェース25にはまた、必要に応じてドライブ31が接続され、磁気ディスク、光ディスク、光磁気ディスク、或いは半導体メモリなどのリムーバブルメディア32が適宜装着され、それらから読み出されたコンピュータプログラムが、必要に応じて記憶部29にインストールされる。リムーバブルメディア32には、画像データ、音声データの他、パラメータのテーブル等も記憶される。   A drive 31 is connected to the input / output interface 25 as necessary, and a removable medium 32 such as a magnetic disk, an optical disk, a magneto-optical disk, or a semiconductor memory is appropriately mounted, and a computer program read from these is loaded. Installed in the storage unit 29 as necessary. In addition to image data and audio data, a parameter table and the like are also stored in the removable medium 32.

図2は、画像処理装置1の機能的構成例を表している。画像処理装置1は、音声データの処理部も有しているが、説明を簡単にするために、図2では、省略されている。撮像部26は、制御部70からの制御に基づいて被写体を撮像し、得られた画像データを記録部61に供給し、記録させる。被写体を1回だけ撮影すれば、静止画(1フレーム分の画像データ)が記録され、連続的に撮影すれば、動画(連続する複数フレームの画像データ)が記録される。   FIG. 2 illustrates a functional configuration example of the image processing apparatus 1. The image processing apparatus 1 also has a sound data processing unit, but is omitted in FIG. 2 for the sake of simplicity. The imaging unit 26 images a subject based on the control from the control unit 70, supplies the obtained image data to the recording unit 61, and records it. If the subject is photographed only once, a still image (image data for one frame) is recorded, and if the subject is photographed continuously, a moving image (image data of a plurality of continuous frames) is recorded.

記録部61は、記憶部29あるいはリムーバブルメディア32に対応し、画像データとその画像データを補正するパラメータとが対応して記録される。再生部62は、記録部61に記録された画像データとパラメータとを適宜再生する。キャプチャ部63は、再生部62により、記録部61から再生された動画像の画像データの中から、ユーザが入力部69を操作して、制御部70に対してキャプチャを指令したフレームの画像データをキャプチャする。再生された画像が静止画の画像データである場合には、そのフレームの画像データがそのまま取得される。表示部67は、キャプチャ部63を介して、再生部62より供給された画像データを取得し、対応する画像を表示する。   The recording unit 61 corresponds to the storage unit 29 or the removable medium 32 and records image data and parameters for correcting the image data in association with each other. The reproduction unit 62 reproduces the image data and parameters recorded in the recording unit 61 as appropriate. The capture unit 63 operates from the image data of the moving image reproduced from the recording unit 61 by the reproduction unit 62, and the image data of the frame for which the user commands the control unit 70 to capture by operating the input unit 69. To capture. When the reproduced image is still image data, the image data of the frame is acquired as it is. The display unit 67 acquires the image data supplied from the reproduction unit 62 via the capture unit 63 and displays a corresponding image.

クラス分類部64は、キャプチャ部63、制御部70より供給されたパラメータを、クラスコードに変換し、予測部65に出力する。   The class classification unit 64 converts the parameters supplied from the capture unit 63 and the control unit 70 into a class code, and outputs the class code to the prediction unit 65.

予測部65は、係数記憶部91と積和演算部92とにより構成されている。係数記憶部91は、予測係数をクラスコードごとに予め記憶している。この予測係数は、多くの動きぼけのある画像と動きぼけのない画像との関係を学習することで、動きぼけのある画像を動きぼけのない画像に変換するのに必要な係数として、予め求められたものである。学習のサンプル数を多くすることで、さまざまな種類の動きぼけの画像を動きぼけのない(動きぼけが補正された)画像に変換することが可能な予測係数が得られる。その原理として、例えば、特開2001−250119号公報に開示されているものを用いることができる。その詳細は同公報に開示されているので、その説明は省略するが、この原理においては、動きぼけは、静止した背景の1つの画素の画素値に、移動する物体の移動速度に対応する数(M個)の画素の画素値を混合(加算)した結果であるとするモデルが考えられる。そこで、そのモデルにおいて、1つの画素の画素値が、M個の画素の画素値を重み付け加算した値に等しいとした式を解くことで、動きぼけを補正した画像の画素値が求められる。係数記憶部91は、クラス分類部64より供給されたクラスコードに対応する予測係数を読み出し、積和演算部92に供給する。   The prediction unit 65 includes a coefficient storage unit 91 and a product-sum operation unit 92. The coefficient storage unit 91 stores a prediction coefficient for each class code in advance. This prediction coefficient is obtained in advance as a coefficient necessary for converting an image with motion blur into an image without motion blur by learning the relationship between many images with motion blur and images without motion blur. It is what was done. By increasing the number of learning samples, it is possible to obtain a prediction coefficient that can convert various types of motion blur images into motion blur-free images (motion blur corrected). As the principle, for example, those disclosed in Japanese Patent Laid-Open No. 2001-250119 can be used. Since the details are disclosed in the publication, the description thereof is omitted, but in this principle, motion blur is a pixel value of one pixel of a stationary background and a number corresponding to the moving speed of the moving object. A model can be considered that is the result of mixing (adding) pixel values of (M) pixels. Therefore, in the model, a pixel value of an image in which motion blur is corrected is obtained by solving an equation in which the pixel value of one pixel is equal to a value obtained by weighting and adding the pixel values of M pixels. The coefficient storage unit 91 reads the prediction coefficient corresponding to the class code supplied from the class classification unit 64 and supplies the prediction coefficient to the product-sum operation unit 92.

積和演算部92は、タップ抽出部66より供給された予測タップ(予測画素)を、係数記憶部91に供給された予測係数とともに、予め用意された線形1次結合式に適応することで、動きぼけが補正された画素を演算する。タップ抽出部66は、クラス分類部64から供給されたクラスコードに基づいて、キャプチャ部63より供給された画素データの中から、所定の予測タップを抽出し、積和演算部92に出力する。   The product-sum operation unit 92 adapts the prediction tap (prediction pixel) supplied from the tap extraction unit 66 to the linear linear combination formula prepared in advance together with the prediction coefficient supplied to the coefficient storage unit 91. A pixel whose motion blur is corrected is calculated. Based on the class code supplied from the class classification unit 64, the tap extraction unit 66 extracts a predetermined prediction tap from the pixel data supplied from the capture unit 63, and outputs it to the product-sum operation unit 92.

表示部67は、キャプチャ部63より供給された画像データ、積和演算部92より供給された画像データ、または撮像部26より供給された画像データのいずれか1つを、制御部70からの制御に基づいて選択し、入力された画像データに基づく画像を表示する。   The display unit 67 controls one of the image data supplied from the capture unit 63, the image data supplied from the product-sum operation unit 92, or the image data supplied from the imaging unit 26 from the control unit 70. The image based on the input image data is displayed.

パラメータ生成部68は、パラメータ初期値を設定する。このパラメータ生成部68は、動きベクトル検出部101とパラメータ変換部102とにより構成されている。   The parameter generation unit 68 sets parameter initial values. The parameter generation unit 68 includes a motion vector detection unit 101 and a parameter conversion unit 102.

動きベクトル検出部101は、キャプチャ部63より供給されたフレームの一部であって、制御部70より指定された補正領域(範囲)の動きベクトルを検出し、パラメータ変換部102に出力する。この動きベクトルは、座標値で表現されている。パラメータ変換部102は、座標値で表現されている動きベクトルを、ベクトルとしてのパラメータに変換する。制御部70は、パラメータ変換部102より入力されたベクトル表現されたパラメータに対して、入力部69よりユーザにより入力されたオフセット値を加算し、加算して得られたパラメータ(初期値)をクラス分類部64に出力する。   The motion vector detection unit 101 detects a motion vector in a correction region (range) specified by the control unit 70 that is a part of the frame supplied from the capture unit 63 and outputs the motion vector to the parameter conversion unit 102. This motion vector is expressed by coordinate values. The parameter conversion unit 102 converts a motion vector expressed by coordinate values into a parameter as a vector. The control unit 70 adds the offset value input by the user from the input unit 69 to the vector-represented parameter input from the parameter conversion unit 102, and classifies the parameter (initial value) obtained by the addition as a class. The data is output to the classification unit 64.

ユーザは、図1の入力部27に対応する入力部69を操作することで、画像のぼけを補正するパラメータとしてのオフセット値(パラメータを補正する値)を入力する他、各部の制御を制御部70に指令する。制御部70は、入力部69からの指令に基づいて各部を制御し、必要なパラメータ、制御情報などを各部に供給する。   The user operates the input unit 69 corresponding to the input unit 27 in FIG. 1 to input an offset value (a value for correcting the parameter) as a parameter for correcting the blur of the image, and to control each unit. Command to 70. The control unit 70 controls each unit based on a command from the input unit 69 and supplies necessary parameters, control information, and the like to each unit.

図3は、制御部70のより詳細な機能的構成例を表している。   FIG. 3 illustrates a more detailed functional configuration example of the control unit 70.

判定部131は、画像処理装置1が編集処理を行う上において必要な各種の判定処理を行う。領域設定部132は、ユーザの指令に基づいて補正領域を設定する処理を行う。初期値設定部133は、ぼけパラメータの初期値を設定する処理を行う。保存部134は、画像データとそれに対応する動きぼけを補正するぼけパラメータを対応付けて、テーブル上に保存する。更新部135は、保存部134により保存された動きパラメータの更新処理を行う。   The determination unit 131 performs various determination processes necessary for the image processing apparatus 1 to perform an editing process. The area setting unit 132 performs a process of setting a correction area based on a user instruction. The initial value setting unit 133 performs processing for setting an initial value of the blur parameter. The storage unit 134 associates the image data with the blur parameter for correcting the motion blur corresponding thereto, and stores the image data on the table. The update unit 135 performs an update process on the motion parameter stored by the storage unit 134.

選択部136は、表示された複数の補正画像のいずれかを選択する処理を行う。取得部137は、ユーザより入力されたオフセット値を取得する。補正部138は、取得されたオフセット値に基づいて、ぼけパラメータを補正する処理を行う。   The selection unit 136 performs a process of selecting one of the displayed correction images. The acquisition unit 137 acquires the offset value input by the user. The correcting unit 138 performs processing for correcting the blur parameter based on the acquired offset value.

第1の生成部139は、既に保存されているぼけパラメータに基づいて、動きぼけを補正した補正画像を表示するための補正画像データを生成する。第2の生成部140は、初期値として設定されたぼけパラメータに基づいて、動きぼけが補正された補正画像のための補正画像データを生成する。第3の生成部141は、ユーザから入力されたオフセット値により補正されたぼけパラメータに基づいて、動きぼけが補正された補正画像のための補正画像データを生成する。   The first generation unit 139 generates corrected image data for displaying a corrected image in which the motion blur is corrected based on the already-stored blur parameter. The second generation unit 140 generates corrected image data for the corrected image in which the motion blur is corrected based on the blur parameter set as the initial value. The third generation unit 141 generates corrected image data for the corrected image in which the motion blur is corrected based on the blur parameter corrected by the offset value input from the user.

第1の表示制御部142は、第1の生成部139により生成された補正画像データに対応する画像の表示を制御する。第2の表示制御部143は、第1の表示制御部142より生成された補正画像データに対応する画像の表示を制御する。第3の表示制御部144は、第3の生成部141により生成された補正画像データの画像の表示を制御する。   The first display control unit 142 controls display of an image corresponding to the corrected image data generated by the first generation unit 139. The second display control unit 143 controls display of an image corresponding to the corrected image data generated by the first display control unit 142. The third display control unit 144 controls display of the corrected image data generated by the third generation unit 141.

なお、図3の各部は、相互に接続されており、必要に応じて、必要なデータを他の処理部から供給を受けることができる。   3 are connected to each other, and necessary data can be supplied from other processing units as necessary.

次に、画像処理装置1の動作について説明する。ユーザが入力部69を操作して撮像モードを指令すると、制御部70は、撮像部26を制御し、被写体を撮像させる。撮像部26により撮像された被写体の画像データは、表示部67に供給され、画像として表示される。ユーザは、この表示を見て被写体を確認することができる。   Next, the operation of the image processing apparatus 1 will be described. When the user operates the input unit 69 to command the imaging mode, the control unit 70 controls the imaging unit 26 to image the subject. Image data of the subject imaged by the imaging unit 26 is supplied to the display unit 67 and displayed as an image. The user can confirm the subject by viewing this display.

また、ユーザが表示部67の画像を見て、記録を指令した場合には、撮像部26により撮像された画像の画像データが記録部61に静止画または動画として記録される。   Further, when the user views the image on the display unit 67 and instructs recording, the image data of the image captured by the imaging unit 26 is recorded in the recording unit 61 as a still image or a moving image.

次に、図4乃至図6のフローチャートを参照して、記録部61に記録された画像データに基づく画像の編集処理について説明する。この処理は、ユーザが入力部69を操作して、編集モードを指令し、制御部70に対して編集処理の開始を指令したとき開始される。   Next, image editing processing based on image data recorded in the recording unit 61 will be described with reference to the flowcharts of FIGS. 4 to 6. This process is started when the user operates the input unit 69 to instruct the editing mode and instructs the control unit 70 to start the editing process.

ステップS1において、再生部62は、記録部61に記録されている画像のうち、ユーザにより指定された画像を再生する。すなわち、再生部62は、記録部61に記録されている画像データの中から、ユーザにより指定された画像データ(例えば、動画像データ)を再生し、キャプチャ部63に出力する。キャプチャ部63は、再生部62より供給された画像データを表示部67に出力し、表示させる。これにより、ユーザにより指定された画像であって、記録部61に記録されている画像データに基づく画像が、動画像として表示される。例えば、この画像処理装置1が、ホームセキュリティシステムの一部を構成するような場合、この画像からユーザは侵入者を確認することができる。   In step S <b> 1, the reproduction unit 62 reproduces an image designated by the user among images recorded in the recording unit 61. That is, the reproduction unit 62 reproduces image data (for example, moving image data) designated by the user from the image data recorded in the recording unit 61 and outputs the image data to the capture unit 63. The capture unit 63 outputs the image data supplied from the reproduction unit 62 to the display unit 67 for display. As a result, an image designated by the user and based on the image data recorded in the recording unit 61 is displayed as a moving image. For example, when the image processing apparatus 1 constitutes a part of a home security system, the user can confirm an intruder from this image.

ステップS2において、判定部131は、キャプチャが指示されたか否かを判定する。すなわち、ユーザは、表示部67に表示された動画像を見て、確認したい画像が表示されたタイミングにおいて、入力部69を操作することでキャプチャを指令する。キャプチャが指令されていない場合には、ステップS3において、判定部131は終了するか否かを判定する。すなわち、ユーザは、編集処理を終了する場合、入力部69を操作して終了を指令する。終了が指令された場合、編集処理は終了されるが、指令されない場合、処理はステップS1に戻り、それ以降の処理が繰り返し実行される。   In step S2, the determination unit 131 determines whether capture has been instructed. That is, the user views the moving image displayed on the display unit 67 and instructs the capture by operating the input unit 69 at the timing when the image to be confirmed is displayed. If capture is not instructed, the determination unit 131 determines whether or not to end in step S3. That is, when ending the editing process, the user operates the input unit 69 to instruct termination. If termination is instructed, the editing process is terminated. If not, the process returns to step S1, and the subsequent processes are repeatedly executed.

ステップS2において、キャプチャが指令されたと判定された場合、ステップS4において、キャプチャ部63は、静止画をキャプチャする。すなわち、再生部62から供給される画像のうち、制御部70からキャプチャが指令されたタイミングにおいて、表示部67に出力し、表示されているフレームの画像がキャプチャされる。これにより、表示部67には、キャプチャした静止画が表示されることになる。   If it is determined in step S2 that capture has been commanded, in step S4, the capture unit 63 captures a still image. That is, among the images supplied from the playback unit 62, at the timing when capture is commanded from the control unit 70, the image of the displayed frame is captured and output to the display unit 67. Thereby, the captured still image is displayed on the display unit 67.

ステップS5において、判定部131は、ぼけパラメータが登録されているか否かを判定する。すなわち、動きぼけを補正する編集処理が過去に一度でも行われたことがある場合、後述する図6のステップS26において、そのぼけパラメータが対応する画像データとともに保存されていることがある。このように、ぼけパラメータが既に登録されている場合には、キャプチャ部63は、キャプチャされたフレームに対応するぼけパラメータを、再生部62より供給される再生データの中から読み出し、これをクラス分類部64に出力する。   In step S5, the determination unit 131 determines whether the blur parameter is registered. That is, when editing processing for correcting motion blur has been performed even once in the past, the blur parameter may be stored together with corresponding image data in step S26 of FIG. As described above, when the blur parameter is already registered, the capture unit 63 reads out the blur parameter corresponding to the captured frame from the reproduction data supplied from the reproduction unit 62, and classifies it into the class classification. To the unit 64.

ステップS6において、第1の生成部139は、ぼけパラメータに基づいて動きぼけを補正した補正画像データを生成する処理を実行する。すなわち、第1の生成部139は、クラス分類部64と予測部65を制御し、補正画像データを生成する処理を実行させる。具体的には、クラス分類部64は、キャプチャ部63が、キャプチャしているフレームに対応して記録部61に記録されているぼけパラメータを取得し、供給してくるので、供給されたぼけパラメータに対応するクラスコードCの値を次式により演算する。   In step S6, the first generation unit 139 executes processing for generating corrected image data in which motion blur is corrected based on the blur parameter. That is, the first generation unit 139 controls the class classification unit 64 and the prediction unit 65 to execute processing for generating corrected image data. Specifically, the class classification unit 64 acquires and supplies the blur parameter recorded in the recording unit 61 corresponding to the frame being captured, so that the supplied blur parameter is supplied. The value of the class code C corresponding to is calculated by the following equation.

C=(a+A)×Nmax+(n+N) ・・・(1)   C = (a + A) × Nmax + (n + N) (1)

上記式(1)におけるaは、指定された領域における動きベクトルのx座標成分を表し、nは、y座標成分を表す。また、Aは、ユーザより入力されたオフセット値のx座標成分を表し、Nは、y座標成分を表す。画像データに対応して保存されているぼけパラメータは、式(1)における((a+A),(n+N))の値である。従って、クラス分類部64は、このぼけパラメータ((a+A),(n+N))の値を上記式(1)に適用して、クラスコードCを演算する。   In the above formula (1), a represents the x coordinate component of the motion vector in the designated area, and n represents the y coordinate component. A represents the x coordinate component of the offset value input by the user, and N represents the y coordinate component. The blur parameter stored corresponding to the image data is the value of ((a + A), (n + N)) in equation (1). Accordingly, the class classification unit 64 calculates the class code C by applying the value of the blur parameter ((a + A), (n + N)) to the above equation (1).

式(1)において、Nmaxは、y座標成分のクラス総数を意味する。   In formula (1), Nmax means the total number of classes of y coordinate components.

係数記憶部91は、クラス分類部64より供給されたクラスコードCに対応する予測係数を読み出し、積和演算部92に出力する。タップ抽出部66は、キャプチャ部63より供給されたフレームの画素データから、クラス分類部64より供給されたクラスコードに対応する予測タップを抽出する。抽出された予測タップは、積和演算部92に供給される。   The coefficient storage unit 91 reads the prediction coefficient corresponding to the class code C supplied from the class classification unit 64 and outputs the prediction coefficient to the product-sum operation unit 92. The tap extraction unit 66 extracts a prediction tap corresponding to the class code supplied from the class classification unit 64 from the pixel data of the frame supplied from the capture unit 63. The extracted prediction tap is supplied to the product-sum operation unit 92.

積和演算部92は、予め用意されている線形1次結合式に、予測係数と予測タップを代入し、積和演算することで、ぼけが補正された補正画像データとしての画素データを生成する。   The product-sum operation unit 92 generates pixel data as corrected image data in which blur is corrected by substituting a prediction coefficient and a prediction tap into a linear linear combination formula prepared in advance and performing a product-sum operation. .

ステップS7において、表示部67は、ステップS6で生成された補正画像データに対応する画像を表示する。従って、ユーザは、過去に1度でも動きぼけを補正し、補正画像(パラメータ)を保存したことがある場合には、その補正後の画像を見ることができる。   In step S7, the display unit 67 displays an image corresponding to the corrected image data generated in step S6. Therefore, the user can correct the motion blur even once and save the corrected image (parameter) in the past, and can view the corrected image.

なお、ステップS5において、ぼけパラメータが登録されていないと判定された場合、ステップS6の補正画像データ生成処理はスキップされる。従って、この場合には、ステップS7において、記録部61より再生された画像データ(補正されていない元データ)に対応する画像がそのまま表示されることになる。   If it is determined in step S5 that no blur parameter is registered, the corrected image data generation process in step S6 is skipped. Therefore, in this case, in step S7, an image corresponding to the image data reproduced from the recording unit 61 (original data not corrected) is displayed as it is.

ステップS8において、判定部131は、処理を終了するか否かを判定する。ユーザから処理の終了が指示されている場合には、編集処理は終了される。これに対して、終了が指示されていない場合には、ステップS9において、判定部131は、動画再生するか否かを判定する。すなわち、ユーザは、キャプチャし、表示部67に表示された画像を確認し、さらに補正する必要がない場合には、入力部69を操作し、動画再生を指令する。このとき処理はステップS1に戻り、制御部70は、再生部62を制御して、記録部61に記録されている画像データを再び再生させる。これにより、表示部67には、キャプチャしたフレームに続くフレームの画像が動画像として順次表示されることになる。   In step S8, the determination unit 131 determines whether or not to end the process. If the user gives an instruction to end the process, the editing process ends. On the other hand, when the end is not instructed, in step S9, the determination unit 131 determines whether to reproduce the moving image. In other words, the user captures and confirms the image displayed on the display unit 67, and when there is no need for further correction, the user operates the input unit 69 to instruct the moving image reproduction. At this time, the process returns to step S1, and the control unit 70 controls the reproduction unit 62 to reproduce the image data recorded in the recording unit 61 again. Thereby, the image of the frame following the captured frame is sequentially displayed on the display unit 67 as a moving image.

ステップS9において、動画再生が指示されていないと判定された場合、ステップS10において、判定部131は、補正が指示されたか否かを判定する。補正が指示されていないと判定された場合には、処理はステップS8に戻り、それ以降の処理が繰り返し実行される。   When it is determined in step S9 that the moving image reproduction is not instructed, in step S10, the determination unit 131 determines whether correction is instructed. If it is determined that correction is not instructed, the process returns to step S8, and the subsequent processes are repeatedly executed.

ユーザは、表示部67に表示されている画像を見て、動きぼけを補正したいと思う場合には、入力部69を操作してその旨を指令する。そして、さらにユーザは、入力部69を操作して、表示部67に表示されている画像のうち、どの領域の動きぼけを補正するのかを指示する。領域設定部132は、ステップS11において、ユーザからの指示に基づいて補正領域を設定する。例えば、図7に示されるように、フレームF1乃至フレームF3が順次動画像として表示される場合において、フレームF2が表示されたタイミングにおいて、キャプチャが指令された場合、図8に示されるように、キャプチャされたフレーム画像が静止画像として表示される。ユーザは、この画像を見て、動きぼけを補正したいと思う領域を、入力部69(入力部27を構成する、例えばマウス)により指定する。図8の例においては、人物が図中左方向に移動しているので、その人物の画像に動きぼけが発生している。そこで、ユーザは、その人物の画像を含む領域を補正領域151として指定する。   When the user looks at the image displayed on the display unit 67 and wants to correct the motion blur, the user operates the input unit 69 to instruct that effect. Further, the user operates the input unit 69 to instruct which region of the image displayed on the display unit 67 is to be corrected. In step S11, the region setting unit 132 sets a correction region based on an instruction from the user. For example, as shown in FIG. 7, when frames F1 to F3 are sequentially displayed as moving images, if capture is commanded at the timing when the frame F2 is displayed, as shown in FIG. The captured frame image is displayed as a still image. The user views the image and designates an area where motion blur is to be corrected by using the input unit 69 (for example, a mouse constituting the input unit 27). In the example of FIG. 8, since the person is moving in the left direction in the figure, motion blur occurs in the image of the person. Therefore, the user designates an area including the person's image as the correction area 151.

ステップS12において、初期値設定部133は、初期値設定処理を実行する。すなわち、いまユーザより画像の動きぼけの補正が指示されたのであるが、動きぼけ補正のパラメータを、無設定の状態からユーザに入力させると、動きぼけを完全に補正した画像を実現するのに時間がかかることになる。そこで、これから補正する画像の補正の候補をユーザに呈示し、その呈示された補正候補の画像の中から、所望の画像をユーザに選択させることで、迅速な補正処理を実現可能にする。ユーザは、選択した候補画像を、必要に応じてさらに補正する。   In step S12, the initial value setting unit 133 performs an initial value setting process. In other words, the user has instructed the correction of the motion blur of the image, but if the user inputs the parameter of the motion blur correction from the unset state, an image in which the motion blur is completely corrected is realized. It will take time. In view of this, a correction candidate for an image to be corrected is presented to the user, and the user can select a desired image from the presented correction candidate images, thereby realizing a quick correction process. The user further corrects the selected candidate image as necessary.

そこで、ステップS12の初期値設定処理では、例えば、図9のフローチャートに示されるように、2つの動きベクトルが検出され、対応するぼけパラメータが生成される。   Therefore, in the initial value setting process in step S12, for example, as shown in the flowchart of FIG. 9, two motion vectors are detected, and corresponding blur parameters are generated.

すなわち、ステップS51において、動きベクトル検出部101は、2つの動きベクトルを検出する。この動きベクトルとしては、ぼけパラメータがまだ保存されていない場合には、設定された補正領域151の画素毎の動きベクトルの中から、各動きベクトルの方向と絶対値を比較し、両者が等しい動きベクトルを同じ動きベクトルとして、最も頻度の大きい2つの動きベクトルが検出される。既にぼけパラメータが保存されている場合には、保存されているパラメータ((a+A),(n+N))のうちの、(a,n)で表される動きベクトル以外の値が検出される。例えば、既に保存されている動きベクトルの値(a,n)が、最も頻度の多い動きベクトルに対応している場合には、第2番目と第3番目の頻度の動きベクトルが検出される。すなわち、既に保存されている動きベクトルの値が、最も頻度が高い動きベクトルであったとしても、ユーザが求める動きぼけの補正量は、その動きベクトルに対応していないのであるから、頻度しては2番目、3番目であっても、ユーザが求める動きぼけを補正するための動きベクトルとしては、その方がより好ましいと考えられる。換言すれば、その方が、より迅速に、ユーザが求める動きぼけ補正処理を完了させることが可能となるからである。   That is, in step S51, the motion vector detection unit 101 detects two motion vectors. As the motion vector, when the blur parameter has not yet been saved, the direction and absolute value of each motion vector are compared among the motion vectors for each pixel in the set correction area 151, and both motions are equal. Two motion vectors having the highest frequency are detected using the same motion vector. When the blur parameter is already stored, a value other than the motion vector represented by (a, n) is detected among the stored parameters ((a + A), (n + N)). For example, when the motion vector value (a, n) already stored corresponds to the motion vector having the highest frequency, the motion vectors having the second and third frequencies are detected. That is, even if the motion vector value already stored is the motion vector having the highest frequency, the correction amount of motion blur requested by the user does not correspond to the motion vector. Even if it is the second or the third, it is considered that it is more preferable as a motion vector for correcting the motion blur required by the user. In other words, this makes it possible to complete the motion blur correction process desired by the user more quickly.

ステップS52において、パラメータ変換部102は、ステップS51で検出された第1の動きベクトルを第1のぼけパラメータに変換する。そして、ステップS53において、パラメータ変換部102は、ステップS51で検出された他の1つの第2の動きベクトルを、第2のぼけパラメータに変換する。   In step S52, the parameter conversion unit 102 converts the first motion vector detected in step S51 into a first blur parameter. In step S53, the parameter conversion unit 102 converts the other second motion vector detected in step S51 into a second blur parameter.

このようにして、2つのぼけパラメータが生成されると、初期値設定部133は、この2つのぼけパラメータを、クラス分類部64とタップ抽出部66に供給する。   When two blur parameters are generated in this way, the initial value setting unit 133 supplies the two blur parameters to the class classification unit 64 and the tap extraction unit 66.

図5に戻り、ステップS13において、クラス分類部64は、制御部70の初期値設定部133より供給された初期値として設定されたぼけパラメータに基づいてクラス分類する。すなわち、この処理により、2つのクラスコードが得られる。ステップS14において、第2の生成部140は、ぼけパラメータに基づいて、動きぼけを補正した補正画像データを生成する。すなわち、第2の生成部140は、予測部65を制御し、補正画像データを生成させる。具体的には、係数記憶部91は、クラス分類部64より供給された2つのクラスコードに対応する2組の予測係数を演算し、積和演算部92に出力する。また、タップ抽出部66は、入力された2組のクラスコードに対応する2組の予測タップを、キャプチャされているフレームの画素データの中から抽出し、積和演算部92に出力する。積和演算部92は、第1の予測係数と第1の予測タップを線形1次結合式に適用することで、第1の補正画像データを生成し、第2の予測係数と第2の予測タップを線形1次結合式に適用することで、第2の補正画像データを生成する。   Returning to FIG. 5, in step S <b> 13, the class classification unit 64 performs class classification based on the blur parameter set as the initial value supplied from the initial value setting unit 133 of the control unit 70. That is, two class codes are obtained by this process. In step S14, the second generation unit 140 generates corrected image data in which motion blur is corrected based on the blur parameter. That is, the second generation unit 140 controls the prediction unit 65 to generate corrected image data. Specifically, the coefficient storage unit 91 calculates two sets of prediction coefficients corresponding to the two class codes supplied from the class classification unit 64, and outputs them to the product-sum calculation unit 92. Further, the tap extraction unit 66 extracts two sets of prediction taps corresponding to the input two sets of class codes from the pixel data of the captured frame, and outputs them to the product-sum operation unit 92. The product-sum operation unit 92 generates the first corrected image data by applying the first prediction coefficient and the first prediction tap to the linear linear combination formula, and generates the second prediction coefficient and the second prediction coefficient. The second corrected image data is generated by applying the tap to the linear linear combination formula.

ステップS15において、第2の表示制御部143は、ステップS14の処理で生成された補正画像データの補正画像を表示する処理を実行する。すなわち、表示部67は、第2の表示制御部143により制御され、積和演算部92により供給された第1の補正画像に基づく画像と、第2の補正画像に基づく画像とを、画面上の、例えば左側半分と右側半分に同時に表示させる。あるいはまた、第1の補正画像を画面の全体に表示させ、それが所定時間表示された後、それに代えて第2の補正画像を表示させるようにしてもよい。すなわち、空間を分割するか、または時間を分割することで、複数(いまの場合、2枚の画像)が表示される。   In step S15, the second display control unit 143 executes processing for displaying the corrected image of the corrected image data generated in step S14. That is, the display unit 67 controls the second display control unit 143 to display an image based on the first correction image and an image based on the second correction image supplied by the product-sum calculation unit 92 on the screen. For example, the left half and the right half are displayed simultaneously. Alternatively, the first corrected image may be displayed on the entire screen, and after the predetermined time has been displayed, the second corrected image may be displayed instead. That is, a plurality of (in this case, two images) are displayed by dividing the space or dividing the time.

ステップS16において、選択部136は、補正画像を選択する処理を実行する。具体的には、ユーザは、表示された2つの補正画像の一方を、入力部69を操作することで選択する。これにより、既にパラメータが保存されている場合には、その保存されているパラメータを基準として、それと異なるパラメータが初期値として生成され、それに対応してぼけを補正した画像が自動的に(ユーザの操作によらずに)生成されるので、ユーザは、より迅速に動きぼけを補正した補正画像を得ることができる。   In step S <b> 16, the selection unit 136 executes a process for selecting a correction image. Specifically, the user selects one of the two displayed correction images by operating the input unit 69. As a result, if parameters have already been saved, a different parameter is generated as an initial value based on the saved parameter, and an image with the blur corrected correspondingly is automatically (user's Therefore, the user can obtain a corrected image in which motion blur is corrected more quickly.

次に、ステップS17において、判定部131は、ユーザより補正が指示されたか否かを判定する。すなわち、ユーザは、選択した補正画像を見て、自分自身が希望する状態に動きぼけが充分補正されているか否かを判断し、充分補正がなされていると判断した場合には、補正を指示せずに登録を指示する。この場合には、ステップS17において、補正が指示されていないと判定され、ステップS22において、判定部131により登録が指示されたと判定される。この場合、ステップS26において、保存部134は、ぼけパラメータとキャプチャした静止画の画像データとを対応付けて保存する。   Next, in step S <b> 17, the determination unit 131 determines whether correction is instructed by the user. That is, the user looks at the selected correction image, determines whether or not the motion blur is sufficiently corrected to the state desired by the user, and if it is determined that the correction is sufficiently performed, instructs the correction. Instruct to register without In this case, it is determined in step S17 that correction is not instructed, and in step S22, it is determined that registration is instructed by the determination unit 131. In this case, in step S26, the storage unit 134 stores the blur parameter and the captured still image data in association with each other.

以上の処理が行われた場合には、ユーザは、実質的にぼけパラメータを自ら指定せずに、初期値により設定された値だけで実現することができるため、迅速な編集処理が可能となる。   When the above processing is performed, the user can realize only by the value set by the initial value without substantially specifying the blur parameter himself / herself, thereby enabling quick editing processing. .

これに対して、初期値に基づく補正画像を見て、さらに補正が必要であると判定した場合、ユーザは入力部69を操作して補正を指示する。そして、ユーザは、さらに入力部69を操作することにより、補正画像をさらに補正するためのオフセット値を入力する。   On the other hand, when it is determined that further correction is necessary by looking at the corrected image based on the initial value, the user operates the input unit 69 to instruct correction. Then, the user further operates the input unit 69 to input an offset value for further correcting the corrected image.

そこで、ステップS17において、判定部131により補正が指示されていないと判定された場合、ステップS18において、取得部137は、ユーザより入力されたオフセット値を取得する。具体的には、図10に示されるように、左上の点P(X,Y)と右下の点P(X,Y)で表される補正領域151の中の動きベクトル152が、x成分としての値aと、y成分としての値nのベクトル(a,n)で表されている場合、オフセット値(オフセットパラメータ)は、この動きベクトル152の原点Q(A,N)を指定することで指定される。 Therefore, when it is determined in step S17 that the determination unit 131 has not instructed correction, the acquisition unit 137 acquires the offset value input by the user in step S18. Specifically, as shown in FIG. 10, the movement in the correction area 151 represented by the upper left point P 1 (X 1 , Y 1 ) and the lower right point P 2 (X 2 , Y 2 ). When the vector 152 is represented by a vector (a, n) of a value a as the x component and a value n as the y component, the offset value (offset parameter) is the origin Q (A, N) is specified.

ステップS19において、補正部138は、ぼけパラメータを補正する処理を実行する。具体的には、既に得られている動きベクトル(a,n)に、ステップS18で取得されたオフセット値(A,N)を加算することで、ぼけパラメータ((a+A),(n+N))が生成される。   In step S19, the correction unit 138 executes a process for correcting the blur parameter. Specifically, the blur parameter ((a + A), (n + N)) is obtained by adding the offset value (A, N) acquired in step S18 to the already obtained motion vector (a, n). Generated.

ステップS20において、第3の生成部141は、ステップS19の処理で補正されたぼけパラメータに基づいて、補正画像データを生成する処理を実行する。すなわち、第3の生成部141は、補正後のぼけパラメータ((a+A),(n+N))をクラス分類部64とタップ抽出部66に供給する。クラス分類部64は、入力されたぼけパラメータ((a+A),(n+N))に対応するクラスコードを係数記憶部91とタップ抽出部66に出力する。係数記憶部91は、入力されたクラスコードに対応する予測係数を読み出し、積和演算部92に出力する。タップ抽出部66は、入力されたクラスコードに対応するクラスタップを、キャプチャ部63より供給されるキャプチャされているフレームの画素データから抽出し、その予測タップを積和演算部92に出力する。積和演算部92は、入力された予測係数と予測タップとを線形1次結合式に代入して、動きぼけが補正された補正画像の補正画像データを生成する。   In step S20, the third generation unit 141 executes a process of generating corrected image data based on the blur parameter corrected in the process of step S19. That is, the third generation unit 141 supplies the corrected blur parameters ((a + A), (n + N)) to the class classification unit 64 and the tap extraction unit 66. The class classification unit 64 outputs a class code corresponding to the input blur parameter ((a + A), (n + N)) to the coefficient storage unit 91 and the tap extraction unit 66. The coefficient storage unit 91 reads a prediction coefficient corresponding to the input class code and outputs the prediction coefficient to the product-sum operation unit 92. The tap extraction unit 66 extracts the class tap corresponding to the input class code from the pixel data of the captured frame supplied from the capture unit 63, and outputs the prediction tap to the product-sum operation unit 92. The product-sum operation unit 92 assigns the input prediction coefficient and prediction tap to the linear linear combination formula, and generates corrected image data of the corrected image in which motion blur is corrected.

ステップS21において、第3の表示制御部144は、補正画像を表示する。すなわち、第3の表示制御部144は、ステップS20の処理で生成された補正画像データを、積和演算部92から表示部67に供給させ、補正画像として表示させる。   In step S21, the third display control unit 144 displays the corrected image. That is, the third display control unit 144 supplies the corrected image data generated in the process of step S20 from the product-sum operation unit 92 to the display unit 67 and displays it as a corrected image.

ユーザは、この補正画像を見て、動きぼけが充分補正されているか否かを判断し、さらに補正が必要であると判断した場合には、入力部69を操作して、さらなる補正を指示する。この場合、ステップS22において、判定部131は、登録が指示されていないと判定し、ステップS23において、補正が指示されたと判定する。このため、処理は再びステップS18に戻り、オフセット値取得処理が実行される。すなわち、ユーザは、再び入力部69を操作することで、新たなオフセット値(A,N)を入力する。そして、新たなオフセット値に基づいた補正画像生成処理が、上述した場合と同様に実行され、それに基づく補正画像が、表示部67に出力され、表示される。   The user looks at this corrected image to determine whether or not the motion blur is sufficiently corrected, and when it is determined that further correction is necessary, the user operates the input unit 69 to instruct further correction. . In this case, in step S22, the determination unit 131 determines that registration is not instructed, and in step S23, determines that correction is instructed. Therefore, the process returns to step S18 again, and an offset value acquisition process is executed. That is, the user operates the input unit 69 again to input a new offset value (A, N). Then, a corrected image generation process based on the new offset value is executed in the same manner as described above, and a corrected image based on the corrected image generation process is output to the display unit 67 and displayed.

ステップS23において、補正が指示されていないと判定された場合、ステップS24において、判定部131は、ユーザからの指示に基づいて、処理を終了するか否かを判定する。すなわち、ユーザは処理を終了する場合には、入力部69を操作してその旨を指令する。ステップS24において、処理の終了が指示されていないと判定された場合、ステップS25において、判定部131は、ユーザの指示に基づいて動画再生するか否かを判定する。すなわち、ユーザは、補正画像を見て登録する必要がないと判定した場合には、登録を指示せずに、動画再生を入力部69を操作することで指示する。動画再生が指示された場合には、処理はステップS1に戻り、それ以降の処理が繰り返し実行される。   If it is determined in step S23 that correction is not instructed, in step S24, the determination unit 131 determines whether to end the process based on an instruction from the user. That is, when ending the process, the user operates the input unit 69 to instruct that effect. In step S24, when it is determined that the end of the process is not instructed, in step S25, the determination unit 131 determines whether to play a moving image based on a user instruction. That is, when it is determined that the user does not need to register by looking at the corrected image, the user instructs the moving image reproduction by operating the input unit 69 without instructing the registration. When the moving image reproduction is instructed, the process returns to step S1, and the subsequent processes are repeatedly executed.

ステップS25において、動画再生が指示されていないと判定された場合、判定部131は、ステップS22において、登録が指示されたか否かを判定する。登録が指示されていないと判定された場合には、処理はステップS23に戻り、それ以降の処理が繰り返し実行される。   When it is determined in step S25 that the moving image reproduction is not instructed, the determination unit 131 determines whether registration is instructed in step S22. If it is determined that registration is not instructed, the process returns to step S23, and the subsequent processes are repeatedly executed.

ユーザは、補正画像を見て、登録すると判断した場合には、入力部69を操作することで登録を指示する。このとき、更新部135は、ステップS26において、ぼけパラメータとキャプチャした静止画の画像データとを、対応付けて保存する処理を実行する。すなわち、ぼけパラメータが既に保存されている場合には、そのぼけパラメータが、新たなぼけパラメータに更新される。画像データそのもの(元データ)は更新されない。従って、必要以上に画像データが増加することが防止される。   When the user sees the corrected image and determines that registration is to be performed, the user instructs registration by operating the input unit 69. At this time, in step S26, the update unit 135 executes a process of storing the blur parameter and the captured still image image in association with each other. That is, when the blur parameter is already stored, the blur parameter is updated to a new blur parameter. The image data itself (original data) is not updated. Therefore, it is possible to prevent image data from increasing more than necessary.

ステップS26の処理の後、処理はステップS23に戻り、それ以降の処理が繰り返し実行される。   After the process of step S26, the process returns to step S23, and the subsequent processes are repeatedly executed.

以上のように、この実施の形態においては、既に保存されているぼけパラメータに基づく補正がなされた画像が表示され、さらにそれとは異なるパラメータが初期値として設定され、それに基づく補正画像が表示されるので、ユーザはその補正画像から、必要に応じてさらに補正すればよく、補正処理が簡単となり、迅速な補正が可能となる。   As described above, in this embodiment, an image that has been corrected based on an already stored blur parameter is displayed, and a parameter different from that is set as an initial value, and a corrected image based on the parameter is displayed. Therefore, the user only needs to make further corrections from the corrected image as necessary, the correction process is simplified, and quick correction is possible.

また、ぼけパラメータとしての初期値を、既に保存されているぼけパラメータとは異なるが、それと同じ基準で設定された値に設定するようにしたので、オフセット値を入力する回数を少なくすることができ、より少ない補正回数で、動きぼけを充分補正した画像を得ることが可能となる。   Also, the initial value as the blur parameter is different from the blur parameter that has already been saved, but it is set to the value set according to the same standard, so the number of times to enter the offset value can be reduced. Thus, it is possible to obtain an image in which motion blur is sufficiently corrected with a smaller number of corrections.

以上においては、動きぼけに対応する動きベクトルに基づいて、ぼけパラメータの初期値を設定するようにしたが、既に保存されているぼけパラメータを基準として、他の方法により初期値を設定することも可能である。   In the above, the initial value of the blur parameter is set based on the motion vector corresponding to the motion blur. However, the initial value may be set by another method on the basis of the blur parameter already stored. Is possible.

例えば、記録部61には、図11に示されるように、ぼけパラメータとそれに対応する画像データを識別する番号が、テーブル上に対応付けて記憶されているものとする。この例においては、コンテンツを識別するコンテンツID、そのコンテンツIDで特定されるコンテンツのフレームを特定するフレーム番号、そのフレームに対応するぼけパラメータ、並びにそのフレーム(コンテンツ)を撮像した日時が、対応付けて記録されている。具体的には、コンテンツID「001」に関しては、そのフレーム番号「125」に対してぼけパラメータ「P1」が、フレーム番号「160」に対してぼけパラメータ「P2」が、それぞれ記録されている。そして、このコンテンツIDのコンテンツは、「2003年10月22日」に撮像されたものとされている。   For example, as shown in FIG. 11, it is assumed that the recording unit 61 stores a blur parameter and a number for identifying the corresponding image data in association with each other on the table. In this example, the content ID that identifies the content, the frame number that identifies the frame of the content specified by the content ID, the blur parameter corresponding to the frame, and the date and time when the frame (content) was captured are associated with each other. Are recorded. Specifically, for the content ID “001”, the blur parameter “P1” is recorded for the frame number “125”, and the blur parameter “P2” is recorded for the frame number “160”. The content with the content ID is taken on “October 22, 2003”.

さらに、コンテンツIDが「002」のコンテンツのフレーム番号「295」に対しては、ぼけパラメータ「P21」が記録されている。このコンテンツの撮影日時は「2003年11月15日」とされている。同様に、「003」のコンテンツIDの「330」のフレーム番号のフレームに対しては、「P31」のぼけパラメータが記録されている。このコンテンツの撮影日時は、「2003年12月26日」とされている。   Further, the blur parameter “P21” is recorded for the frame number “295” of the content whose content ID is “002”. The shooting date of this content is “November 15, 2003”. Similarly, the blur parameter “P31” is recorded for the frame having the frame number “330” having the content ID “003”. The shooting date of this content is “December 26, 2003”.

図12は、図11に示されるように予め登録されているぼけパラメータに基づいて、初期値設定を行う場合における初期値設定部133の機能的構成例を表している。同図に示されるように、初期値設定部133は、検出部201、重み付け部202、最小値計算部203、および設定部204により構成されている。   FIG. 12 illustrates a functional configuration example of the initial value setting unit 133 when initial value setting is performed based on blur parameters registered in advance as illustrated in FIG. 11. As shown in the figure, the initial value setting unit 133 includes a detection unit 201, a weighting unit 202, a minimum value calculation unit 203, and a setting unit 204.

検出部201は、記録部61から再生部62により再生されたテーブル上のデータから、既に保存されているぼけパラメータを検出する。重み付け部202は、検出部201により検出されたぼけパラメータに対して、重み付けを行う。最小値計算部203は、重み付けされたパラメータとの差の総和が最小となる値を計算する。設定部204は、最小値計算部203で計算された最小値を初期値として設定し、クラス分類部64とタップ抽出部66に出力する処理を行う。   The detection unit 201 detects a blur parameter that is already stored from data on the table reproduced by the reproduction unit 62 from the recording unit 61. The weighting unit 202 weights the blur parameter detected by the detection unit 201. The minimum value calculation unit 203 calculates a value that minimizes the sum of differences from the weighted parameters. The setting unit 204 performs processing for setting the minimum value calculated by the minimum value calculation unit 203 as an initial value and outputting the initial value to the class classification unit 64 and the tap extraction unit 66.

次に、図13のフローチャートを参照して、保存されている動きパラメータに基づいて初期値を設定する場合の処理について説明する。   Next, processing for setting an initial value based on a stored motion parameter will be described with reference to the flowchart of FIG.

ステップS71において、検出部201は、ぼけパラメータを検出する。具体的には、図11に示されるように、テーブル上に記録されているぼけパラメータP1,P2,P21,P31,・・・が検出される。ステップS72において、重み付け部202は、ステップS71の処理で検出部201により検出されたぼけパラメータを重み付けする処理を実行する。この重み付けの係数は任意であるが、例えば、その総和が1となるように設定される。   In step S71, the detection unit 201 detects a blur parameter. Specifically, as shown in FIG. 11, the blur parameters P1, P2, P21, P31,... Recorded on the table are detected. In step S72, the weighting unit 202 executes a process of weighting the blur parameter detected by the detection unit 201 in the process of step S71. The weighting coefficient is arbitrary, but is set such that the sum is 1, for example.

ステップS73において、最小値計算部203は、重み付けしたぼけパラメータとの差の総和が最小となる値を計算する。すなわち、ステップS72において、重み付けされたぼけパラメータとの差の総和が最小となる値がここで算出される。ステップS74において、設定部204は、計算した値を初期値とする処理を実行する。すなわち、ステップS73の処理で計算されたぼけパラメータの値が、初期値として設定される。   In step S73, the minimum value calculation unit 203 calculates a value that minimizes the sum of differences from the weighted blur parameter. That is, in step S72, a value that minimizes the sum of differences from the weighted blur parameter is calculated here. In step S74, the setting unit 204 executes processing for setting the calculated value as an initial value. That is, the value of the blur parameter calculated in the process of step S73 is set as an initial value.

以上のようにして、設定部204により、設定された初期値が、クラス分類部64に供給され、上述したようにして、クラスコードに変換され、係数記憶部91により対応する予測係数に変換される。タップ抽出部66は、初期値に基づいて抽出した予測タップを積和演算部92に出力する。積和演算部92により予測タップと予測係数との積和演算処理が行われ、表示部67に、この初期値として設定されたぼけパラメータ(保存されているぼけパラメータに重み付けして生成されたぼけパラメータ)に基づく補正画像が表示される。   As described above, the initial value set by the setting unit 204 is supplied to the class classification unit 64, converted into a class code as described above, and converted into a corresponding prediction coefficient by the coefficient storage unit 91. The The tap extraction unit 66 outputs the prediction tap extracted based on the initial value to the product-sum operation unit 92. The product-sum calculation unit 92 performs a product-sum calculation process of the prediction tap and the prediction coefficient, and the blur parameter set as the initial value on the display unit 67 (the blur generated by weighting the stored blur parameter). The corrected image based on the parameter) is displayed.

そして、この補正画像に対して、上述したように、必要に応じてさらにオフセット値が加算され、それに基づいて補正が行われる。   Then, as described above, an offset value is further added to the corrected image as necessary, and correction is performed based on the offset value.

なお、この実施の形態の場合、初期値に基づいて表示される補正画像は1つであるため、図5のステップS16の処理は、実質的にはスルーされる。   In this embodiment, since only one correction image is displayed based on the initial value, the process in step S16 in FIG. 5 is substantially bypassed.

もちろん、この場合にも、2つ以上の初期値を設定し、複数の補正画像を表示させるようにしてもよい。   Of course, also in this case, two or more initial values may be set and a plurality of corrected images may be displayed.

図13の処理では、全てのぼけパラメータを利用するようにしたが、より近似した撮影条件のぼけパラメータだけを基準として初期値を設定することも可能である。この場合、テーブルには、図14に示されるように、日時の情報として、年月日だけではなく、曜日と時刻も各フレームに対応して記憶される。図14の例においては、コンテンツID「001」のフレーム番号「125」の撮影年月日は「2003年10月22日」であり、曜日は「水曜日」とされている。そして、その撮影時刻は「10時05分03秒」とされ、フレーム「185」の撮影時刻は「10時05分05秒」とされている。コンテンツID「002」の日時情報は、「2003年11月15日」、「土曜日」、「15時23分03秒」とされている。コンテンツID「003」の日時情報は、「2003年12月26日」、「金曜日」、「19時55分25秒」とされている。   In the processing of FIG. 13, all blur parameters are used, but it is also possible to set initial values based on only blur parameters with more approximate shooting conditions. In this case, as shown in FIG. 14, in the table, not only the date but also the day of the week and the time are stored as date and time information corresponding to each frame. In the example of FIG. 14, the shooting date of the frame number “125” of the content ID “001” is “October 22, 2003”, and the day of the week is “Wednesday”. The shooting time is “10:05:03”, and the shooting time of the frame “185” is “10:05:05”. The date / time information of the content ID “002” is “November 15, 2003”, “Saturday”, and “15:23:03”. The date and time information of the content ID “003” is “December 26, 2003”, “Friday”, and “19:55:25”.

この場合、初期値設定部133は、図15に示されるように、検出部251、第1の検索部252、第2の検索部253、第3の検索部254、および設定部255により構成される。   In this case, the initial value setting unit 133 includes a detection unit 251, a first search unit 252, a second search unit 253, a third search unit 254, and a setting unit 255, as shown in FIG. The

検出部251は、記録部61に記録されている画像データの撮影日時を検出する。第1の検索部252は、キャプチャフレームの撮影時刻に最も近い時刻に撮影されているフレームを検索する。第2の検索部253は、キャプチャフレームの撮影日に最も近い曜日のフレームを検索する。第3の検索部254は、キャプチャフレームの撮影年月日に最も近い年月日に撮影されたフレームを検索する。設定部255は、検索されたフレームのぼけパラメータを初期値として設定し、クラス分類部64とタップ抽出部66に出力する処理を行う。   The detection unit 251 detects the shooting date and time of the image data recorded in the recording unit 61. The first search unit 252 searches for a frame shot at a time closest to the capture time of the capture frame. The second search unit 253 searches for the frame of the day of the week closest to the capture frame shooting date. The third search unit 254 searches for a frame shot on the date closest to the shooting date of the capture frame. The setting unit 255 performs processing for setting the blur parameter of the searched frame as an initial value and outputting it to the class classification unit 64 and the tap extraction unit 66.

次に図16のフローチャートを参照して、その動作について説明する。ステップS91において、検出部251は、キャプチャフレームの撮影年月日、曜日、時刻を検出する。これらの日時情報も、テーブル上に予め記憶されている(但し、まだ編集処理していないので、ぼけパラメータは登録されていない)。   Next, the operation will be described with reference to the flowchart of FIG. In step S91, the detection unit 251 detects the shooting date, day of the week, and time of the capture frame. These date and time information is also stored in advance on the table (however, since the editing process has not been performed yet, the blur parameter is not registered).

ステップS92において、第1の検索部252は、ステップS91の処理で検出された、キャプチャフレームの撮影時刻に最も近い時刻に撮影され、かつ、ぼけパラメータが記憶されているフレームを検索する。例えば、キャプチャフレームが、「19時50分03秒」に撮影された画像である場合、その時刻に近い時刻に撮影されたフレームであって、ぼけパラメータが記憶されているフレームが検索される。ステップS93において、第2の検索部253は、キャプチャフレームの撮影日と同じ曜日か最も近い曜日に撮影され、かつ、ぼけパラメータが記憶されているフレームを検索する。例えば、キャプチャフレームが「土曜日」に撮影された場合、「土曜日」に最も近い曜日に撮影され、かつ、ぼけパラメータが記憶されているフレームが検索される。   In step S92, the first search unit 252 searches for a frame that is captured at a time closest to the capture time of the capture frame detected in the process of step S91 and in which the blur parameter is stored. For example, when the capture frame is an image taken at “19:50:03”, a frame taken at a time close to that time and storing a blur parameter is searched. In step S <b> 93, the second search unit 253 searches for a frame that is shot on the same day of the week as the shooting date of the capture frame or the day of the week that is the closest, and in which the blur parameter is stored. For example, when the capture frame is shot on “Saturday”, a frame that is shot on the day of the week closest to “Saturday” and stores the blur parameter is searched.

ステップS94において、第3の検索部254は、キャプチャフレームの撮影年月日と同じか最も近い年月日に撮影され、かつ、ぼけパラメータが記憶されているフレームを検索する。例えば、キャプチャフレームの撮影年月日が、「2003年11月15日」である場合、「2003年11月15日」に最も近い年月日に撮影され、かつ、ぼけパラメータが記憶されているフレームが検索される。   In step S94, the third search unit 254 searches for a frame that has been shot on the date that is the same as or closest to the shooting date of the capture frame and in which the blur parameter is stored. For example, when the shooting date of the capture frame is “November 15, 2003”, the shooting date is closest to “November 15, 2003” and the blur parameter is stored. The frame is searched.

ステップS95において、設定部255は、検索された1つのフレームのぼけパラメータを初期値として設定する。具体的には、ステップS92乃至ステップS94の処理で検索されたフレームの中から、最も誤差の少ないものが1つ選択され、そのフレームのぼけパラメータが初期値とされる。この場合において、例えば、撮影時刻が3時間以上離れている場合には、撮影時刻に最も近い時刻に撮影された他のフレームが存在しないと判定し、曜日でフレームを検索するようにしてもよい。また、例えば、曜日が3日以上離れている場合には、最も近い曜日のフレームが検索されなかったとして、撮影年月日で検索するようにしてもよい。   In step S95, the setting unit 255 sets the blur parameter of one searched frame as an initial value. Specifically, one with the least error is selected from the frames searched in the processes of steps S92 to S94, and the blur parameter of that frame is set as an initial value. In this case, for example, when the shooting time is 3 hours or more away, it may be determined that there is no other frame shot at the time closest to the shooting time, and the frame may be searched by day of the week. . Further, for example, when the day of the week is more than 3 days away, it is possible to search by the shooting date, assuming that the frame of the closest day of the week has not been searched.

以上のようにして、設定されたフレームの初期値が、クラス分類部64とタップ抽出部66に供給され、上述した場合と同様にして、初期値に基づく補正画像として表示部67に表示される。   As described above, the initial value of the set frame is supplied to the class classification unit 64 and the tap extraction unit 66, and is displayed on the display unit 67 as a corrected image based on the initial value in the same manner as described above. .

なお、上記した動きぼけには、被写体の移動による動きぼけだけでなく、手ぶれによる動きぼけも含まれる。手ぶれによる場合は、動きぼけがフレーム(画面)の全体にわたって発生するので、補正領域が画面の全体とされる。また、パラメータとしては、各種のものを、各種の形式で用いることが可能である。例えば、動きベクトルに対応するパラメータは、動きベクトルの角度と大きさで表されるようにしてもよい。   Note that the motion blur described above includes not only motion blur due to movement of the subject but also motion blur due to camera shake. In the case of camera shake, motion blur occurs throughout the frame (screen), so that the correction area is the entire screen. Various parameters can be used in various formats. For example, the parameter corresponding to the motion vector may be represented by the angle and magnitude of the motion vector.

以上、本発明は動きぼけを補正する場合について説明したが、本発明は、動きぼけだけではなく、フォーカスぼけを補正する場合にも、適用することが可能である。この場合には、係数記憶部91には、フォーカスぼけを補正するのに必要な予測係数が学習され、記憶されることになる。そして、この場合、パラメータ生成部68は実質的に不要となる。フォーカスぼけを補正する場合には、フォーカスぼけは、σ値を有するガウシアン分布に従って、1つの画素の画素値に、周辺の複数の画素の画素値を混合(加算)した結果であるとするモデルが考えられる。そして、多くのフォーカスぼけの画像とフォーカスぼけしていない画像との関係を学習することで、フォーカスぼけの画像から、それを補正した画像を得るための予測係数が得られる。ユーザは、フォーカスぼけを補正するとき、σ値をパラメータとして設定する。この場合、クラスコードCは、例えば、次のように演算される(従って、この場合、クラス分類部64に画像データが供給される)。   Although the present invention has been described with respect to correcting motion blur, the present invention can also be applied to correcting not only motion blur but also focus blur. In this case, the coefficient storage unit 91 learns and stores a prediction coefficient necessary for correcting the focus blur. In this case, the parameter generation unit 68 is substantially unnecessary. In the case of correcting the focus blur, there is a model in which the focus blur is a result of mixing (adding) pixel values of a plurality of peripheral pixels to a pixel value of one pixel according to a Gaussian distribution having a σ value. Conceivable. Then, by learning the relationship between many images that are out of focus and images that are not out of focus, a prediction coefficient for obtaining an image that is corrected from the image that is out of focus can be obtained. The user sets the σ value as a parameter when correcting the focus blur. In this case, the class code C is calculated as follows, for example (in this case, image data is supplied to the class classification unit 64).

C=σ×ADRCmax+ ADRC ・・・(2)   C = σ × ADRCmax + ADRC (2)

上記式におけるADRCは、所定のブロック内の画素を閾値(そのブロック内のダイナミックレンジと最小値とで規定される)と比較した結果を表す値であり、ADRCmaxは、そのADRC処理によるクラスコードの総数を表す。   ADRC in the above equation is a value representing the result of comparing the pixels in a given block with a threshold value (defined by the dynamic range and minimum value in that block), and ADRCmax is the class code by the ADRC processing. Represents the total number.

さらにまた、係数記憶部91に動きぼけを補正するためのぼけパラメータと、フォーカスぼけを補正するためのぼけパラメータの両方を記憶しておくことも可能である。そして、初期値として、動きぼけを補正するぼけパラメータに基づいて補正した補正画像と、フォーカスぼけを補正するぼけパラメータを用いて、補正した補正画像を表示部67に表示し、ユーザに選択させるようにしてもよい。このようにすれば、ユーザが、動きぼけとフォーカスぼけのいずれが原因で画像がぼけているのかを正確に認識することができなくても、迅速にぼけ画像を補正することが可能となる。   Furthermore, both the blur parameter for correcting the motion blur and the blur parameter for correcting the focus blur can be stored in the coefficient storage unit 91. Then, using the corrected image corrected based on the blur parameter for correcting the motion blur and the blur parameter for correcting the focus blur as the initial values, the corrected image corrected is displayed on the display unit 67 so that the user can select it. It may be. In this way, even if the user cannot accurately recognize whether the image is blurred due to motion blur or focus blur, it is possible to quickly correct the blurred image.

上述した一連の処理は、ハードウエアにより実行させることもできるし、ソフトウエアにより実行させることもできる。一連の処理をソフトウエアにより実行させる場合には、そのソフトウエアを構成するプログラムが、専用のハードウエアに組み込まれているコンピュータ、または、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば汎用のパーソナルコンピュータなどに、ネットワークや記録媒体からインストールされる。   The series of processes described above can be executed by hardware or can be executed by software. When a series of processing is executed by software, a program constituting the software executes various functions by installing a computer incorporated in dedicated hardware or various programs. For example, a general-purpose personal computer is installed from a network or a recording medium.

この記録媒体は、図1に示されるように、装置本体とは別に、ユーザにプログラムを提供するために配布される、プログラムが記録されている磁気ディスク(フロッピディスクを含む)、光ディスク(CD-ROM(Compact Disk-Read Only Memory),DVD(Digital Versatile Disk)を含む)、光磁気ディスク(MD(Mini-Disk)を含む)、もしくは半導体メモリなどよりなるリムーバブルメディア32により構成されるだけでなく、装置本体に予め組み込まれた状態でユーザに提供される、プログラムが記録されているROM22や、記憶部29に含まれるハードディスクなどで構成される。   As shown in FIG. 1, the recording medium is distributed to provide a program to the user separately from the main body of the apparatus, and includes a magnetic disk (including a floppy disk) on which the program is recorded, an optical disk (CD- In addition to ROM (Compact Disk-Read Only Memory), DVD (including Digital Versatile Disk)), magneto-optical disk (including MD (Mini-Disk)), or removable media 32 consisting of semiconductor memory, etc. The program is provided with a ROM 22 in which a program is recorded, a hard disk included in the storage unit 29, and the like provided to the user in a state of being incorporated in the apparatus main body in advance.

なお、本明細書において、記録媒体に記録されるプログラムを記述するステップは、記載された順序に沿って時系列的に行われる処理はもちろん、必ずしも時系列的に処理されなくとも、並列的あるいは個別に実行される処理をも含むものである。   In the present specification, the step of describing the program recorded on the recording medium is not limited to the processing performed in chronological order according to the described order, but is not necessarily performed in chronological order. It also includes processes that are executed individually.

また、本明細書において、システムとは、複数の装置により構成される装置全体を表すものである。   Further, in this specification, the system represents the entire apparatus constituted by a plurality of apparatuses.

本発明は、デジタルカメラに適用することが可能である。   The present invention can be applied to a digital camera.

本発明を適用した画像処理装置の構成例を示すブロック図である。It is a block diagram which shows the structural example of the image processing apparatus to which this invention is applied. 図1の画像処理装置の機能的構成例を示すブロック図である。It is a block diagram which shows the functional structural example of the image processing apparatus of FIG. 図2の制御部の機能的構成例を示すブロック図である。It is a block diagram which shows the functional structural example of the control part of FIG. 編集処理を説明するフローチャートである。It is a flowchart explaining an edit process. 編集処理を説明するフローチャートである。It is a flowchart explaining an edit process. 編集処理を説明するフローチャートである。It is a flowchart explaining an edit process. 動画の例を示す図である。It is a figure which shows the example of a moving image. キャプチャ画像を示す図である。It is a figure which shows a captured image. 初期値設定処理を説明するフローチャートである。It is a flowchart explaining an initial value setting process. 動きぼけに対応するパラメータを説明する図である。It is a figure explaining the parameter corresponding to motion blur. テーブルの例を示す図である。It is a figure which shows the example of a table. 初期値設定部の機能的構成例を示すブロック図である。It is a block diagram which shows the functional structural example of an initial value setting part. 初期値設定処理を説明するフローチャートである。It is a flowchart explaining an initial value setting process. テーブルの構成例を示す図である。It is a figure which shows the structural example of a table. 初期値設定部の他の機能的構成例を示すブロック図である。It is a block diagram which shows the other functional structural example of an initial value setting part. 初期値設定処理を示すフローチャートである。It is a flowchart which shows an initial value setting process.

符号の説明Explanation of symbols

1 画像処理装置, 61 記録部, 62 再生部, 63 キャプチャ部, 64 クラス分類部, 65 予測部, 66 タップ抽出部, 67 表示部, 68 パラメータ生成部, 69 入力部, 70 制御部, 91 係数記憶部, 92 積和演算部, 101 動きベクトル検出部, 102 パラメータ変換部, 131 判定部, 132 領域設定部, 133 初期値設定部, 134 保存部, 135 更新部, 136 選択部, 137 取得部, 138 補正部, 139 第1の生成部, 140 第2の生成部, 141 第3の生成部, 142 第1の表示制御部, 143 第2の表示制御部, 144 第3の表示制御部   DESCRIPTION OF SYMBOLS 1 Image processing apparatus, 61 Recording part, 62 Playback part, 63 Capture part, 64 Class classification part, 65 Prediction part, 66 Tap extraction part, 67 Display part, 68 Parameter generation part, 69 Input part, 70 Control part, 91 Coefficient Storage unit, 92 product-sum operation unit, 101 motion vector detection unit, 102 parameter conversion unit, 131 determination unit, 132 area setting unit, 133 initial value setting unit, 134 storage unit, 135 update unit, 136 selection unit, 137 acquisition unit , 138 correction unit, 139 first generation unit, 140 second generation unit, 141 third generation unit, 142 first display control unit, 143 second display control unit, 144 third display control unit

Claims (7)

画像の元データと、前記元データに基づく画像を補正するパラメータを、前記元データに対応付けて保存する保存手段と、
保存されている前記元データに基づく画像を表示する場合、対応して保存されている前記パラメータに基づいて、前記画像のぼけを補正するように前記元データを補正して第1の補正データを生成する第1の生成手段と、
前記第1の補正データに基づく第1の画像の表示を制御する第1の表示制御手段と、
前記第1の画像のぼけの補正の指示を判定する判定手段と、
前記第1の画像のぼけの補正が指示された場合、ぼけを補正する前記パラメータの初期値を設定する初期値設定手段と、
前記初期値に基づいてぼけを補正するように前記元データを補正して第2の補正データを生成する第2の生成手段と、
前記第2の補正データに基づく第2の画像の表示を制御する第2の表示制御手段と、
前記第2の画像を補正するパラメータを取得する取得手段と、
取得された前記パラメータに基づいてぼけを補正するように前記元データを補正して第3の補正データを生成する第3の生成手段と、
前記第3の補正データに基づく第3の画像の表示を制御する第3の表示制御手段と、
前記第3の画像の保存が指令された場合、前記取得手段により取得された前記パラメータにより、前記元データに対応して保存されている前記パラメータを更新する更新手段と
を備えることを特徴とする画像処理装置。
Storage means for storing image original data and parameters for correcting an image based on the original data in association with the original data;
When displaying an image based on the stored original data, the first correction data is obtained by correcting the original data so as to correct the blur of the image based on the corresponding stored parameter. First generating means for generating;
First display control means for controlling display of the first image based on the first correction data;
Determining means for determining an instruction to correct blur of the first image;
An initial value setting means for setting an initial value of the parameter for correcting blur when an instruction to correct blur of the first image is given;
Second generation means for correcting the original data so as to correct blur based on the initial value and generating second correction data;
Second display control means for controlling display of a second image based on the second correction data;
Obtaining means for obtaining a parameter for correcting the second image;
Third generation means for correcting the original data so as to correct blur based on the acquired parameter to generate third correction data;
Third display control means for controlling display of a third image based on the third correction data;
Update means for updating the parameter stored in correspondence with the original data by the parameter acquired by the acquisition means when storage of the third image is instructed. Image processing device.
前記初期値設定手段は、複数の前記初期値を設定し、
前記第2の生成手段は、複数の前記初期値に基づいて、複数の前記第2の補正データを生成し、
前記第2の表示制御手段は、複数の前記第2の補正データに基づく複数の前記第2の画像の表示を制御し、
前記画像処理装置は、複数の前記第2の画像の1つを選択する選択手段をさらに備え、
前記取得手段は、選択された前記第2の画像を補正するパラメータを取得する
ことを特徴とする請求項1に記載の画像処理装置。
The initial value setting means sets a plurality of the initial values,
The second generation means generates a plurality of the second correction data based on the plurality of initial values,
The second display control means controls display of the plurality of second images based on the plurality of second correction data;
The image processing apparatus further includes a selection unit that selects one of the plurality of second images,
The image processing apparatus according to claim 1, wherein the acquisition unit acquires a parameter for correcting the selected second image.
前記初期値設定手段は、保存されている前記パラメータとの差分の総和、差分の絶対値、または差分の2乗の総和が最小となる値を、前記初期値として設定する
ことを特徴とする請求項1に記載の画像処理装置。
The initial value setting means sets, as the initial value, a value that minimizes a sum of differences from the stored parameter, an absolute value of the difference, or a sum of squares of the differences. Item 8. The image processing apparatus according to Item 1.
前記初期値設定手段は、前記画像が撮影された月日、曜日、または時刻に基づいて、前記初期値を設定する
ことを特徴とする請求項1に記載の画像処理装置。
The image processing apparatus according to claim 1, wherein the initial value setting unit sets the initial value based on a date, a day of the week, or a time when the image is captured.
画像の元データと、前記元データに基づく画像を補正するパラメータを、前記元データに対応付けて保存する保存ステップと、
保存されている前記元データに基づく画像を表示する場合、対応して保存されている前記パラメータに基づいて、前記画像のぼけを補正するように前記元データを補正して第1の補正データを生成する第1の生成ステップと、
前記第1の補正データに基づく第1の画像の表示を制御する第1の表示制御ステップと、
前記第1の画像のぼけの補正の指示を判定する判定ステップと、
前記第1の画像のぼけの補正が指示された場合、ぼけを補正する前記パラメータの初期値を設定する初期値設定ステップと、
前記初期値に基づいてぼけを補正するように前記元データを補正して第2の補正データを生成する第2の生成ステップと、
前記第2の補正データに基づく第2の画像の表示を制御する第2の表示制御ステップと、
前記第2の画像を補正するパラメータを取得する取得ステップと、
取得された前記パラメータに基づいてぼけを補正するように前記元データを補正して第3の補正データを生成する第3の生成ステップと、
前記第3の補正データに基づく第3の画像の表示を制御する第3の表示制御ステップと、
前記第3の画像の保存が指令された場合、前記取得ステップにより取得された前記パラメータにより、前記元データに対応して保存されている前記パラメータを更新する更新ステップと
を含むことを特徴とする画像処理方法。
A storage step of storing image original data and parameters for correcting an image based on the original data in association with the original data;
When displaying an image based on the stored original data, the first correction data is obtained by correcting the original data so as to correct the blur of the image based on the corresponding stored parameter. A first generating step to generate;
A first display control step for controlling display of the first image based on the first correction data;
A determination step of determining an instruction to correct blur of the first image;
An initial value setting step for setting an initial value of the parameter for correcting blur when an instruction to correct blur of the first image is given;
A second generation step of generating second correction data by correcting the original data so as to correct blur based on the initial value;
A second display control step for controlling the display of the second image based on the second correction data;
Obtaining a parameter for correcting the second image;
A third generation step of generating third correction data by correcting the original data so as to correct blur based on the acquired parameter;
A third display control step for controlling display of a third image based on the third correction data;
An update step of updating the parameter stored in correspondence with the original data with the parameter acquired in the acquisition step when storage of the third image is instructed. Image processing method.
画像の元データと、前記元データに基づく画像を補正するパラメータを、前記元データに対応付けて保存する保存ステップと、
保存されている前記元データに基づく画像を表示する場合、対応して保存されている前記パラメータに基づいて、前記画像のぼけを補正するように前記元データを補正して第1の補正データを生成する第1の生成ステップと、
前記第1の補正データに基づく第1の画像の表示を制御する第1の表示制御ステップと、
前記第1の画像のぼけの補正の指示を判定する判定ステップと、
前記第1の画像のぼけの補正が指示された場合、ぼけを補正する前記パラメータの初期値を設定する初期値設定ステップと、
前記初期値に基づいてぼけを補正するように前記元データを補正して第2の補正データを生成する第2の生成ステップと、
前記第2の補正データに基づく第2の画像の表示を制御する第2の表示制御ステップと、
前記第2の画像を補正するパラメータを取得する取得ステップと、
取得された前記パラメータに基づいてぼけを補正するように前記元データを補正して第3の補正データを生成する第3の生成ステップと、
前記第3の補正データに基づく第3の画像の表示を制御する第3の表示制御ステップと、
前記第3の画像の保存が指令された場合、前記取得ステップにより取得された前記パラメータにより、前記元データに対応して保存されている前記パラメータを更新する更新ステップと
を含むことを特徴とするコンピュータが読み取り可能なプログラムが記録されている記録媒体。
A storage step of storing image original data and parameters for correcting an image based on the original data in association with the original data;
When displaying an image based on the stored original data, the first correction data is obtained by correcting the original data so as to correct the blur of the image based on the corresponding stored parameter. A first generating step to generate;
A first display control step for controlling display of the first image based on the first correction data;
A determination step of determining an instruction to correct blur of the first image;
An initial value setting step for setting an initial value of the parameter for correcting blur when an instruction to correct blur of the first image is given;
A second generation step of generating second correction data by correcting the original data so as to correct blur based on the initial value;
A second display control step for controlling the display of the second image based on the second correction data;
Obtaining a parameter for correcting the second image;
A third generation step of generating third correction data by correcting the original data so as to correct blur based on the acquired parameter;
A third display control step for controlling display of a third image based on the third correction data;
An update step of updating the parameter stored in correspondence with the original data with the parameter acquired in the acquisition step when storage of the third image is instructed. A recording medium on which a computer-readable program is recorded.
画像の元データと、前記元データに基づく画像を補正するパラメータを、前記元データに対応付けて保存する保存ステップと、
保存されている前記元データに基づく画像を表示する場合、対応して保存されている前記パラメータに基づいて、前記画像のぼけを補正するように前記元データを補正して第1の補正データを生成する第1の生成ステップと、
前記第1の補正データに基づく第1の画像の表示を制御する第1の表示制御ステップと、
前記第1の画像のぼけの補正の指示を判定する判定ステップと、
前記第1の画像のぼけの補正が指示された場合、ぼけを補正する前記パラメータの初期値を設定する初期値設定ステップと、
前記初期値に基づいてぼけを補正するように前記元データを補正して第2の補正データを生成する第2の生成ステップと、
前記第2の補正データに基づく第2の画像の表示を制御する第2の表示制御ステップと、
前記第2の画像を補正するパラメータを取得する取得ステップと、
取得された前記パラメータに基づいてぼけを補正するように前記元データを補正して第3の補正データを生成する第3の生成ステップと、
前記第3の補正データに基づく第3の画像の表示を制御する第3の表示制御ステップと、
前記第3の画像の保存が指令された場合、前記取得ステップにより取得された前記パラメータにより、前記元データに対応して保存されている前記パラメータを更新する更新ステップと
をコンピュータに実行させることを特徴とするプログラム。
A storage step of storing image original data and parameters for correcting an image based on the original data in association with the original data;
When displaying an image based on the stored original data, the first correction data is obtained by correcting the original data so as to correct the blur of the image based on the corresponding stored parameter. A first generating step to generate;
A first display control step for controlling display of the first image based on the first correction data;
A determination step of determining an instruction to correct blur of the first image;
An initial value setting step for setting an initial value of the parameter for correcting blur when an instruction to correct blur of the first image is given;
A second generation step of generating second correction data by correcting the original data so as to correct blur based on the initial value;
A second display control step for controlling the display of the second image based on the second correction data;
Obtaining a parameter for correcting the second image;
A third generation step of generating third correction data by correcting the original data so as to correct blur based on the acquired parameter;
A third display control step for controlling display of a third image based on the third correction data;
When the storage of the third image is instructed, the computer executes an update step of updating the parameter stored corresponding to the original data by the parameter acquired in the acquisition step. A featured program.
JP2004141887A 2004-05-12 2004-05-12 Image processing apparatus and method, recording medium, and program Expired - Fee Related JP4389656B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004141887A JP4389656B2 (en) 2004-05-12 2004-05-12 Image processing apparatus and method, recording medium, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004141887A JP4389656B2 (en) 2004-05-12 2004-05-12 Image processing apparatus and method, recording medium, and program

Publications (2)

Publication Number Publication Date
JP2005328117A true JP2005328117A (en) 2005-11-24
JP4389656B2 JP4389656B2 (en) 2009-12-24

Family

ID=35474148

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004141887A Expired - Fee Related JP4389656B2 (en) 2004-05-12 2004-05-12 Image processing apparatus and method, recording medium, and program

Country Status (1)

Country Link
JP (1) JP4389656B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2006857A1 (en) 2007-06-19 2008-12-24 Sony Corporation Image processing apparatus, image processing method and program
US7692688B2 (en) 2006-02-13 2010-04-06 Sony Corporation Method for correcting distortion of captured image, device for correcting distortion of captured image, and imaging device
JPWO2015166675A1 (en) * 2014-05-02 2017-04-20 ソニー株式会社 Image processing apparatus, image processing method, and program

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7692688B2 (en) 2006-02-13 2010-04-06 Sony Corporation Method for correcting distortion of captured image, device for correcting distortion of captured image, and imaging device
EP2006857A1 (en) 2007-06-19 2008-12-24 Sony Corporation Image processing apparatus, image processing method and program
CN101330573B (en) * 2007-06-19 2010-12-22 索尼株式会社 Image processing apparatus, image processing method
JPWO2015166675A1 (en) * 2014-05-02 2017-04-20 ソニー株式会社 Image processing apparatus, image processing method, and program

Also Published As

Publication number Publication date
JP4389656B2 (en) 2009-12-24

Similar Documents

Publication Publication Date Title
JP4489033B2 (en) Frame rate conversion device, pan / tilt determination device and video device
JP6317577B2 (en) Video signal processing apparatus and control method thereof
JP2018042198A (en) Imaging apparatus and imaging method
JP4924228B2 (en) Image processing apparatus, image processing method, and program
JP2007135057A (en) Imaging apparatus, image processing method, as well as program
JP2007221570A (en) Imaging apparatus and its program
JP6304293B2 (en) Image processing apparatus, image processing method, and program
WO2006101112A1 (en) Imaging device, information processing device, information processing method, program, and program recording medium
CN104247398A (en) Imaging device and method for controlling same
JP2007158868A (en) Image processing apparatus and method thereof
US10567675B2 (en) Imaging apparatus and imaging method for maintaining continuity between frames of moving image data
JP6032912B2 (en) Imaging apparatus, control method thereof, and program
JP4389656B2 (en) Image processing apparatus and method, recording medium, and program
WO2017150238A1 (en) Display control apparatus, display control method, and program
WO2017104102A1 (en) Imaging device
JP6278729B2 (en) Imaging apparatus, control method thereof, and program
JP2007202050A (en) Image generating apparatus and program
JP5120369B2 (en) Still image generating apparatus, still image generating program, and still image generating method
JP2005277618A (en) Photography taking apparatus and device and method for correcting shading
JP2018074523A (en) Imaging device, control method thereof, program, and recording medium
JP2007228119A (en) Imaging apparatus, image processing method, and program
JP2020149589A (en) Image processing device, imaging apparatus, image processing method, and program
WO2023100665A1 (en) Image processing device, image processing method, and program
JP4942596B2 (en) Image processing apparatus, imaging apparatus, and display apparatus
JP2004229084A (en) Blurring correcting instrument, method therefor and imaging apparatus

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070508

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20090617

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090623

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090821

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20090915

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20090928

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121016

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121016

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131016

Year of fee payment: 4

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees