JP6771148B2 - Image processing device - Google Patents

Image processing device Download PDF

Info

Publication number
JP6771148B2
JP6771148B2 JP2016132548A JP2016132548A JP6771148B2 JP 6771148 B2 JP6771148 B2 JP 6771148B2 JP 2016132548 A JP2016132548 A JP 2016132548A JP 2016132548 A JP2016132548 A JP 2016132548A JP 6771148 B2 JP6771148 B2 JP 6771148B2
Authority
JP
Japan
Prior art keywords
reference frame
blur
image
frame
frmr
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016132548A
Other languages
Japanese (ja)
Other versions
JP2017028687A (en
Inventor
友英 前田
友英 前田
暁広 古田
暁広 古田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Intellectual Property Management Co Ltd
Original Assignee
Panasonic Intellectual Property Management Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Intellectual Property Management Co Ltd filed Critical Panasonic Intellectual Property Management Co Ltd
Priority to US15/743,467 priority Critical patent/US10346956B2/en
Priority to PCT/JP2016/003386 priority patent/WO2017013871A1/en
Publication of JP2017028687A publication Critical patent/JP2017028687A/en
Application granted granted Critical
Publication of JP6771148B2 publication Critical patent/JP6771148B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/73Deblurring; Sharpening
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/14Transformations for image registration, e.g. adjusting or mapping for alignment of images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • G06T3/4053Scaling of whole images or parts thereof, e.g. expanding or contracting based on super-resolution, i.e. the output image resolution being higher than the sensor resolution
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Studio Devices (AREA)
  • Image Processing (AREA)

Description

本発明は、画像処理装置に係り、特に、それぞれが共通する部分領域を有する複数の入力フレームの低解像度画像を位置合わせして高解像度画像を生成する画像処理装置に関する。 The present invention relates to an image processing device, and more particularly to an image processing device that aligns low-resolution images of a plurality of input frames, each having a common partial region, to generate a high-resolution image.

同一の被写体を撮影した複数入力フレームの画像に対し、各画像が低解像度で、かつ位置ずれがあれば、それらの画像の位置を合わせて重ね合わせることで、解像度の高い画像を生成することができる。この複数の低解像度画像から高解像度画像を生成する処理は、超解像処理と呼ばれる。 If each image has a low resolution and there is a misalignment with respect to the images of multiple input frames of the same subject, it is possible to generate a high resolution image by aligning the positions of those images and superimposing them. it can. The process of generating a high-resolution image from the plurality of low-resolution images is called a super-resolution process.

ここで、画像に位置ずれが生ずる撮影とは、静止している被写体に対してカメラを動かしながら撮影する場合、もしくは、動いている被写体を固定したカメラで撮影する場合である。なお、被写体もカメラも完全に静止している場合は、画像を何枚重ね合わせても解像度は上がらない。 Here, the shooting in which the image is misaligned is a case of shooting while moving the camera with respect to a stationary subject, or a case of shooting with a fixed camera of a moving subject. If both the subject and the camera are completely stationary, the resolution will not increase no matter how many images are superimposed.

また、画像の位置合わせ(マッチング)には、テンプレートマッチングや特徴点マッチングを用いて位置合わせパラメータ(平行移動・回転などの幾何変換行列)を求めるのが一般的である。また、画像の重ね合わせには、再構成法を用いるのが一般的である。再構成法とは、高解像度画像の推定画像を生成し、その推定画像の尤もらしさが最大となるように推定画像の更新・評価を繰り返して、推定画像の収束解を最終出力とするものである。推定画像の尤もらしさとしては、[1]推定画像の位置をずらして解像度を劣化させて得られる低解像度画像がどれだけ元の入力画像に近いか、[2]推定画像において画素値のつながりが自然かどうか、などである。 Further, for image alignment (matching), it is common to obtain alignment parameters (geometric transformation matrix such as translation / rotation) by using template matching or feature point matching. In addition, a reconstruction method is generally used for superimposing images. The reconstruction method generates an estimated image of a high-resolution image, repeats updating and evaluating the estimated image so that the plausibility of the estimated image is maximized, and outputs a convergent solution of the estimated image as the final output. is there. The plausibility of the estimated image is as follows: [1] How close the low resolution image obtained by shifting the position of the estimated image and degrading the resolution is to the original input image, and [2] The connection of pixel values in the estimated image. Whether it is natural or not.

ところで、画像の位置合わせを自動で行う自動マッチング処理では、複数入力フレームの画像の位置合わせにおいて、基準点を見つけて合わせるという処理が行われるが、基準点の誤検出によるミスマッチは避けられない。特に、動いている被写体を遅いシャッタースピードで撮影すると被写体ブレが生じるため、ミスマッチする可能性が高くなる。 By the way, in the automatic matching process that automatically aligns images, in the alignment of images of a plurality of input frames, a process of finding and aligning a reference point is performed, but a mismatch due to erroneous detection of the reference point is unavoidable. In particular, when a moving subject is photographed at a slow shutter speed, subject blurring occurs, which increases the possibility of mismatch.

被写体ブレによるミスマッチの可能性を低減させるには、超解像処理を行う前に画像の被写体ブレを除去すればよい。被写体ブレを除去するためには、ブレの無い原画像にブレPSF(Point Spread Function、点ひろがり関数)を畳み込んだ結果がブレ画像であるというモデルに基づき、ブレ画像とブレPSFから逆畳み込み(Deconvolution)を行うという手法が採られる(特許文献1参照)。この手法を用いることで、原画像に近いブレ除去画像を得ることができる。 In order to reduce the possibility of mismatch due to subject blur, the subject blur of the image may be removed before the super-resolution processing is performed. In order to remove subject blur, deconvolution from the blur image and blur PSF is based on the model that the result of convolving the blur PSF (Point Spread Function) into the original image without blur is the blur image (reverse folding from the blur image and blur PSF ( A method of performing Deconvolution) is adopted (see Patent Document 1). By using this method, it is possible to obtain a blur removal image close to the original image.

特開2011−259119号公報Japanese Unexamined Patent Publication No. 2011-259119

しかしながら、超解像処理を行う前に被写体ブレを除去するようにしても、ノイズ等の影響もあってミスマッチの課題を完全に回避することは難しい。自動マッチング処理では、上手くマッチングができない場合、本来使えるはずのフレームの画像が排除されてしまう。この結果、利用できるフレームの数が減少してしまい、超解像処理を行っても高解像度画像を得ることができなくなる。 However, even if the subject blur is removed before the super-resolution processing is performed, it is difficult to completely avoid the problem of mismatch due to the influence of noise and the like. In the automatic matching process, if the matching is not successful, the image of the frame that should be usable is excluded. As a result, the number of frames that can be used decreases, and a high-resolution image cannot be obtained even if super-resolution processing is performed.

この課題は、自動マッチング処理を通さず手動で各画像の位置合わせを行うにすることで回避することができるが、複数入力フレームの画像を1枚1枚表示させて手作業で少しずつずらすことで位置合わせする作業は非常に煩雑で、非生産的である。 This problem can be avoided by manually aligning each image without going through the automatic matching process, but it is necessary to display the images of multiple input frames one by one and shift them by hand. The work of aligning with is very complicated and unproductive.

本発明は、かかる点に鑑みてなされたものであり、複数入力フレームの画像の位置合わせを手作業で行う場合に、作業効率の向上を図ることができる画像処理装置を提供することを目的とする。 The present invention has been made in view of such a point, and an object of the present invention is to provide an image processing apparatus capable of improving work efficiency when manually aligning images of a plurality of input frames. To do.

本発明の画像処理装置は、それぞれが共通する部分領域を有する複数の入力フレームの低解像度画像を位置合わせして高解像度画像を生成する画像処理装置であって、前記複数入力フレームの中から選択された1つの基準フレームの画像および前記高解像度画像を生成する際に用いられるパラメータを表示させ、前記表示されたパラメータの調整に基づいて前記基準フレームの画像の表示内容を更新し、前記調整されたパラメータを前記基準フレームのパラメータとしてメモリに記憶させる基準フレーム調整部と、前記基準フレーム以外の入力フレームの1つである参照フレームの画像、および、前記基準フレームのパラメータを前記参照フレームのパラメータとして表示させ、前記表示されたパラメータの調整に基づいて前記参照フレームの画像の表示内容を更新し、前記調整されたパラメータを前記参照フレームのパラメータとしてメモリに記憶させる参照フレーム調整部と、前記各入力フレームに対して、対応する前記パラメータを用いて前記入力フレームに含まれるブレを除去する処理を行うブレ除去部と、前記ブレが除去された入力フレームの低解像度画像を位置合わせして高解像度画像を生成する画像生成部と、を具備する。 The image processing device of the present invention is an image processing device that generates a high-resolution image by aligning low-resolution images of a plurality of input frames, each having a common partial area, and is selected from the plurality of input frames. The image of one reference frame and the parameters used when generating the high-resolution image are displayed, and the display contents of the image of the reference frame are updated based on the adjustment of the displayed parameters, and the adjustment is performed. The reference frame adjustment unit that stores the parameters as the parameters of the reference frame in the memory, the image of the reference frame that is one of the input frames other than the reference frame, and the parameters of the reference frame as the parameters of the reference frame. A reference frame adjustment unit that displays, updates the display content of the image of the reference frame based on the adjustment of the displayed parameter, and stores the adjusted parameter in the memory as the parameter of the reference frame, and each of the inputs. A high-resolution image by aligning a blur removing unit that performs a process of removing blur included in the input frame with respect to the frame using the corresponding parameter and a low-resolution image of the input frame from which the blur has been removed. It is provided with an image generation unit for generating the above.

本発明によれば、基準フレームでの調整結果を他の全ての参照フレームに対して反映できるので、複数入力フレームの画像の位置合わせを手作業で行う場合に、入力作業を少なくし、作業効率の向上を図ることができる。この結果、超解像処理に利用できるフレームの数を増やすことができるので、超解像処理によって高解像度画像を得ることができる。 According to the present invention, the adjustment result in the reference frame can be reflected to all other reference frames. Therefore, when the image alignment of a plurality of input frames is manually performed, the input work is reduced and the work efficiency is reduced. Can be improved. As a result, the number of frames that can be used for the super-resolution processing can be increased, so that a high-resolution image can be obtained by the super-resolution processing.

本発明の実施の形態1に係る画像処理装置の概略構成を示すブロック図The block diagram which shows the schematic structure of the image processing apparatus which concerns on Embodiment 1 of this invention. 本発明の実施の形態1に係る画像処理装置において、自動で位置合わせするようにした超解像処理を説明するためのフローチャートA flowchart for explaining super-resolution processing in which the image processing apparatus according to the first embodiment of the present invention is automatically aligned. 本発明の実施の形態1に係る画像処理装置において、手動で位置合わせするようにした超解像処理を説明するためのフローチャートA flowchart for explaining super-resolution processing in which the image processing apparatus according to the first embodiment of the present invention is manually aligned. 本発明の実施の形態1に係る画像処理装置の超解像処理における画像データ読み込み処理を説明するためのフローチャートA flowchart for explaining an image data reading process in the super-resolution processing of the image processing apparatus according to the first embodiment of the present invention. 本発明の実施の形態1に係る画像処理装置の超解像処理において、自動で基準フレームを選択する処理を説明するためのフローチャートA flowchart for explaining a process of automatically selecting a reference frame in the super-resolution processing of the image processing apparatus according to the first embodiment of the present invention. 本発明の実施の形態1に係る画像処理装置の超解像処理において、手動で基準フレームを選択する処理を説明するためのフローチャートA flowchart for explaining a process of manually selecting a reference frame in the super-resolution processing of the image processing apparatus according to the first embodiment of the present invention. 本発明の実施の形態1に係る画像処理装置の超解像処理における注目被写体領域の設定処理を説明するためのフローチャートA flowchart for explaining the setting process of the subject area of interest in the super-resolution processing of the image processing apparatus according to the first embodiment of the present invention. 本発明の実施の形態1に係る画像処理装置の超解像処理における自動位置合わせ処理を説明するためのフローチャートFlow chart for explaining automatic alignment processing in super-resolution processing of the image processing apparatus according to the first embodiment of the present invention. 本発明の超解像処理における自動位置合わせ処理に用いられる幾何変換行列の一例を示す図The figure which shows an example of the geometric transformation matrix used for the automatic alignment processing in super-resolution processing of this invention. 本発明の実施の形態1に係る画像処理装置の超解像処理におけるブレPSFの推定処理を説明するためのフローチャートA flowchart for explaining a blur PSF estimation process in the super-resolution processing of the image processing apparatus according to the first embodiment of the present invention. 本発明の実施の形態1に係る画像処理装置の超解像処理におけるブレPSFの推定処理を説明するためのフローチャートA flowchart for explaining a blur PSF estimation process in the super-resolution processing of the image processing apparatus according to the first embodiment of the present invention. 本発明の実施の形態1に係る画像処理装置の超解像処理における基準フレームでのパラメータ調整処理を説明するためのフローチャートA flowchart for explaining a parameter adjustment process in a reference frame in the super-resolution process of the image processing apparatus according to the first embodiment of the present invention. 基準フレームでのパラメータ調整前のユーザインタフェース画面の一例を示す図The figure which shows an example of the user interface screen before parameter adjustment in a reference frame. 基準フレームでのパラメータ調整後のユーザインタフェース画面の一例を示す図The figure which shows an example of the user interface screen after parameter adjustment in a reference frame. 本発明の実施の形態1に係る画像処理装置の超解像処理における参照フレームでのパラメータ調整処理を説明するためのフローチャートA flowchart for explaining a parameter adjustment process in a reference frame in the super-resolution process of the image processing apparatus according to the first embodiment of the present invention. 本発明の実施の形態1に係る画像処理装置の超解像処理における参照フレームでのパラメータ調整処理を説明するためのフローチャートA flowchart for explaining a parameter adjustment process in a reference frame in the super-resolution process of the image processing apparatus according to the first embodiment of the present invention. 参照フレームでのパラメータ調整前のユーザインタフェース画面の一例を示す図The figure which shows an example of the user interface screen before parameter adjustment in a reference frame. 参照フレームでのパラメータ調整後のユーザインタフェース画面の一例を示す図The figure which shows an example of the user interface screen after parameter adjustment in a reference frame. 本発明の実施の形態1に係る画像処理装置の超解像処理におけるブレの除去処理を説明するためのフローチャートA flowchart for explaining a blur removal process in the super-resolution process of the image processing apparatus according to the first embodiment of the present invention. 本発明の実施の形態1に係る画像処理装置の超解像処理における再構成処理を説明するためのフローチャートA flowchart for explaining the reconstruction process in the super-resolution processing of the image processing apparatus according to the first embodiment of the present invention. 再構成処理に用いられる拡大変換行列Mzの一例を示す図The figure which shows an example of the expansion transformation matrix Mz used for the reconstruction process. 本発明の実施の形態2に係る画像処理装置の超解像処理におけるブレPSFの推定処理を説明するためのフローチャートA flowchart for explaining a blur PSF estimation process in the super-resolution processing of the image processing apparatus according to the second embodiment of the present invention. 本発明の実施の形態2に係る画像処理装置の超解像処理におけるブレPSFの推定処理を説明するためのフローチャートA flowchart for explaining a blur PSF estimation process in the super-resolution processing of the image processing apparatus according to the second embodiment of the present invention. 本発明の実施の形態3に係る画像処理装置の超解像処理における顔特徴点検出処理を説明するためのフローチャートA flowchart for explaining the face feature point detection process in the super-resolution process of the image processing apparatus according to the third embodiment of the present invention. 本発明の実施の形態3に係る画像処理装置の超解像処理において表示される顔特徴点および平面パッチの一例を示す図The figure which shows an example of the face feature point and the plane patch displayed in the super-resolution processing of the image processing apparatus which concerns on Embodiment 3 of this invention. 本発明の実施の形態3に係る画像処理装置の超解像処理におけるブレPSFの推定処理を説明するためのフローチャートA flowchart for explaining the blur PSF estimation process in the super-resolution processing of the image processing apparatus according to the third embodiment of the present invention. 本発明の実施の形態3に係る画像処理装置の超解像処理におけるブレPSFの推定処理を説明するためのフローチャートA flowchart for explaining the blur PSF estimation process in the super-resolution processing of the image processing apparatus according to the third embodiment of the present invention. 本発明の実施の形態3に係る画像処理装置の超解像処理における基準フレームでのパラメータ調整処理を説明するためのフローチャートA flowchart for explaining a parameter adjustment process in a reference frame in the super-resolution process of the image processing apparatus according to the third embodiment of the present invention. 本発明の実施の形態3の基準フレームでのパラメータ調整処理における顔特徴点の写像処理の詳細を説明するためのフローチャートA flowchart for explaining the details of the mapping process of facial feature points in the parameter adjustment process in the reference frame of the third embodiment of the present invention. 本発明の実施の形態3に係る画像処理装置の超解像処理における参照フレームでのパラメータ調整処理を説明するためのフローチャートA flowchart for explaining a parameter adjustment process in a reference frame in the super-resolution process of the image processing apparatus according to the third embodiment of the present invention. 本発明の実施の形態3に係る画像処理装置の超解像処理における参照フレームでのパラメータ調整処理を説明するためのフローチャートA flowchart for explaining a parameter adjustment process in a reference frame in the super-resolution process of the image processing apparatus according to the third embodiment of the present invention. 本発明の実施の形態3に係る画像処理装置の超解像処理における再構成処理を説明するためのフローチャートA flowchart for explaining the reconstruction process in the super-resolution processing of the image processing apparatus according to the third embodiment of the present invention. 本発明の実施の形態4に係る画像処理装置の超解像処理におけるブレPSFの推定処理を説明するためのフローチャートA flowchart for explaining a blur PSF estimation process in the super-resolution processing of the image processing apparatus according to the fourth embodiment of the present invention. 本発明の実施の形態4に係る画像処理装置の超解像処理におけるブレPSFの推定処理を説明するためのフローチャートA flowchart for explaining a blur PSF estimation process in the super-resolution processing of the image processing apparatus according to the fourth embodiment of the present invention. 本発明の実施の形態4に係る画像処理装置の超解像処理におけるブレPSFの推定処理を説明するためのフローチャートA flowchart for explaining a blur PSF estimation process in the super-resolution processing of the image processing apparatus according to the fourth embodiment of the present invention.

以下、本実施の形態を図面に基づいて詳細に説明する。 Hereinafter, the present embodiment will be described in detail with reference to the drawings.

(実施の形態1)
図1は、本発明の実施の形態1に係る画像処理装置1の概略構成を示すブロック図である。同図において、本実施の形態に係る画像処理装置1は、複数の低解像度画像から高解像度画像を生成する超解像処理を行うことが可能な装置であり、画像データ入力部10、フレームメモリ11、グラフィカルユーザインタフェース部12、基準フレーム選択部13、注目被写体領域選択部14、マッチング計算部15、ブレPSF推定部16、メモリ部17、基準フレーム調整部18、参照フレーム調整部19、ブレ除去部20、再構成処理部21、及び超解像画像出力部22を備える。メモリ部17は、基準点位置保持メモリ17AとブレPSFパラメータ保持メモリ17Bから構成される。なお、再構成処理部21と超解像画像出力部22は、画像生成部23を構成する。
(Embodiment 1)
FIG. 1 is a block diagram showing a schematic configuration of an image processing device 1 according to a first embodiment of the present invention. In the figure, the image processing device 1 according to the present embodiment is a device capable of performing super-resolution processing for generating a high-resolution image from a plurality of low-resolution images, and is an image data input unit 10 and a frame memory. 11. Graphical user interface unit 12, reference frame selection unit 13, attention subject area selection unit 14, matching calculation unit 15, blur PSF estimation unit 16, memory unit 17, reference frame adjustment unit 18, reference frame adjustment unit 19, blur removal. A unit 20, a reconstruction processing unit 21, and a super-resolution image output unit 22 are provided. The memory unit 17 is composed of a reference point position holding memory 17A and a blur PSF parameter holding memory 17B. The reconstruction processing unit 21 and the super-resolution image output unit 22 constitute an image generation unit 23.

画像データ入力部10は、不図示のカメラからフレーム単位で順次出力される画像データを入力する。なお、画像データ入力部10が入力したフレーム単位の画像データを、入力フレームとも言う。フレームメモリ11は、入力フレームを一時的に保存する。グラフィカルユーザインタフェース部12は、コンピュータグラフィックスと、マウス等のポインティング・デバイスとを用いて、直感的な操作を提供するユーザインタフェースである。 The image data input unit 10 inputs image data sequentially output from a camera (not shown) in frame units. The frame-based image data input by the image data input unit 10 is also referred to as an input frame. The frame memory 11 temporarily stores the input frame. The graphical user interface unit 12 is a user interface that provides intuitive operation by using computer graphics and a pointing device such as a mouse.

基準フレーム選択部13は、フレームメモリ11に保存された複数入力フレームの中の1つを選択し、それを基準フレームとする。基準フレームとなる入力フレームの選択は、フレームメモリ11に保存された複数入力フレームのそれぞれの画質を評価し、最も評価の高い入力フレームを選択するか、またはフレームメモリ11に保存された複数入力フレームの一覧を表示して、その中の1つをユーザに選択させる。 The reference frame selection unit 13 selects one of the plurality of input frames stored in the frame memory 11 and uses it as the reference frame. To select an input frame to be a reference frame, the image quality of each of the plurality of input frames stored in the frame memory 11 is evaluated, and the most evaluated input frame is selected, or the multiple input frames stored in the frame memory 11 are selected. Display a list of and let the user select one of them.

注目被写体領域選択部14は、基準フレーム選択部13で選択された基準フレームに注目被写体領域(部分領域)を設定する。基準フレームに対する注目被写体領域の設定はユーザによって行われる。すなわち、ユーザがマウス等のポインティング・デバイスを使用して注目被写体領域を設定する。 The attention subject area selection unit 14 sets the attention subject area (partial area) in the reference frame selected by the reference frame selection unit 13. The user sets the target area of interest with respect to the reference frame. That is, the user sets the subject area of interest using a pointing device such as a mouse.

マッチング計算部15は、フレームメモリ11に保存されている基準フレーム以外の複数入力フレームのそれぞれに対し、基準フレームの注目被写体領域とマッチする領域を見つける。 The matching calculation unit 15 finds an area that matches the attention subject area of the reference frame for each of the plurality of input frames other than the reference frame stored in the frame memory 11.

ブレPSF推定部16は、基準フレーム以外の複数入力フレームのそれぞれにおいて基準フレームの注目被写体領域の画像データとマッチする領域の中心点を求め、さらに、その中心点の動きベクトルよりブレの角度と長さを求めて、これらをブレPSFパラメータとして保存する。 The blur PSF estimation unit 16 obtains the center point of a region that matches the image data of the subject area of interest of the reference frame in each of the plurality of input frames other than the reference frame, and further, the blur angle and length are obtained from the motion vector of the center point. These are saved as blur PSF parameters.

基準フレーム調整部18は、複数入力フレームの中から選択された1つの基準フレームの画像および高解像度画像を生成する際に用いられる部分領域の位置とブレPSFパラメータを表示させ、表示された部分領域の位置とブレPSFパラメータの調整に基づいて基準フレームの画像の表示内容を更新し、調整された部分領域の位置とブレPSFパラメータを基準フレームの部分領域の位置とブレPSFパラメータとして基準点位置保持メモリ17AとブレPSFパラメータ保持メモリ17Bにそれぞれ記憶させるとともに、基準フレーム以外の複数入力フレームの部分領域の位置とブレPSFパラメータを更新して基準点位置保持メモリ17AとブレPSFパラメータ保持メモリ17Bにそれぞれさらに記憶させる。 The reference frame adjustment unit 18 displays the position and blur PSF parameter of the partial area used when generating the image of one reference frame selected from the plurality of input frames and the high resolution image, and the displayed partial area. The display content of the image of the reference frame is updated based on the adjustment of the position and blur PSF parameter of, and the position of the adjusted partial area and the blur PSF parameter are held as the position of the partial region of the reference frame and the reference point position as the blur PSF parameter. In addition to storing in the memory 17A and the blur PSF parameter holding memory 17B, respectively, the position of a partial area of a plurality of input frames other than the reference frame and the blur PSF parameter are updated in the reference point position holding memory 17A and the blur PSF parameter holding memory 17B, respectively. Remember more.

参照フレーム調整部19は、基準フレーム以外の複数入力フレームの1つのである参照フレームの画像および参照フレームの部分領域の位置とブレPSFパラメータを表示させ、表示された部分領域の位置とブレPSFパラメータの調整に基づいて参照フレームの画像の表示内容を更新し、調整された部分領域の位置とブレPSFパラメータを参照フレームの部分領域の位置とブレPSFパラメータとして基準点位置保持メモリ17AとブレPSFパラメータ保持メモリ17Bにそれぞれ記憶させる。 The reference frame adjustment unit 19 displays the image of the reference frame which is one of the plurality of input frames other than the reference frame, the position of the partial area of the reference frame, and the blur PSF parameter, and displays the position of the displayed partial area and the blur PSF parameter. The display content of the image of the reference frame is updated based on the adjustment of, and the adjusted partial area position and blur PSF parameter are used as the reference frame partial area position and blur PSF parameter. Reference point position holding memory 17A and blur PSF parameter Each is stored in the holding memory 17B.

ブレ除去部20は、フレームメモリ11に保存されている複数入力フレームのそれぞれに対して、対応するブレPSFパラメータを用いて当該入力フレームに含まれるブレを除去する処理を行う。再構成処理部21は、ブレが除去されたフレームの低解像度画像を位置合わせして高解像度画像を生成する。超解像画像出力部22は、再構成処理部21で生成された高解像度画像を出力する。 The blur removing unit 20 performs a process of removing blur included in the input frame for each of the plurality of input frames stored in the frame memory 11 by using the corresponding blur PSF parameter. The reconstruction processing unit 21 aligns the low-resolution image of the frame from which the blur has been removed to generate a high-resolution image. The super-resolution image output unit 22 outputs a high-resolution image generated by the reconstruction processing unit 21.

次に、本実施の形態に係る画像処理装置1の動作について説明する。 Next, the operation of the image processing device 1 according to the present embodiment will be described.

(超解像処理)
図2は、超解像処理を示すフローチャートである。同図において、超解像処理は、画像データの読み込み(ステップS1)、基準フレームの選択(ステップS2)、注目被写体領域の設定(ステップS3)、自動位置合わせ(ステップS4)、ブレPSFの推定(ステップS5)、基準フレームでのパラメータ調整(ステップS6)、参照フレームでのパラメータ調整(ステップS7)、ブレの除去(ステップS8)、再構成処理(ステップS9)及び超解像画像の出力(ステップS10)の10ステップからなる。なお、図2に示す超解像処理は、自動位置合わせをする場合であるが、手動で位置合わせする場合もある。図3は、手動で位置合わせするようにした超解像処理を示すフローチャートである。手動で位置合わせする場合、ステップS4の自動位置合わせと、ステップS5のブレPSFの推定の2つのステップが不要となる。以下、自動位置合わせを利用した場合の超解像処理の各ステップを詳細に説明する。
(Super-resolution processing)
FIG. 2 is a flowchart showing the super-resolution processing. In the figure, the super-resolution processing includes reading image data (step S1), selecting a reference frame (step S2), setting a target area of interest (step S3), automatic alignment (step S4), and estimating blur PSF. (Step S5), parameter adjustment in the reference frame (step S6), parameter adjustment in the reference frame (step S7), blur removal (step S8), reconstruction process (step S9), and super-resolution image output (step S9). It consists of 10 steps of step S10). The super-resolution processing shown in FIG. 2 is a case of automatic alignment, but there is also a case of manual alignment. FIG. 3 is a flowchart showing a super-resolution process in which the positions are manually aligned. In the case of manual alignment, the two steps of automatic alignment in step S4 and estimation of blur PSF in step S5 become unnecessary. Hereinafter, each step of the super-resolution processing when automatic alignment is used will be described in detail.

(画像データ読み込み処理)
図4は、画像データの読み込み処理を説明するためのフローチャートである。なお、同図において、PosC、PosP及びPosNは、それぞれレジスタである。まず画像ファイルを開き(ステップS20)、指定されたフレームへシーク(移動)する(ステップS21)。そして、指定された現在入力フレームのフレーム番号をPosCに設定する(ステップS22)。次いで、PosCに設定した現在入力フレームのフレーム番号のフレームデータをフレームメモリ11に読み込む(ステップS23)。次いで、PosCの設定値を「1」減算し、その値をPosPに設定する(ステップS24)。すなわち、現在入力フレームの1つ前方の入力フレームのフレーム番号をPosPに設定する。次いで、PosPに設定したフレーム番号のフレームデータが存在するどうか判定する(ステップS25)。この判定において、PosPに設定したフレーム番号のフレームデータが存在する場合(ステップS25:YES)、PosCに設定したフレーム番号からPosPに設定したフレーム番号を減算した値が「R」以下かどうか判定する(ステップS26)。ここで、「R」は、現在フレームを基点として、前方および後方それぞれに参照可能な最大フレーム数で、予めユーザが設定した値である。
(Image data reading process)
FIG. 4 is a flowchart for explaining the image data reading process. In the figure, PosC, PosP, and PosN are registers, respectively. First, the image file is opened (step S20), and seek (move) to the designated frame (step S21). Then, the frame number of the designated current input frame is set in PosC (step S22). Next, the frame data of the frame number of the current input frame set in PosC is read into the frame memory 11 (step S23). Next, the set value of PosC is subtracted by "1", and the value is set to PosP (step S24). That is, the frame number of the input frame immediately before the current input frame is set to PosP. Next, it is determined whether or not the frame data of the frame number set in PosP exists (step S25). In this determination, if the frame data of the frame number set in PosP exists (step S25: YES), it is determined whether or not the value obtained by subtracting the frame number set in PosP from the frame number set in PosC is "R" or less. (Step S26). Here, "R" is the maximum number of frames that can be referred to in the front and the rear with the current frame as the base point, and is a value set in advance by the user.

PosCに設定したフレーム番号からPosPに設定したフレーム番号を減算した値が「R」以下である場合(ステップS26:YES)、PosPに設定したフレーム番号のフレームデータをフレームメモリ11に読み込む(ステップS27)。そして、PosPに設定したフレーム番号を「1」減算し(ステップS28)、ステップS25の判定に戻る。 When the value obtained by subtracting the frame number set in PosP from the frame number set in PosC is "R" or less (step S26: YES), the frame data of the frame number set in PosP is read into the frame memory 11 (step S27). ). Then, the frame number set in PosP is subtracted by "1" (step S28), and the process returns to the determination in step S25.

一方、ステップS25において、PosPに設定したフレーム番号のフレームデータが存在しない場合(ステップS25:NO)、または、ステップS26において、PosCに設定したフレーム番号からPosPに設定したフレーム番号を減算した値が「R」より大きい場合(ステップS26:NO)、PosCの値に「1」加算し、その値をPosNに設定する(ステップS29)。すなわち、現在入力フレームの1つ後方の入力フレームのフレーム番号をPosNに設定する。そして、PosNに設定したフレーム番号のフレームデータが存在するかどうか判定する(ステップS30)。この判定において、PosNに設定したフレーム番号のフレームデータが存在する場合(ステップS30:YES)、PosNに設定したフレーム番号からPosCに設定したフレーム番号を減算した値がR以下かどうか判定する(ステップS31)。 On the other hand, in step S25, when the frame data of the frame number set in PosP does not exist (step S25: NO), or in step S26, the value obtained by subtracting the frame number set in PosP from the frame number set in PosC is If it is larger than "R" (step S26: NO), "1" is added to the value of PosC, and the value is set to PosN (step S29). That is, the frame number of the input frame immediately behind the current input frame is set to PosN. Then, it is determined whether or not the frame data of the frame number set in PosN exists (step S30). In this determination, if the frame data of the frame number set in PosN exists (step S30: YES), it is determined whether or not the value obtained by subtracting the frame number set in PosC from the frame number set in PosN is R or less (step). S31).

PosNに設定したフレーム番号からPosCに設定したフレーム番号を減算した値が「R」以下である場合(ステップS31:YES)、PosNに設定したフレーム番号のフレームデータをフレームメモリ11に読み込む(ステップS32)。次いで、PosNに設定したフレーム番号に「1」加算し(ステップS33)、ステップS30の判定に戻る。 When the value obtained by subtracting the frame number set in PosC from the frame number set in PosN is "R" or less (step S31: YES), the frame data of the frame number set in PosN is read into the frame memory 11 (step S32). ). Next, "1" is added to the frame number set in PosN (step S33), and the process returns to the determination in step S30.

一方、ステップS30において、PosNに設定したフレーム番号のフレームデータが存在しない場合(ステップS30:NO)、または、ステップS31において、PosNに設定したフレーム番号からPosCに設定したフレーム番号を減算した値が「R」以下ではない場合(ステップS31:NO)、画像データの読み込みを終了する。 On the other hand, in step S30, when the frame data of the frame number set in PosN does not exist (step S30: NO), or in step S31, the value obtained by subtracting the frame number set in PosC from the frame number set in PosN is If it is not less than or equal to "R" (step S31: NO), the reading of the image data is finished.

(基準フレーム選択処理)
図5は、基準フレーム選択処理を説明するためのフローチャートである。なお、同図において、FrmRはレジスタである。まずFrmRに「1」を設定する(ステップS40)。次いで、フレームメモリ11中のFrmR番目の入力フレームのデータを取得する(ステップS41)。そして、取得したフレームデータの画質を評価し、評価スコアを得る(ステップS42)。次いで、今回得られた評価スコアが評価済みの入力フレームの中で最大かどうか判定し(ステップS43)、今回得られた評価スコアが最大ではない場合(ステップS43:NO)、FrmRの値に「1」加算し、その値をFrmRに設定する(ステップS44)。
(Reference frame selection process)
FIG. 5 is a flowchart for explaining the reference frame selection process. In the figure, FrmR is a register. First, "1" is set in FrmR (step S40). Next, the data of the FrmRth input frame in the frame memory 11 is acquired (step S41). Then, the image quality of the acquired frame data is evaluated, and an evaluation score is obtained (step S42). Next, it is determined whether or not the evaluation score obtained this time is the maximum among the evaluated input frames (step S43), and if the evaluation score obtained this time is not the maximum (step S43: NO), the value of FrmR is set to ". 1 ”is added and the value is set to FrmR (step S44).

一方、今回得られた評価スコアが最大である場合(ステップS43:YES)、FrmR番目の入力フレームを基準フレーム(FrmA)とする(ステップS45)。ここで、画質が高い(コーデックで強い圧縮がかけられておらず、高周波成分が良く残っている)入力フレームを基準フレームとするのが好ましい。例えば、各フレームデータを周波数領域に変換して、高周波成分の多い・少ないで画質を評価し、最も高周波成分が多い入力フレームを基準フレームとする方法が有効である。 On the other hand, when the evaluation score obtained this time is the maximum (step S43: YES), the FrmRth input frame is set as the reference frame (FrmA) (step S45). Here, it is preferable to use an input frame having high image quality (not strongly compressed by the codec and a good high frequency component remains) as a reference frame. For example, it is effective to convert each frame data into a frequency domain, evaluate the image quality with a large amount or a small amount of high frequency components, and use an input frame having the most high frequency components as a reference frame.

ステップS45の処理後、FrmRの値に「1」加算し、その値をFrmRに設定する(ステップS44)。次いで、FrmRの値が「N」(フレームメモリ11に格納された入力フレームの総数)以下かどうか判定し(ステップS46)、「N」以下の場合(ステップS46:YES)、ステップS41に戻り、「N」以下ではない場合(ステップS46:NO)、基準フレーム選択処理を終了する。 After the processing of step S45, "1" is added to the value of FrmR, and the value is set to FrmR (step S44). Next, it is determined whether or not the value of FrmR is "N" (total number of input frames stored in the frame memory 11) or less (step S46), and if it is "N" or less (step S46: YES), the process returns to step S41. If it is not "N" or less (step S46: NO), the reference frame selection process ends.

なお、上記基準フレーム選択処理は、自動で基準フレームを選択する場合であるが、ユーザが手動によって基準フレームを選択するようにしてもよい。図6は、ユーザが手動によって基準フレームを選択する場合の基準フレーム選択処理を説明するためのフローチャートである。まずフレームメモリ11に格納された入力フレーム一覧を表示する(ステップS40a)。そして、ユーザに、基準フレームに対する入力フレームを入力フレーム一覧から選択させる(ステップS41a)。すなわち、基準フレームに対する入力フレームを入力フレーム一覧から選択させる指示をユーザに出す。当該指示を出した後、基準フレームに対する入力フレームの選択が完了したかどうか判定し(ステップS42a)、選択が完了していない場合(ステップS42a:NO)、ステップS41aに戻り、選択が完了した場合(ステップS42a:YES)、選択された入力フレームを基準フレーム(FrmA)とする(ステップS43a)。この処理後、基準フレーム選択処理を終了する。 The reference frame selection process is a case where the reference frame is automatically selected, but the user may manually select the reference frame. FIG. 6 is a flowchart for explaining a reference frame selection process when a user manually selects a reference frame. First, a list of input frames stored in the frame memory 11 is displayed (step S40a). Then, the user is made to select an input frame for the reference frame from the input frame list (step S41a). That is, an instruction is given to the user to select an input frame for the reference frame from the input frame list. After issuing the instruction, it is determined whether or not the selection of the input frame for the reference frame is completed (step S42a), if the selection is not completed (step S42a: NO), the process returns to step S41a, and the selection is completed. (Step S42a: YES), the selected input frame is set as the reference frame (FrmA) (step S43a). After this process, the reference frame selection process ends.

(注目被写体領域設定処理)
図7は、注目被写体領域設定処理を説明するためのフローチャートである。同図において、まずフレームメモリ11に格納された基準フレーム(FrmA)全体を表示する(ステップS50)。次いで、ユーザに、注目被写体領域を基準フレームに設定させる(ステップS51)。すなわち、基準フレームに注目被写体領域を設定する指示をユーザに出す。この場合、表示したフレーム画像上で、矩形領域をマウスでクリック&ドラッグすることで選択させるか、または、設定ウィンドウを開いて、矩形領域の四隅の座標値を数値入力させる。もしくは、画像処理を併用することで、次のようなバリエーションも考えられる。すなわち、表示されたフレーム画像上で、注目被写体上の1点のみをクリックさせることで、クリックされた点近傍を画像処理して、注目被写体領域を自動検出・設定する。例えば、エッジ検出して、クリック点を囲む四角形を抽出し、最もナンバープレートらしい四角形を選んで、その四角形を囲む矩形領域を注目被写体領域とする。
(Featured subject area setting process)
FIG. 7 is a flowchart for explaining the attention subject area setting process. In the figure, first, the entire reference frame (FrmA) stored in the frame memory 11 is displayed (step S50). Next, the user is made to set the subject area of interest as the reference frame (step S51). That is, the user is instructed to set the subject area of interest in the reference frame. In this case, the rectangular area is selected by clicking and dragging with the mouse on the displayed frame image, or the setting window is opened and the coordinate values of the four corners of the rectangular area are input numerically. Alternatively, the following variations can be considered by using image processing together. That is, by clicking only one point on the attention subject on the displayed frame image, the vicinity of the clicked point is image-processed, and the attention subject area is automatically detected and set. For example, edge detection is performed, a quadrangle surrounding the click point is extracted, the quadrangle most likely to be a license plate is selected, and the rectangular area surrounding the quadrangle is set as the subject area of interest.

次いで、基準フレームに対する注目被写体領域の設定が完了したかどうか判定し(ステップS52)、基準フレームに対する注目被写体領域の設定が完了していない場合(ステップS52:NO)、ステップS51に戻り、基準フレームに対する注目被写体領域の設定が完了した場合(ステップS52:YES)、設定された領域を注目被写体領域(RoiA)とする(ステップS53)。この処理後、注目被写体領域設定処理を終了する。 Next, it is determined whether or not the setting of the attention subject area for the reference frame is completed (step S52), and if the setting of the attention subject area for the reference frame is not completed (step S52: NO), the process returns to step S51 and the reference frame is set. When the setting of the attention subject area for the above is completed (step S52: YES), the set area is set as the attention subject area (RoiA) (step S53). After this process, the attention subject area setting process ends.

(自動位置合わせ処理)
図8は、自動位置合わせ処理を説明するためのフローチャートである。同図において、まず基準フレーム(FrmA)から注目被写体領域(RoiA)の画像データ(ImgA)を取得する(ステップS60)。次いで、FrmAの値を「1」減算し、その値をFrmRに設定し(ステップS61)、FrmRの値が「1」以上かどうか判定する(ステップS62)。この判定において、FrmRの値が「1」以上である場合(ステップS62:YES)、フレームメモリ11内のFrmR番目のフレームデータを取得する(ImgR)(ステップS63)。次いで、ImgRの中でImgAとマッチする領域を見つける(RoiR)(ステップS64)。ImgRの中でImgAとマッチする領域を見つけると、当該RoiRをRoiAに写像する幾何変換行列(MFrmR−FrmA)を求める(ステップS65)。
(Automatic alignment processing)
FIG. 8 is a flowchart for explaining the automatic alignment process. In the figure, first, the image data (ImgA) of the subject region of interest (RoiA) is acquired from the reference frame (FrmA) (step S60). Next, the value of FrmA is subtracted by "1", the value is set to FrmR (step S61), and it is determined whether or not the value of FrmR is "1" or more (step S62). In this determination, when the value of FrmR is "1" or more (step S62: YES), the FrmRth frame data in the frame memory 11 is acquired (ImgR) (step S63). Then, a region in ImgurR that matches ImgurA is found (RoiR) (step S64). When a region matching ImgA is found in ImgurR, a geometric transformation matrix (M FrmR-FrmA ) that maps the RoiR to RoiA is obtained (step S65).

次いで、RoiRおよび幾何変換行列(MFrmR−FrmA)を基準点位置保持メモリ17Aに格納する(ステップS66)。その後、FrmRの値を「1」減算し、その値をFrmRに設定し(ステップS67)、ステップS62に戻る。 Next, the RoiR and the geometric transformation matrix (M FrmR-FrmA ) are stored in the reference point position holding memory 17A (step S66). After that, the value of FrmR is subtracted by "1", the value is set to FrmR (step S67), and the process returns to step S62.

一方、ステップS62でFrmRの値が「1」以上ではないと判定した場合(ステップS62:NO)、FrmAの値を「1」加算し、その値をFrmRに設定し(ステップS68)、FrmRの値が「N」以下かどうか判定する(ステップS69)。この判定において、FrmRの値が「N」以下である場合(ステップS69:YES)、フレームメモリ11内のFrmR番目のフレームデータを取得する(ImgR)(ステップS70)。次いで、ImgRの中でImgAとマッチする領域を見つける(RoiR)(ステップS71)。そして、見つけたRoiRをRoiAに写像する幾何変換行列(MFrmR−FrmA)を求める(ステップS72)。そして、RoiRおよび幾何変換行列(MFrmR−FrmA)を基準点位置保持メモリ17Aに格納する(ステップS73)。その後、FrmRの値に「1」加算し、その値をFrmRに設定し(ステップS74)、ステップS69に戻る。 On the other hand, when it is determined in step S62 that the value of FrmR is not "1" or more (step S62: NO), the value of FrmA is added by "1", the value is set to FrmR (step S68), and the value of FrmR is set. It is determined whether the value is "N" or less (step S69). In this determination, when the value of FrmR is "N" or less (step S69: YES), the FrmRth frame data in the frame memory 11 is acquired (ImgR) (step S70). Then, a region in ImgurR that matches ImgurA is found (RoiR) (step S71). Then, a geometric transformation matrix (M FrmR-FrmA ) that maps the found RoiR to RoiA is obtained (step S72). Then, the RoiR and the geometric transformation matrix (M FrmR-FrmA ) are stored in the reference point position holding memory 17A (step S73). After that, "1" is added to the value of FrmR, the value is set to FrmR (step S74), and the process returns to step S69.

また、ステップS69でFrmRの値が「N」以下ではないと判定した場合(ステップS69:NO)、自動位置合わせ処理を終了する。 If it is determined in step S69 that the value of FrmR is not "N" or less (step S69: NO), the automatic alignment process ends.

ここで、マッチングには、テンプレートマッチングや特徴点マッチング等の公知の手法を用いることができる。また、幾何変換行列Mは、以下の8元連立方程式を解くことで得られる。
RoiA.C1=M×RoiR.C1
RoiA.C2=M×RoiR.C2
RoiA.C3=M×RoiR.C3
RoiA.C4=M×RoiR.C4
幾何変換行列Mは、図9に示すようになり、h1〜h8は未知数である。
RoiX.Cnは、注目被写体領域のコーナー点nの位置ベクトル(座標をx,yとすると、(x,y,1))である。
Here, for matching, a known method such as template matching or feature point matching can be used. The geometric transformation matrix M can be obtained by solving the following eight-element simultaneous equations.
Roi A. C1 = M × RoiR. C1
Roi A. C2 = M × RoiR. C2
Roi A. C3 = M × RoiR. C3
Roi A. C4 = M × RoiR. C4
The geometric transformation matrix M is as shown in FIG. 9, and h1 to h8 are unknown numbers.
RoiX. Cn is a position vector of a corner point n in the subject area of interest ((x, y, 1) T , where x, y are the coordinates).

(ブレPSF推定処理)
図10及び図11は、ブレPSF推定処理を説明するためのフローチャートである。このブレPSF推定処理は、各入力フレームについて、隣接入力フレームとの位置合わせ結果に基づいて動きベクトルを計算し、動きベクトルの長さと方向をその入力フレームにおける被写体ブレの長さ・方向とするものである。
(Blur PSF estimation process)
10 and 11 are flowcharts for explaining the blur PSF estimation process. This blur PSF estimation process calculates a motion vector for each input frame based on the alignment result with an adjacent input frame, and sets the length and direction of the motion vector as the length and direction of subject blur in the input frame. Is.

これらの図において、まずFrmRに「1」を設定する(ステップS80)。次いで、基準点位置保持メモリ17AからRoiRを取得する(ステップS81)。そして、取得したRoiRの中心点(CtrR)を求める(ステップS82)。次いで、FrmRの値を「1」減算し、その値をFrmPに設定するとともに、FrmRの値を「1」加算し、その値をFrmNに設定する(ステップS83)。そして、FrmPの値が「1」以上「N」以下かどうか判定し(ステップS84)、「1」以上「N」以下である場合(ステップS84:YES)、CtrRをFrmPに写像する(CtrP)(ステップS85)。 In these figures, First, "1" is set for FrmR (step S80). Next, RoiR is acquired from the reference point position holding memory 17A (step S81). Then, the center point (CtrR) of the acquired RoiR is obtained (step S82). Next, the value of FrmR is subtracted by "1", the value is set to FrmP, the value of FrmR is added by "1", and the value is set to FrmN (step S83). Then, it is determined whether or not the value of FrmP is "1" or more and "N" or less (step S84), and when it is "1" or more and "N" or less (step S84: YES), CtrR is mapped to FrmP (CtrP). (Step S85).

ステップS85の写像の計算は、CtrP←MFrmR→FrmP*CtrRである。
ここで、MFrmR→FrmP=MFrmA→FrmP*MFrmR→FrmA=MFrmP→FrmA −1*MFrmR→FrmA=である。右辺のMFrmR→FrmA及びMFrmR→FrmAは、基準点位置保持メモリ17Aから取得する。
The calculation of the map in step S85 is CtrP ← M FrmR → FrmP * CtrR.
Here, M FrmR → FrmP = M FrmA → FrmP * M FrmR → FrmA = M FrmP → FrmA -1 * M FrmR → FrmA =. M FrmR → FrmA and M FrmR → FrmA on the right side are acquired from the reference point position holding memory 17A.

CtrRをFrmPに写像した後、FrmNの値が「1」以上「N」以下かどうか判定し(ステップS86)、「1」以上「N」以下である場合(ステップS86:YES)、CtrRをFrmNに写像する(CtrN)(ステップS87)。なお、ステップS87の写像の計算は、ステップS85のものと同様である。 After mapping CtrR to FrmP, it is determined whether the value of FrmN is "1" or more and "N" or less (step S86), and if it is "1" or more and "N" or less (step S86: YES), CtrR is set to FrmN. (CtrN) (step S87). The calculation of the mapping in step S87 is the same as that in step S85.

次いで、(ベクトル(CtrP→CtrR)+ベクトル(CtrR→CtrN))÷2の値を動きベクトルMvRに設定する(ステップS88)。 Next, the value of (vector (CtrP → CtrR) + vector (CtrR → CtrN)) / 2 is set in the motion vector MvR (step S88).

一方、ステップS86でFrmNの値が「1」以上「N」以下ではないと判定された場合(ステップS86:NO)、ベクトル(CtrP→CtrR)を動きベクトルMvRに設定する(ステップS89)。 On the other hand, when it is determined in step S86 that the value of FrmN is not "1" or more and "N" or less (step S86: NO), the vector (CtrP → CtrR) is set in the motion vector MvR (step S89).

また、ステップS84でFrmPの値が「1」以上「N」以下ではないと判定された場合(ステップS84:NO)、FrmNの値が「1」以上「N」以下かどうか判定し(ステップS90)、「1」以上「N」以下である場合(ステップS90:YES)、CtrRをFrmNに写像する(CtrN)(ステップS91)。なお、ステップS91の写像の計算は、ステップS85のものと同様である。 Further, when it is determined in step S84 that the value of FrmP is not "1" or more and "N" or less (step S84: NO), it is determined whether the value of FrmN is "1" or more and "N" or less (step S90). ), When it is "1" or more and "N" or less (step S90: YES), CtrR is mapped to FrmN (CtrN) (step S91). The calculation of the mapping in step S91 is the same as that in step S85.

次いで、ベクトル(CtrR→CtrN)の値を動きベクトルMvRに設定する(ステップS92)。 Next, the value of the vector (CtrR → CtrN) is set in the motion vector MvR (step S92).

ステップS88,ステップS89及びステップS92の中のいずれか1つの処理を行った後、MvRがx軸となす角度・MvRの長さを、ブレの角度(BaR)・長さ(BlR)とする(ステップS93)。そして、求めたブレの角度(BaR)・長さ(BlR)をブレPSFパラメータ保持メモリ17Bに格納する(ステップS94)。そして、FrmRの値に「1」加算し、その値をFrmRに設定する(ステップS95)。次いで、FrmRが「N」以下かどうか判定し(ステップS96)、「N」以下である場合(ステップS96:YES)、ステップS81に戻る。これに対して、FrmRが「N」以下ではない場合(ステップS96:NO)、ブレPSFの推定処理を終了する。 After performing any one of the processes of step S88, step S89, and step S92, the angle / MvR length formed by the MvR with the x-axis is defined as the blur angle (BaR) / length (BlR) ( Step S93). Then, the obtained blur angle (BaR) and length (BlR) are stored in the blur PSF parameter holding memory 17B (step S94). Then, "1" is added to the value of FrmR, and the value is set to FrmR (step S95). Next, it is determined whether or not FrmR is "N" or less (step S96), and if it is "N" or less (step S96: YES), the process returns to step S81. On the other hand, when FrmR is not "N" or less (step S96: NO), the blur PSF estimation process is terminated.

一方、ステップS90でFrmNの値が「1」以上「N」以下ではないと判定された場合(ステップS90:NO)、RoiR近傍の画像データをフレームメモリ11から取得し(ステップS104)、取得した画像データからブレの角度(BaR)・長さ(BlR)を推定する(ステップS105)。その後、ステップS94に移行する。 On the other hand, when it is determined in step S90 that the value of FrmN is not "1" or more and "N" or less (step S90: NO), the image data in the vicinity of RoiR is acquired from the frame memory 11 (step S104). The blur angle (BaR) and length (BlR) are estimated from the image data (step S105). After that, the process proceeds to step S94.

(基準フレームでのパラメータ調整処理)
図12は、基準フレームでのパラメータ調整処理を説明するためのフローチャートである。同図において、まず基準フレーム(FrmA)の画像データをフレームメモリ11から取得し(ステップS110)、これを表示する(ステップS111)。次いで、基準点位置保持メモリ17AからFrmAの注目被写体領域(RoiA)を取得し(ステップS112)、取得したRoiAのコーナー点及び領域枠を表示する(ステップS113)。さらに、RoiAのコーナー点の座標を表示する(ステップS114)。
(Parameter adjustment processing in the reference frame)
FIG. 12 is a flowchart for explaining the parameter adjustment process in the reference frame. In the figure, first, the image data of the reference frame (FrmA) is acquired from the frame memory 11 (step S110), and this is displayed (step S111). Next, the attention subject area (RoiA) of FrmA is acquired from the reference point position holding memory 17A (step S112), and the corner points and the area frame of the acquired RoiA are displayed (step S113). Further, the coordinates of the corner points of RoiA are displayed (step S114).

次いで、ブレPSFパラメータ保持メモリ17BからFrmAのブレ角度(BaA)・ブレ長(BlA)を取得し(ステップS115)、取得したブレ角度(BaA)・ブレ長(BlA)からブレPSF画像を生成して表示する(ステップS116)。また、ブレ角度(BaA)・ブレ長(BlA)の数値を表示する(ステップS117)。 Next, the blur angle (BaA) and blur length (BlA) of FrmA are acquired from the blur PSF parameter holding memory 17B (step S115), and a blur PSF image is generated from the acquired blur angle (BaA) and blur length (BlA). Is displayed (step S116). In addition, the numerical values of the blur angle (BaA) and the blur length (BlA) are displayed (step S117).

そして、表示中のRoiAの位置やブレPSFパラメータをユーザに調整させる(ステップS118)。すなわち、ユーザに対し、表示中のRoiAの位置やブレPSFパラメータを調整するように指示を出す。これにより、ユーザがRoiAの位置やブレPSFパラメータを調整すると、調整内容に応じて画面表示内容を更新する(ステップS119)。そして、ユーザによる調整が完了したかどうか判定し(ステップS120)、完了していない場合(ステップS120:NO)、ステップS118に戻り、完了した場合(ステップS120:YES)、基準フレームの元のブレ長BlAと調整後のブレ長BlA’の比(B’2BlA)を求める(ステップS121)。 Then, the user is made to adjust the position of the displayed RoiA and the blur PSF parameter (step S118). That is, the user is instructed to adjust the position of the displayed RoiA and the blur PSF parameter. As a result, when the user adjusts the position of RoiA and the blur PSF parameter, the screen display content is updated according to the adjustment content (step S119). Then, it is determined whether or not the adjustment by the user is completed (step S120), if it is not completed (step S120: NO), the process returns to step S118, and if it is completed (step S120: YES), the original blurring of the reference frame is performed. The ratio (B'2BlA) of the length BlA and the adjusted blur length BlA'is obtained (step S121).

次いで、FrmRに「1」を設定する(ステップS122)。そして、ブレPSFパラメータ保持メモリ17BからFrmR番フレームのブレ長(BlR)を取得し(ステップS123)、BlR*B’2BlAを計算し、その結果をBlR’に設定する(ステップS124)。次いで、ブレPSFパラメータ保持メモリ17Bに格納されたBlRをBlR’で更新する(ステップS125)。次いで、基準点位置保持メモリ17AからFrmRの幾何変換行列MFrmR→FrmAを取得し(ステップS126)、MFrmR→FrmA −1*RoiA’を計算して、その結果をRoiR’とする(ステップS127)。 Next, "1" is set in FrmR (step S122). Then, the blur length (BlR) of the FrmR frame is acquired from the blur PSF parameter holding memory 17B (step S123), BlR * B'2BlA is calculated, and the result is set to BlR'(step S124). Next, BlR stored in the blur PSF parameter holding memory 17B is updated with BlR'(step S125). Next, the geometric transformation matrix M FrmR → FrmA of FrmR is acquired from the reference point position holding memory 17A (step S126), M FrmR → FrmA -1 * RoiA'is calculated, and the result is RoiR'(step S127). ).

ここで、RoiA’:ユーザによる調整完了時点でのRoiAの位置である。また、
RoiR’←MFrmR→FrmA −1×RoiA’とは、
RoiR’.C1←MFrmR→FrmA −1×RoiA’.C1
RoiR’.C2←MFrmR→FrmA −1×RoiA’.C2
RoiR’.C3←MFrmR→FrmA −1×RoiA’.C3
RoiR’.C4←MFrmR→FrmA −1×RoiA’.C4
を表現したもので、RoiA’の各コーナー座標を幾何変換行列MFrmR→FrmA −1によって写像した座標を計算する。自動位置合わせ処理を行わなかった場合は、MFrmR→FrmA −1を単位行列と見做して計算する。
Here, RoiA': The position of RoiA at the time when the adjustment by the user is completed. Also,
RoiR'← M FrmR → FrmA -1 × What is RoiA'?
RoiR'.C1 ← M FrmR → FrmA -1 × RoiA'.C1
RoiR'.C2 ← M FrmR → FrmA -1 × RoiA'.C2
RoiR'.C3 ← M FrmR → FrmA -1 × RoiA'.C3
RoiR'.C4 ← M FrmR → FrmA -1 × RoiA'.C4
The coordinates of each corner of RoiA'are mapped by the geometric transformation matrix M FrmR → FrmA -1 . When the automatic alignment process is not performed, M FrmR → FrmA -1 is regarded as an identity matrix and calculated.

次いで、基準点位置保持メモリ17Aに格納された注目被写体領域RoiRをRoiR’で更新する(ステップS128)。次いで、FrmRの値に「1」加算し、その値をFrmRに設定する(ステップS129)。そして、FrmRが「N」以下かどうか判定し(ステップS130)、「N」以下である場合(ステップS130:YES)、ステップS123に戻り、「N」以下ではない場合(ステップS130:NO)、基準フレームでのパラメータ調整処理を終了する。 Next, the attention subject area RoiR stored in the reference point position holding memory 17A is updated with RoiR'(step S128). Next, "1" is added to the value of FrmR, and the value is set to FrmR (step S129). Then, it is determined whether or not FrmR is "N" or less (step S130), and if it is "N" or less (step S130: YES), the process returns to step S123, and if it is not "N" or less (step S130: NO). The parameter adjustment process in the reference frame ends.

ステップS121〜ステップS130の処理(すなわちユーザによる調整完了後の一連の処理)によって、参照フレームの個別調整にかかる後の作業が大きく軽減される。 The processing of steps S121 to S130 (that is, a series of processing after the adjustment by the user is completed) greatly reduces the work after the individual adjustment of the reference frame.

なお、ブレPSFパラメータ保持メモリ17Bに格納した他のパラメータ(焦点ボケの大きさ・形状や、ボケ除去時の強度設定など)を表示し、設定値をユーザで変更できるようにしてもよい。 Other parameters (such as the size and shape of the focus blur and the intensity setting at the time of removing the blur) stored in the blur PSF parameter holding memory 17B may be displayed so that the set value can be changed by the user.

図13は、基準フレームでのパラメータ調整前のユーザインタフェース画面の一例を示す図である。同図(a)は基準フレームの画像、同図(b)はブレPSF画像である。基準フレームの調整では、位置合わせの基準とする4点(点1〜点4)の位置を基準フレームにて調整する。例えば、初期状態で注目被写体領域の4隅に置かれている各点(点1〜点4)を注目被写体領域内のナンバープレート100の4隅に移動する操作を行う。また、ブレPSFパラメータである、ブレ角度とブレ長の調整前は、ブレPSF画像が実際のブレ長よりも横長になっており、このままブレ除去を施すと過補正となり、ノイズが生じ得る状態となっている。 FIG. 13 is a diagram showing an example of a user interface screen before parameter adjustment in the reference frame. FIG. 6A is an image of a reference frame, and FIG. 9B is a blur PSF image. In the adjustment of the reference frame, the positions of the four points (points 1 to 4) used as the reference for alignment are adjusted by the reference frame. For example, the operation of moving each point (points 1 to 4) placed at the four corners of the subject area of interest in the initial state to the four corners of the license plate 100 in the subject area of interest is performed. Also, before adjusting the blur angle and blur length, which are the blur PSF parameters, the blur PSF image is horizontally longer than the actual blur length, and if blur removal is performed as it is, overcorrection will occur and noise may occur. It has become.

図14は、基準フレームでのパラメータ調整後のユーザインタフェース画面の一例を示す図である。同図(a)は基準フレームの画像、同図(b)はブレPSF画像である。初期状態で注目被写体領域の4隅に置かれている各点(点1〜点4)が注目被写体領域内のナンバープレート100の4隅に位置している。また、ブレPSFパラメータである、ブレ角度とブレ長が調整されているので、ブレPSF画像が略点になっており、適切なブレ長が設定され、ブレ除去結果が良好となる状態となっている。 FIG. 14 is a diagram showing an example of a user interface screen after parameter adjustment in the reference frame. FIG. 6A is an image of a reference frame, and FIG. 9B is a blur PSF image. Each point (points 1 to 4) placed at the four corners of the subject area of interest in the initial state is located at the four corners of the license plate 100 in the subject area of interest. In addition, since the blur angle and blur length, which are the blur PSF parameters, are adjusted, the blur PSF image is an abbreviation, an appropriate blur length is set, and the blur removal result is in a good state. There is.

(参照フレームでのパラメータ調整処理)
図15及び図16は、参照フレームでのパラメータ調整処理を説明するためのフローチャートである。同図において、まず基準フレーム(FrmA)の画像データをフレームメモリ11から取得し(ステップS140)、これを表示する(ステップS141)。次いで、基準点位置保持メモリ17AからFrmAの注目被写体領域(RoiA)を取得する(ステップS142)。そして、取得した注目被写体領域(RoiA)のコーナー点及び領域枠を表示する(ステップS143)。また、RoiAのコーナー点の座標を表示する(ステップS144)。さらに、フレームメモリ11に格納された全フレームの一覧を表示する(ステップS145)。また、フレーム一覧に表示された個々のフレームに注目被写体領域の枠を表示する(ステップS146)。
(Parameter adjustment processing in the reference frame)
15 and 16 are flowcharts for explaining the parameter adjustment process in the reference frame. In the figure, first, the image data of the reference frame (FrmA) is acquired from the frame memory 11 (step S140), and this is displayed (step S141). Next, the attention subject area (RoiA) of FrmA is acquired from the reference point position holding memory 17A (step S142). Then, the corner points and the area frame of the acquired subject area of interest (RoiA) are displayed (step S143). In addition, the coordinates of the corner points of RoiA are displayed (step S144). Further, a list of all frames stored in the frame memory 11 is displayed (step S145). In addition, the frame of the subject area of interest is displayed on each frame displayed in the frame list (step S146).

次いで、任意の1フレームを選択状態にし(ステップS147)、参照フレームの選択変更や選択中参照フレームのパラメータ調整をユーザに行わせる(ステップS148)。すなわち、ユーザに対し、参照フレームの選択変更や選択中参照フレームのパラメータ調整するように指示を出す。これにより、ユーザが参照フレームの選択変更や選択中参照フレームのパラメータ調整を行う。次いで、参照フレームの選択状態が変更されたかどうか判定し(ステップS149)、参照フレームの選択状態が変更された場合(ステップS149:YES)、選択中参照フレーム(FrmR)の画像データをフレームメモリ11から取得し(ステップS150)、これを表示する(ステップS151)。 Next, any one frame is selected (step S147), and the user is made to change the selection of the reference frame and adjust the parameters of the selected reference frame (step S148). That is, the user is instructed to change the selection of the reference frame and adjust the parameters of the selected reference frame. As a result, the user changes the selection of the reference frame and adjusts the parameters of the selected reference frame. Next, it is determined whether or not the selected state of the reference frame has been changed (step S149), and when the selected state of the reference frame has been changed (step S149: YES), the image data of the selected reference frame (FrmR) is stored in the frame memory 11. (Step S150) and display this (step S151).

FrmRを表示した後、基準点位置保持メモリ17AからFrmRの注目被写体領域(RoiR)を取得する(ステップS152)。そして、取得したRoiRのコーナー点及び領域枠を表示し(ステップS153)、またRoiRのコーナー点の座標を表示する(ステップS154)。さらに、ブレPSFパラメータ保持メモリ17BからFrmRのブレ角度(BaR)・ブレ長(BlR)を取得し(ステップS155)、ブレ角度(BaR)・ブレ長(BlR)からブレPSF画像を生成して表示する(ステップS156)。また、ブレ角度(BaR)・ブレ長(BlR)の数値を表示する(ステップS157)。その後、ステップS148に戻る。 After displaying FrmR, the attention subject area (RoiR) of FrmR is acquired from the reference point position holding memory 17A (step S152). Then, the acquired RoiR corner point and area frame are displayed (step S153), and the coordinates of the RoiR corner point are displayed (step S154). Further, the blur angle (BaR) and blur length (BlR) of FrmR are acquired from the blur PSF parameter holding memory 17B (step S155), and a blur PSF image is generated and displayed from the blur angle (BaR) and blur length (BlR). (Step S156). In addition, the numerical values of the blur angle (BaR) and the blur length (BlR) are displayed (step S157). After that, the process returns to step S148.

一方、ステップS149で参照フレームの選択状態が変更されていないと判定された場合(ステップS149:NO)、RoiRやブレPSFパラメータが変更されたかどうか判定する(ステップS158)。RoiRやブレPSFパラメータが変更された場合(ステップS158:YES)、調整内容に応じて画面表示内容を更新する(ステップS159)。そして、調整内容に応じて、選択中参照フレーム(FrmR)に対する、基準点位置保持メモリ17AやブレPSFパラメータ保持メモリ17Bの設定値を変更する(ステップS160)。その後、ステップS148に戻る。 On the other hand, when it is determined in step S149 that the selection state of the reference frame has not been changed (step S149: NO), it is determined whether or not the RoiR and blur PSF parameters have been changed (step S158). When the RoiR and blur PSF parameters are changed (step S158: YES), the screen display contents are updated according to the adjustment contents (step S159). Then, the set values of the reference point position holding memory 17A and the blur PSF parameter holding memory 17B are changed with respect to the selected reference frame (FrmR) according to the adjustment content (step S160). After that, the process returns to step S148.

また、ステップS158でRoiRやブレPSFパラメータが変更されていないと判定された場合(ステップS158:NO)、調整完了かどうか判定し(ステップS161)、調整完了ではない場合(ステップS161:NO)、ステップS148に戻り、調整完了の場合(ステップS161:YES)、参照フレームでのパラメータ調整処理を終了する。 Further, when it is determined in step S158 that the RoiR and blur PSF parameters have not been changed (step S158: NO), it is determined whether or not the adjustment is completed (step S161), and when the adjustment is not completed (step S161: NO). Returning to step S148, when the adjustment is completed (step S161: YES), the parameter adjustment process in the reference frame ends.

図17は、参照フレームでのパラメータ調整前のユーザインタフェース画面の一例を示す図である。同図(a)は選択中の入力フレーム(参照フレーム)の画像、同図(b)は選択中の入力フレーム(参照フレーム)におけるブレPSF画像である。参照フレームの調整では、基準フレームの前後の全てのフレームのそれぞれについて、基準フレームに設定した基準点に対する4点(点1〜点4)の位置調整を行う。参照フレームの調整では、基準フレームに設定した基準点を利用するので、調整前でも基準フレームと略一致することから、4点(点1〜点4)の位置が略ナンバープレート100の4隅に位置する。これにより、短時間で4点(点1〜点4)の位置をナンバープレート100の4隅に位置させることができる。調整前の4点(点1〜点4)のうち、点1の座標は「X=290.7500、Y=357.2500」、点2の座標は「X=313.0000、Y=355.5000」、点3の座標は「X=291.0449、Y=368.3445」、点4の座標は「X=313.2500、Y=366.7500」である。 FIG. 17 is a diagram showing an example of a user interface screen before parameter adjustment in the reference frame. FIG. 6A is an image of the selected input frame (reference frame), and FIG. 9B is a blur PSF image of the selected input frame (reference frame). In the adjustment of the reference frame, the positions of four points (points 1 to 4) are adjusted with respect to the reference points set in the reference frame for each of the frames before and after the reference frame. Since the reference point set in the reference frame is used in the adjustment of the reference frame, the positions of the four points (points 1 to 4) are approximately at the four corners of the license plate 100 because they substantially match the reference frame even before the adjustment. To position. As a result, the positions of the four points (points 1 to 4) can be positioned at the four corners of the license plate 100 in a short time. Of the four points (points 1 to 4) before adjustment, the coordinates of point 1 are "X = 290.7500, Y = 357.2500", and the coordinates of point 2 are "X = 313.0000, Y = 355." "5000", the coordinates of the point 3 are "X = 291.0449, Y = 368.3445", and the coordinates of the point 4 are "X = 313.2500, Y = 366.7500".

また、ブレPSFパラメータである、ブレ角度とブレ長も基準フレームでの調整に略一致していることから、ブレ長がほぼ適切な長さに予め調整されている。 Further, since the blur angle and the blur length, which are the blur PSF parameters, also substantially match the adjustment in the reference frame, the blur length is adjusted in advance to a substantially appropriate length.

図18は、参照フレームでのパラメータ調整後のユーザインタフェース画面の一例を示す図である。同図(a)は選択中の入力フレーム(参照フレーム)の画像、同図(b)は選択中の入力フレーム(参照フレーム)におけるブレPSF画像である。基準フレームに設定した基準点に対する4点(点1〜点4)の位置調整を極短時間で終えることができる。図18に示す調整後の4点(点1〜点4)のうち、点1の座標は「X=290.6185、Y=357.3225」、点2の座標は「X=313.2253、Y=355.5452」、点3の座標は「X=291.0449、Y=368.3445」、点4の座標は「X=313.6530、Y=366.8148」であり、パラメータ調整前の各点の位置との差が僅かである。 FIG. 18 is a diagram showing an example of a user interface screen after parameter adjustment in the reference frame. FIG. 6A is an image of the selected input frame (reference frame), and FIG. 9B is a blur PSF image of the selected input frame (reference frame). The position adjustment of four points (points 1 to 4) with respect to the reference point set in the reference frame can be completed in an extremely short time. Of the four adjusted points (points 1 to 4) shown in FIG. 18, the coordinates of point 1 are "X = 290.6185, Y = 357.3225", and the coordinates of point 2 are "X = 313.2253,". "Y = 355.5452", the coordinates of point 3 are "X = 291.0449, Y = 368.3445", and the coordinates of point 4 are "X = 313.6530, Y = 366.8148", before parameter adjustment. The difference from the position of each point of is small.

このように、基準フレームで位置合わせの基準点の位置や、ブレ長さ等のブレPSFパラメータを調整できて、基準フレームでの調整結果を他の全ての参照フレームに対して反映させることができる。 In this way, the position of the reference point for alignment and the blur PSF parameters such as the blur length can be adjusted in the reference frame, and the adjustment result in the reference frame can be reflected in all other reference frames. ..

(ブレの除去処理)
図19は、ブレの除去処理を説明するためのフローチャートである。同図において、まずFrmRに「1」を設定する(ステップS170)。次いで、基準点位置保持メモリ17AからRoiRを取得する(ステップS171)。次いで、RoiR近傍の画像データ(ImgR)をフレームメモリ11から取得する(ステップS172)。さらに、ブレPSFパラメータ保持メモリ17BからブレPSFパラメータを取得する(ステップS173)。
(Blur removal process)
FIG. 19 is a flowchart for explaining the blur removal process. In the figure, first, “1” is set for FrmR (step S170). Next, the RoiR is acquired from the reference point position holding memory 17A (step S171). Next, the image data (ImgR) in the vicinity of RoiR is acquired from the frame memory 11 (step S172). Further, the blur PSF parameter is acquired from the blur PSF parameter holding memory 17B (step S173).

そして、取得したブレPSFパラメータからブレPSF画像を生成する(ステップS174)。なお、ブレPSF画像の生成の詳細は後述する。 Then, a blur PSF image is generated from the acquired blur PSF parameter (step S174). The details of generating the blur PSF image will be described later.

そして、生成したブレPSF画像で画像データ(ImgR)にDeconvolutionを施し、画像データ(ImgR’)を得る(ステップS175)。 Then, the image data (ImgR) is deconvolutioned with the generated blur PSF image to obtain the image data (ImgR') (step S175).

なお、Deconvolutionには、公知の方法を使うことができる。以下、公知の例を挙げる。 A known method can be used for Deconvolution. Hereinafter, known examples will be given.

・Inverse Filter
畳み込み演算とフーリエ変換の性質を利用して、
X×PSF=Y → FT(X) FT(PSF)=FT(Y)→ FT(X)=FT(Y)/FT(PSF)に基づき、原画像を復元するもの。
(X:ボケ・ブレのない原画像、PSF:ボケ・ブレの点広がり関数、Y:ボケ・ブレのある観測画像、*:畳み込み演算、FT(・):フーリエ変換)
・ Inverse Filter
Utilizing the properties of convolution and Fourier transform
X × PSF = Y → FT (X) FT (PSF) = FT (Y) → FT (X) = FT (Y) / FT (PSF) to restore the original image.
(X: Original image without blur / blur, PSF: Point spread function with blur / blur, Y: Observation image with blur / blur, *: Convolution calculation, FT (・): Fourier transform)

・Wiener Filter
上記の改良版で、ランダムノイズの項をモデル式に含め(X * PSF + W = Y)、弊害を抑えたもの(W:ランダムノイズ成分)。
・ Wiener Filter
In the above improved version, the term of random noise is included in the model formula (X * PSF + W = Y) to suppress the harmful effects (W: random noise component).

・W.H.Richardson,’’Bayesian-Based Iterative Method of Image Restoration’’,Journal of Optical Society of America, Vol. 62, NO. 1, 1972
Xの初期解を置いて、XとPSFとYの値から、次のXを求めてXを更新する手順を反復的にXが収束するまで繰り返す方法で、フーリエ変換には依らない。
・ W. H. Richardson, `` Bayesian-Based Iterative Method of Image Restoration'', Journal of Optical Society of America, Vol. 62, NO. 1, 1972
A method in which the initial solution of X is placed, the procedure of finding the next X from the values of X, PSF, and Y and updating X is repeated until X converges, and does not depend on the Fourier transform.

そして、画像データ(ImgR’)を得た後、フレームメモリ11内の画像データ(ImgR)を画像データ(ImgR’)に置き換える(ステップS176)。その後、FrmRの値に「1」加算し、その値をFrmRに設定する(ステップS177)。その後、FrmRの値が「N」以下かどうか判定し(ステップS178)、「N」以下である場合(ステップS178:YES)、ステップS171に戻り、「N」以下ではない場合(ステップS178:NO)、ブレの除去処理を終了する。 Then, after obtaining the image data (ImgR'), the image data (ImgR) in the frame memory 11 is replaced with the image data (ImgR') (step S176). After that, "1" is added to the value of FrmR, and the value is set to FrmR (step S177). After that, it is determined whether or not the value of FrmR is "N" or less (step S178), and if it is "N" or less (step S178: YES), the process returns to step S171 and if it is not "N" or less (step S178: NO). ), Finish the blur removal process.

以下、ブレPSFパラメータ(ブレ角度BaR、ブレ長さBlR)からブレPSF画像を生成する例を挙げる。
1.ブレの軌跡を収めるのに必要十分なサイズの画像データを用意し、0で初期化する。
2.用意した画像の中心を原点として、原点を通り、x軸とのなす角度がBaR、長さがBlRである線分(線分の中点は原点に等しい)上の各点に位置する画像データの画素値を1.0(=最大輝度レベル)に書き換える。
3.画素値の総和が1.0となるように、画像データ全体の画素値を一律に正規化する。
さらに、ブレPSFパラメータにボケ半径BrR(ブレ軌跡のぼやけ具合を表し、焦点もずれている画像の先鋭化に使うパラメータ)を含める場合には、次のステップを加える。
4.生成した画像データに半径BrRの真円データを畳み込む。
真円データ:中心から半径BrR以内の点=画素値K、それ以外の点=画素値0
K:1/(中心から半径BrR内の点の総数)
Hereinafter, an example of generating a blur PSF image from the blur PSF parameters (blur angle BaR, blur length BlR) will be given.
1. 1. Prepare image data of a size sufficient to accommodate the trajectory of the blur, and initialize it with 0.
2. Image data located at each point on a line segment (the midpoint of the line segment is equal to the origin) that passes through the origin with the center of the prepared image as the origin, the angle formed by the x-axis is BaR, and the length is BlR. The pixel value of is rewritten to 1.0 (= maximum brightness level).
3. 3. The pixel values of the entire image data are uniformly normalized so that the sum of the pixel values is 1.0.
Further, if the blur PSF parameter includes the blur radius BrR (a parameter used to sharpen an image that is out of focus and represents the degree of blurring of the blur trajectory), the following step is added.
4. Convolve the perfect circle data with radius BrR into the generated image data.
Perfect circle data: Points within a radius BrR from the center = pixel value K, other points = pixel value 0
K: 1 / (total number of points within radius BrR from the center)

(再構成処理)
図20は、再構成処理を説明するためのフローチャートである。同図において、まずXに初期推定画像を設定する(ステップS180)。なお、初期推定画像は、基準フレームの注目被写体領域の画像を縦横z倍に拡大したものであれば、拡大方法は何でも良い。
(Reconstruction process)
FIG. 20 is a flowchart for explaining the reconstruction process. In the figure, first, an initial estimated image is set in X (step S180). The initial estimated image may be enlarged by any method as long as the image of the subject area of interest of the reference frame is enlarged by z times in the vertical and horizontal directions.

次いで、評価値Sと修正画像Uを初期化し(ステップS181)、その後、FrmRに「1」を設定する(ステップS182)。次いで、基準点位置保持メモリ17Aから参照フレームFrmRの注目被写体領域(RoiR)と幾何変換行列(MFrmR→FrmA)を取得する(ステップS183)。さらに、RoiR近傍の画像データをフレームメモリ11から取得する(ImgR)(ステップS184)。 Next, the evaluation value S and the modified image U are initialized (step S181), and then “1” is set in FrmR (step S182). Next, the attention subject area (RoiR) of the reference frame FrmR and the geometric transformation matrix (M FrmR → FrmA ) are acquired from the reference point position holding memory 17A (step S183). Further, the image data in the vicinity of RoiR is acquired from the frame memory 11 (ImgR) (step S184).

次いで、画像XをFrmRでの位置に幾何変形する(ステップS185)。すなわち、(Mz*MFrmR→FrmA −1)*Xの計算を行い、その結果を画像Y’に設定する(Y’← (Mz*MFrmR→FrmA −1)*X)。ここで、Mzは拡大変換行列である(超解像拡大倍率をzとすると、図21に示すようになる)。 Next, the image X is geometrically deformed to the position in FrmR (step S185). That is, (Mz * M FrmR → FrmA -1 ) * X is calculated, and the result is set in the image Y'(Y'← (Mz * M FrmR → FrmA -1 ) * X). Here, Mz is a expansion transformation matrix (as shown in FIG. 21 when the super-resolution magnification is z).

画像XをFrmRでの位置に幾何変形した後、画像Y’を解像度劣化させる(Y”)(ステップS186)。そして、画像Y”とImgRの差分を元に評価値Sと修正画像Uを更新する(ステップS187)。その後、FrmRの値に「1」加算し、その値をFrmRに設定する(ステップS188)。そして、FrmRの値が「N」以下かどうか判定し(ステップS189)、「N」以下である場合(ステップS189:YES)、ステップS183に戻り、「N」以下ではない場合(ステップS189:NO)、画像Xの拘束条件を評価し、評価値Sと修正画像Uを更新する(ステップS190)。そして、Xが十分に収束したかどうか判定し(ステップS191)、十分に収束した場合(ステップS191:YES)、画像Xを出力し(ステップS192)、再構成処理を終了する。これに対し、Xが十分に収束していない場合(ステップS191:NO)、修正画像Uを元にXを更新し(ステップS193)、ステップS181に戻る。 After the image X is geometrically deformed to the position in FrmR, the resolution of the image Y'is deteriorated (Y ") (step S186), and the evaluation value S and the modified image U are updated based on the difference between the image Y" and Imgur. (Step S187). After that, "1" is added to the value of FrmR, and the value is set to FrmR (step S188). Then, it is determined whether or not the value of FrmR is "N" or less (step S189), and if it is "N" or less (step S189: YES), the process returns to step S183 and if it is not "N" or less (step S189: NO). ), The constraint condition of the image X is evaluated, and the evaluation value S and the modified image U are updated (step S190). Then, it is determined whether or not X has sufficiently converged (step S191), and if it has sufficiently converged (step S191: YES), the image X is output (step S192), and the reconstruction process is terminated. On the other hand, when X is not sufficiently converged (step S191: NO), X is updated based on the modified image U (step S193), and the process returns to step S181.

(効果)
以上のように、本実施の形態では、画像処理装置1は、基準フレームの画像およびパラメータ(注目被写体領域の位置やブレPSFパラメータ)を表示し、ユーザの調整に基づいて基準フレームの画像の表示内容を更新し、調整されたパラメータを基準フレームのパラメータとして記憶する。そして、画像処理装置1は、次の参照フレームの画像を表示させる際に、記憶された基準フレームのパラメータを当該参照フレームのパラメータとして表示し、ユーザの調整に基づいて当該参照フレームの画像の表示内容を更新し、調整されたパラメータを当該参照フレームのパラメータとして記憶する。以降、画像処理装置1は、新たな参照フレームの画像を表示させる際には、基準フレームのパラメータを、当該新たな参照フレームのパラメータとして表示する。
(effect)
As described above, in the present embodiment, the image processing device 1 displays the image and parameters of the reference frame (position of the subject area of interest and blur PSF parameters), and displays the image of the reference frame based on the user's adjustment. The contents are updated and the adjusted parameters are stored as the parameters of the reference frame. Then, when displaying the image of the next reference frame, the image processing device 1 displays the stored reference frame parameter as the parameter of the reference frame, and displays the image of the reference frame based on the user's adjustment. The contents are updated and the adjusted parameters are stored as the parameters of the reference frame. Hereinafter, when the image processing device 1 displays the image of the new reference frame, the parameter of the reference frame is displayed as the parameter of the new reference frame.

これにより、基準フレームでの調整結果を他の全ての参照フレームに対して反映できるので、複数入力フレームの画像の位置合わせを手作業で行う場合に、入力作業を少なくし、作業効率の向上を図ることができる。この結果、超解像処理に利用できるフレームの数を増やすことができるので、超解像処理によって高解像度画像を得ることができる。 As a result, the adjustment result in the reference frame can be reflected to all other reference frames, so that when the images of multiple input frames are manually aligned, the input work is reduced and the work efficiency is improved. Can be planned. As a result, the number of frames that can be used for the super-resolution processing can be increased, so that a high-resolution image can be obtained by the super-resolution processing.

(実施の形態2)
実施の形態2では、実施の形態1において図10、図11を用いて説明したものと異なるブレPSF推定処理について説明する。
(Embodiment 2)
In the second embodiment, a blur PSF estimation process different from that described with reference to FIGS. 10 and 11 in the first embodiment will be described.

(ブレPSF推定処理)
図22及び図23は、本実施の形態に係る画像処理装置1のブレPSF推定処理を説明するためのフローチャートである。なお、図22及び図23において、図10及び図11と共通するステップには図10及び図11と同一符号を付して説明を省略する。
(Blur PSF estimation process)
22 and 23 are flowcharts for explaining the blur PSF estimation process of the image processing device 1 according to the present embodiment. In FIGS. 22 and 23, the steps common to those in FIGS. 10 and 11 are designated by the same reference numerals as those in FIGS. 10 and 11, and the description thereof will be omitted.

図22及び図23では、まずFrmRに「1」を設定する(ステップS80)。次いで、基準点位置保持メモリ17AからRoiRを取得する(ステップS81)。そして、取得したRoiR近傍の画像データをフレームメモリ11から取得する(ImgR)(ステップS200)。次いで、取得したRoiRの中心点を求める(CtrR)(ステップS82)。その後、FrmRの値を「1」減算し、その値をFrmPに設定するとともに、FrmRの値を「1」加算し、その値をFrmNに設定する(ステップS83)。次いで、FrmPの値が「1」以上「N」以下かどうか判定し(ステップS84)、「1」以上「N」以下である場合(ステップS84:YES)、CtrRをFrmPに写像する(CtrP)(ステップS85)。 In FIGS. 22 and 23, “1” is first set in FrmR (step S80). Next, RoiR is acquired from the reference point position holding memory 17A (step S81). Then, the acquired image data in the vicinity of RoiR is acquired from the frame memory 11 (ImgR) (step S200). Next, the center point of the acquired RoiR is obtained (CtrR) (step S82). After that, the value of FrmR is subtracted by "1", the value is set to FrmP, the value of FrmR is added by "1", and the value is set to FrmN (step S83). Next, it is determined whether or not the value of FrmP is "1" or more and "N" or less (step S84), and when it is "1" or more and "N" or less (step S84: YES), CtrR is mapped to FrmP (CtrP). (Step S85).

CtrRをFrmPに写像した後、FrmNの値が「1」以上「N」以下かどうか判定し(ステップS86)、「1」以上「N」以下である場合(ステップS86:YES)、CtrRをFrmNに写像する(ステップS87)。次いで、(ベクトル(CtrP→CtrR)+ベクトル(CtrR→CtrN))÷2を計算し、その結果を動きベクトルMvRに設定する(ステップS88)。 After mapping CtrR to FrmP, it is determined whether the value of FrmN is "1" or more and "N" or less (step S86), and if it is "1" or more and "N" or less (step S86: YES), CtrR is set to FrmN. (Step S87). Next, (vector (CtrP → CtrR) + vector (CtrR → CtrN)) / 2 is calculated, and the result is set in the motion vector MvR (step S88).

一方、ステップS86でFrmNの値が「1」以上「N」以下ではないと判定された場合(ステップS86:NO)、ベクトル(CtrP→CtrR)を動きベクトルMvRに設定する(ステップS89)。 On the other hand, when it is determined in step S86 that the value of FrmN is not "1" or more and "N" or less (step S86: NO), the vector (CtrP → CtrR) is set in the motion vector MvR (step S89).

また、ステップS84でFrmPの値が「1」以上「N」以下ではない場合(ステップS84:NO)、FrmNの値が「1」以上「N」以下かどうか判定し(ステップS90)、「1」以上「N」以下である場合(ステップS90:YES)、CtrRをFrmNに写像する(CtrN)(ステップS91)。次いで、ベクトル(CtrR→CtrN)の値を動きベクトルMvRに設定する(ステップS92)。 Further, when the value of FrmP is not "1" or more and "N" or less in step S84 (step S84: NO), it is determined whether the value of FrmN is "1" or more and "N" or less (step S90), and "1". When it is equal to or greater than or equal to “N” (step S90: YES), CtrR is mapped to FrmN (CtrN) (step S91). Next, the value of the vector (CtrR → CtrN) is set in the motion vector MvR (step S92).

ステップS88,ステップS89及びステップS92の中のいずれか1つの処理を行った後、MvRがx軸となす角度・MvRの長さを、ブレの角度(BaR)・長さ(MlR)とする(ステップS93)。次いで、求めたブレの角度(BaR)・長さ(MlR)をブレPSFパラメータ保持メモリ17Bに格納する(ステップS94)。次いで、画像データImgRとブレ角度BaRからブレの長さを推定する(BlR)(ステップS201)。そして、推定したブレ長さBlRとベクトル長MlRの比を算出する(B2MlR)(ステップS202)。 After performing any one of the processes of step S88, step S89, and step S92, the angle / MvR length formed by the MvR with the x-axis is defined as the blur angle (BaR) / length (MlR) ( Step S93). Next, the obtained blur angle (BaR) and length (MlR) are stored in the blur PSF parameter holding memory 17B (step S94). Next, the length of the blur is estimated from the image data ImgurR and the blur angle BaR (BlR) (step S201). Then, the ratio of the estimated blur length BlR and the vector length MlR is calculated (B2MlR) (step S202).

その後、FrmRの値に「1」加算し、その値をFrmRに設定する(ステップS95)。そして、FrmRが「N」以下かどうか判定し(ステップS96)、FrmRが「N」以下である場合(ステップS96:YES)、ステップS81に戻る。これに対し、FrmRが「N」以下ではない場合(ステップS96:NO)、全フレーム(R=1〜N)で算出した比B2MlRの代表値を計算する(B2Ml)(ステップS203)。その後、FrmRに「1」を設定する(ステップS204)。次いで、ブレPSFパラメータ保持メモリ17Bに格納したブレの長さMlRにB2Mlを乗じた値をブレの長さBlRとして格納する(ステップS205)。次いで、FrmRの値に「1」加算し、その値をFrmRに設定し(ステップS206)、FrmRが「N」以下かどうか判定する(ステップS207)。FrmRが「N」以下である場合(ステップS207:YES)、ステップS205に戻る。これに対し、FrmRが「N」以下ではない場合(ステップS207:NO)、ブレPSFの推定処理を終了する。 After that, "1" is added to the value of FrmR, and the value is set to FrmR (step S95). Then, it is determined whether or not FrmR is "N" or less (step S96), and if FrmR is "N" or less (step S96: YES), the process returns to step S81. On the other hand, when FrmR is not "N" or less (step S96: NO), the representative value of the ratio B2MlR calculated in all frames (R = 1 to N) is calculated (B2Ml) (step S203). After that, “1” is set in FrmR (step S204). Next, the value obtained by multiplying the blur length MlR stored in the blur PSF parameter holding memory 17B by B2Ml is stored as the blur length BlR (step S205). Next, "1" is added to the value of FrmR, the value is set to FrmR (step S206), and it is determined whether or not FrmR is "N" or less (step S207). When FrmR is "N" or less (step S207: YES), the process returns to step S205. On the other hand, when FrmR is not "N" or less (step S207: NO), the blur PSF estimation process is terminated.

一方、ステップS90でFrmNの値が「1」以上「N」以下ではないと判定された場合(ステップS90:NO)、画像データImgRからブレの角度・長さを推定する(BaR、BlR)(ステップS208)。その後、BlRの値をMlRに設定し(ステップS209)、ステップS94に戻る。 On the other hand, when it is determined in step S90 that the value of FrmN is not "1" or more and "N" or less (step S90: NO), the angle and length of the blur are estimated from the image data Imgur (BaR, BlR) ( Step S208). After that, the value of BlR is set to MlR (step S209), and the process returns to step S94.

(効果)
以上のように、本実施の形態によれば、ブレPSF推定処理においてブレPSFの長さを推定する際に、1枚の画像データからブレPSFの長さを推定し、推定したブレPSFの長さと動きベクトルの長さとの比率をフレーム毎に求め、その比率を全フレームにわたって平滑化し、各動きベクトルの長さに平滑化した比率を乗算することにより各フレームのブレPSFの長さを計算する。これにより、カメラのシャッタースピードを考慮してブレPSFの長さを推定することができるので、正確なブレPSFを用いてブレの除去処理を行うことができ、リンギングノイズを伴わない先鋭な画像を得ることができる。
(effect)
As described above, according to the present embodiment, when estimating the length of the blur PSF in the blur PSF estimation process, the length of the blur PSF is estimated from one image data, and the estimated length of the blur PSF is estimated. The ratio of the motion vector to the length of the motion vector is calculated for each frame, the ratio is smoothed over all frames, and the length of the blur PSF of each frame is calculated by multiplying the length of each motion vector by the smoothed ratio. .. As a result, the length of the blur PSF can be estimated in consideration of the shutter speed of the camera, so that the blur removal process can be performed using an accurate blur PSF, and a sharp image without ringing noise can be obtained. Obtainable.

(実施の形態3)
実施の形態3では、実施の形態1で説明した処理内容を顔画像の検出に適用する場合について説明する。なお、本実施の形態における画像処理装置の概略構成は、実施の形態1で説明した図1の画像処理装置1と同一である。また、本実施の形態における画像処理装置の超解像処理のフローは、実施の形態1で説明した図2、図3のものと略同一である。ただし、図2の自動位置合わせ処理(S4)が顔特徴点検出処理に変更される。
(Embodiment 3)
In the third embodiment, a case where the processing content described in the first embodiment is applied to the detection of the face image will be described. The schematic configuration of the image processing apparatus according to the present embodiment is the same as that of the image processing apparatus 1 of FIG. 1 described in the first embodiment. Further, the flow of the super-resolution processing of the image processing apparatus in the present embodiment is substantially the same as that of FIGS. 2 and 3 described in the first embodiment. However, the automatic alignment process (S4) in FIG. 2 is changed to the face feature point detection process.

また、本実施の形態における画像処理装置の画像データ読み込み処理のフローは、実施の形態1で説明した図4のものと同一である。また、本実施の形態における画像処理装置の基準フレーム選択処理のフローは、実施の形態1で説明した図5、図6のものと同一である。また、本実施の形態における画像処理装置の注目被写体領域設定処理のフローは、実施の形態1で説明した図7のものと同一である。また、本実施の形態における画像処理装置のブレの除去処理のフローは、実施の形態1で説明した図19のものと同一である。 Further, the flow of the image data reading process of the image processing apparatus in the present embodiment is the same as that of FIG. 4 described in the first embodiment. Further, the flow of the reference frame selection process of the image processing apparatus in the present embodiment is the same as that of FIGS. 5 and 6 described in the first embodiment. Further, the flow of the attention subject area setting process of the image processing apparatus in the present embodiment is the same as that of FIG. 7 described in the first embodiment. Further, the flow of the blur removal processing of the image processing apparatus in the present embodiment is the same as that of FIG. 19 described in the first embodiment.

(顔特徴点検出処理)
図24は、顔特徴点検出処理を説明するためのフローチャートである。同図において、まずFrmRの値を「1」に設定する(ステップS300)。次いで、FrmRの値が「N」以下かどうか判定する(ステップS301)。この判定において、FrmRの値が「N」以下である場合(ステップS301:YES)、フレームメモリ11内のFrmR番目のフレームデータを取得する(ImgR)(ステップS302)。次いで、ImgRの中で顔特徴点を検出する(PFrmR,i)(ステップS303)。顔特徴点の検出方法として、AAM(Active Appearance Models)を使う方法が知られている。この方法は、事前に、顔画像およびその顔画像上の複数の特徴点の位置をセットにして多数のセットのデータから学習データを作成する処理(オフライン処理:超解像処理の前に行う処理)を行い、次に、未知の顔画像を入力して上記の学習データを用いてフィッティングを行うことにより、入力画像の中での特徴点の位置を推定する処理(オンライン処理:超解像処理を行う個々の入力フレームに対して行う処理)を行う方法である(参考文献:"Active Appearance Models Revisited", Iain Matthews and Simon Baker, International Journal of Computer Vision, Vol. 60, No. 2, pp. 135 - 164, November, 2004.)。なお、PFrmR,iは、ImgRの中で検出されたi番目の顔特徴点の位置情報である(1≦i≦(ImgR内の全特徴点数))。
(Face feature point detection process)
FIG. 24 is a flowchart for explaining the face feature point detection process. In the figure, first, the value of FrmR is set to "1" (step S300). Next, it is determined whether or not the value of FrmR is "N" or less (step S301). In this determination, when the value of FrmR is "N" or less (step S301: YES), the FrmRth frame data in the frame memory 11 is acquired (ImgR) (step S302). Next, the facial feature points are detected in Imgur (P FrmR, i ) (step S303). A method using AAM (Active Appearance Models) is known as a method for detecting facial feature points. In this method, a face image and the positions of a plurality of feature points on the face image are set in advance to create training data from a large number of sets of data (offline processing: processing performed before super-resolution processing). ), Then, by inputting an unknown face image and performing fitting using the above training data, a process of estimating the position of a feature point in the input image (online processing: super-resolution processing). This is a method of performing (processing performed for each input frame) (Reference: "Active Appearance Models Revisited", Iain Matthews and Simon Baker, International Journal of Computer Vision, Vol. 60, No. 2, pp. 135 --164, November, 2004.). In addition, P FrmR, i is the position information of the i-th facial feature point detected in Imgur (1 ≦ i ≦ (total number of feature points in Imgur)).

次いで、ImgRの中で全ての顔特徴点を囲む領域を算出し(RoiR)(ステップS304)、ImgRの隣接顔特徴点が構成する平面パッチ(図25参照)を列挙する(SFrmR,*(SFrmR,k(1≦k≦ImgR内の全パッチ数)の全て))(ステップS305)。なお、図25では、〇印が顔特徴点であり、点線で囲まれたSからS12の各領域が平面パッチである。 Next, the region surrounding all the facial feature points in ImgurR is calculated (RoiR) (step S304), and the planar patches (see FIG. 25) formed by the adjacent facial feature points of ImgurR are listed (S FrmR, * (S FrmR, * ). S FrmR, k (all of the total number of patches in 1 ≦ k ≦ Imgur ))) (step S305). In FIG. 25, the circles are facial feature points, and the regions S 1 to S 12 surrounded by the dotted lines are flat patches.

そして、RoiR、PFrmR,*(PFrmR,iの全て)およびSFrmR,*を基準点位置保持メモリ17Aに格納する(ステップS306)。その後、FrmRの値を「1」加算し、その値をFrmRに設定し(ステップS307)、ステップS301に戻る。 Then, RoiR, P FrmR, * (all of P FrmR, i ) and S FrmR, * are stored in the reference point position holding memory 17A (step S306). After that, the value of FrmR is added by "1", the value is set to FrmR (step S307), and the process returns to step S301.

一方、ステップS301でFrmRの値がNより大きいと判定した場合(ステップS301:NO)、FrmRの値を「1」に設定し(ステップS308)、FrmRの値が「N」以下かどうか判定する(ステップS309)。 On the other hand, when it is determined in step S301 that the value of FrmR is larger than N (step S301: NO), the value of FrmR is set to "1" (step S308), and it is determined whether the value of FrmR is "N" or less. (Step S309).

この判定において、FrmRの値が「N」以下である場合(ステップS309:YES)、パッチ番号kを「1」に設定し(ステップS310)、kの値が全パッチ数以下かどうか判定する(ステップS311)。 In this determination, when the value of FrmR is "N" or less (step S309: YES), the patch number k is set to "1" (step S310), and it is determined whether the value of k is equal to or less than the total number of patches (step S309: YES). Step S311).

この判定において、kの値が全パッチ数以下である場合(ステップS311:YES)、FrmRのパッチSFrmR,kの各頂点の位置を、FrmAにおいて対応するパッチSFrmA,kの各頂点の位置に写像する幾何変換行列を求める(MFrmR,k→FrmA,k)(ステップS312)。そして、幾何変換行列MFrmR,k→FrmA,kを基準点位置保持メモリ17Aに格納する(ステップS313)。その後、kの値に「1」加算し、その値をkに設定し(ステップS314)、ステップS311に戻る。 In this determination, when the value of k is equal to or less than the total number of patches (step S311: YES), the position of each vertex of patches S FrmR, k of FrmR is set to the position of each vertex of the corresponding patches S FrmA, k in FrmA. The geometric transformation matrix mapped to is obtained (M FrmR, k → FrmA, k ) (step S312). Then, the geometric transformation matrix M FrmR, k → FrmA, k is stored in the reference point position holding memory 17A (step S313). After that, "1" is added to the value of k, the value is set to k (step S314), and the process returns to step S311.

一方、ステップS311でkの値が全パッチ数より大きいと判定した場合(ステップS311:NO)、FrmRの値を「1」加算し、その値をFrmRに設定し(ステップS315)、ステップS309に戻る。 On the other hand, when it is determined in step S311 that the value of k is larger than the total number of patches (step S311: NO), the value of FrmR is added by "1", the value is set to FrmR (step S315), and in step S309. Return.

また、ステップS309でFrmRの値が「N」以下ではないと判定した場合(ステップS309:NO)、顔特徴点検出処理を終了する。 If it is determined in step S309 that the value of FrmR is not "N" or less (step S309: NO), the face feature point detection process is terminated.

(ブレPSFの推定処理)
図26及び図27は、ブレPSF推定処理を説明するためのフローチャートである。なお、図26及び図27において、図10及び図11と共通するステップには、図10及び図11と同一符号を付して説明を省略する。
(Blur PSF estimation processing)
26 and 27 are flowcharts for explaining the blur PSF estimation process. In FIGS. 26 and 27, the steps common to those in FIGS. 10 and 11 are designated by the same reference numerals as those in FIGS. 10 and 11, and the description thereof will be omitted.

図26及び図27では、まずFrmRに「1」を設定する(ステップS80)。次いで、基準点位置保持メモリ17AからPFrmR,*を取得する(ステップS320)。そして、取得したPFrmR,*の代表点を求める(CtrFrmR)(ステップS321)。その後、FrmRの値を「1」加算し、その値をFrmRに設定する(ステップS322)。次いで、FrmRの値が「N」以下かどうか判定し(ステップS323)、「N」以下である場合(ステップS323:YES)、ステップS320に戻る。 In FIGS. 26 and 27, first, “1” is set in FrmR (step S80). Next, P FrmR, * is acquired from the reference point position holding memory 17A (step S320). Then, the representative points of the acquired P FrmR, * are obtained (Ctr FrmR ) (step S321). After that, the value of FrmR is added by "1", and the value is set to FrmR (step S322). Next, it is determined whether or not the value of FrmR is "N" or less (step S323), and if it is "N" or less (step S323: YES), the process returns to step S320.

一方、ステップS323でFrmRの値が「N」より大きいと判定された場合(ステップS323:NO)、FrmRの値を「1」に設定する(ステップS324)。 On the other hand, when it is determined in step S323 that the value of FrmR is larger than "N" (step S323: NO), the value of FrmR is set to "1" (step S324).

次いで、FrmRの値を「1」減算し、その値をFrmPに設定するとともに、FrmRの値を「1」加算し、その値をFrmNに設定する(ステップS83)。そして、FrmPの値が「1」以上「N」以下かどうか判定し(ステップS84)、「1」以上「N」以下である場合(ステップS84:YES)、ステップS86に進む。 Next, the value of FrmR is subtracted by "1", the value is set to FrmP, the value of FrmR is added by "1", and the value is set to FrmN (step S83). Then, it is determined whether or not the value of FrmP is "1" or more and "N" or less (step S84), and if it is "1" or more and "N" or less (step S84: YES), the process proceeds to step S86.

そして、FrmNの値が「1」以上「N」以下かどうか判定し(ステップS86)、「1」以上「N」以下である場合(ステップS86:YES)、(ベクトル(CtrFrmP→CtrFrmR)+ベクトル(CtrFrmR→CtrFrmN))÷2の値を動きベクトルMvRに設定する(ステップS325)。 Then, it is determined whether or not the value of FrmN is "1" or more and "N" or less (step S86), and when it is "1" or more and "N" or less (step S86: YES), (vector (Ctr FrmP → Ctr FrmR )). The value of + vector (Ctr FrmR → Ctr FrmN )) ÷ 2 is set in the motion vector MvR (step S325).

一方、ステップS86でFrmNの値が「1」以上「N」以下ではないと判定された場合(ステップS86:NO)、ベクトル(CtrFrmP→CtrFrmR)を動きベクトルMvRに設定する(ステップS326)。 On the other hand, when it is determined in step S86 that the value of FrmN is not "1" or more and "N" or less (step S86: NO), the vector (Ctr FrmP → Ctr FrmR ) is set in the motion vector MvR (step S326). ..

また、ステップS84でFrmPの値が「1」以上「N」以下ではないと判定された場合(ステップS84:NO)、FrmNの値が「1」以上「N」以下かどうか判定し(ステップS90)、「1」以上「N」以下である場合(ステップS90:YES)、ベクトル(CtrFrmR→CtrFrmN)の値を動きベクトルMvRに設定する(ステップS327)。 Further, when it is determined in step S84 that the value of FrmP is not "1" or more and "N" or less (step S84: NO), it is determined whether the value of FrmN is "1" or more and "N" or less (step S90). ), When it is "1" or more and "N" or less (step S90: YES), the value of the vector (Ctr FrmR → Ctr FrmN ) is set in the motion vector MvR (step S327).

ステップS325、S326、S327の中のいずれか1つの処理を行った後、MvRがx軸となす角度・MvRの長さを、ブレの角度(BaR)・長さ(BlR)とする(ステップS93)。そして、求めたブレの角度(BaR)・長さ(BlR)をブレPSFパラメータ保持メモリ17Bに格納する(ステップS94)。そして、FrmRの値に「1」加算し、その値をFrmRに設定する(ステップS95)。次いで、FrmRが「N」以下かどうか判定し(ステップS96)、「N」以下である場合(ステップS96:YES)、ステップS83に戻る。これに対して、FrmRが「N」以下ではない場合(ステップS96:NO)、ブレPSFの推定処理を終了する。 After performing any one of the processes of steps S325, S326, and S327, the angle and length of MvR formed by MvR with the x-axis are set to the blur angle (BaR) and length (BlR) (step S93). ). Then, the obtained blur angle (BaR) and length (BlR) are stored in the blur PSF parameter holding memory 17B (step S94). Then, "1" is added to the value of FrmR, and the value is set to FrmR (step S95). Next, it is determined whether or not FrmR is "N" or less (step S96), and if it is "N" or less (step S96: YES), the process returns to step S83. On the other hand, when FrmR is not "N" or less (step S96: NO), the blur PSF estimation process is terminated.

一方、ステップS90でFrmNの値が「1」以上「N」以下ではないと判定された場合(ステップS90:NO)、RoiR近傍の画像データをフレームメモリ11から取得し(ステップS104)、取得した画像データからブレの角度(BaR)・長さ(BlR)を推定する(ステップS105)。その後、ステップS94に移行する。 On the other hand, when it is determined in step S90 that the value of FrmN is not "1" or more and "N" or less (step S90: NO), the image data in the vicinity of RoiR is acquired from the frame memory 11 (step S104). The blur angle (BaR) and length (BlR) are estimated from the image data (step S105). After that, the process proceeds to step S94.

(基準フレームでのパラメータ調整処理)
図28は、基準フレームでのパラメータ調整処理を説明するためのフローチャートである。なお、図28において、図12と共通するステップには、図12と同一符号を付して説明を省略する。
(Parameter adjustment processing in the reference frame)
FIG. 28 is a flowchart for explaining the parameter adjustment process in the reference frame. In FIG. 28, the steps common to FIG. 12 are designated by the same reference numerals as those in FIG. 12, and the description thereof will be omitted.

図28において、まず基準フレーム(FrmA)の画像データをフレームメモリ11から取得し(ステップS110)、これを表示する(ステップS111)。次いで、基準点位置保持メモリ17Aから顔特徴点(PFrmA,*)を取得し(ステップS330)、顔特徴点PFrmA,*及び顔特徴点間を結ぶメッシュを表示する(ステップS331)。 In FIG. 28, first, the image data of the reference frame (FrmA) is acquired from the frame memory 11 (step S110), and this is displayed (step S111). Next, the face feature points (P FrmA, * ) are acquired from the reference point position holding memory 17A (step S330), and the mesh connecting the face feature points P FrmA, * and the face feature points is displayed (step S331).

次いで、ブレPSFパラメータ保持メモリ17BからFrmAのブレ角度(BaA)・ブレ長(BlA)を取得し(ステップS115)、取得したブレ角度(BaA)・ブレ長(BlA)からブレPSF画像を生成して表示する(ステップS116)。また、ブレ角度(BaA)・ブレ長(BlA)の数値を表示する(ステップS117)。 Next, the blur angle (BaA) and blur length (BlA) of FrmA are acquired from the blur PSF parameter holding memory 17B (step S115), and a blur PSF image is generated from the acquired blur angle (BaA) and blur length (BlA). Is displayed (step S116). In addition, the numerical values of the blur angle (BaA) and the blur length (BlA) are displayed (step S117).

そして、表示中の顔特徴点の位置やブレPSFパラメータをユーザに調整させ(ステップS332)、ユーザの調整内容に応じて画面表示内容を更新する(ステップS119)。そして、ユーザによる調整が完了したかどうか判定し(ステップS120)、完了していない場合(ステップS120:NO)、ステップS332に戻り、完了した場合(ステップS120:YES)、基準フレームの元のブレ長BlAと調整後のブレ長BlA’の比(B’2BlA)を求め(ステップS121)、基準フレームの各パッチについて調整前の頂点位置を調整後の位置に写像する幾何変形行列を求める(MFrmA,*→FrmA,*’)(ステップS333)。 Then, the user is made to adjust the position of the face feature point and the blur PSF parameter being displayed (step S332), and the screen display content is updated according to the adjustment content of the user (step S119). Then, it is determined whether or not the adjustment by the user is completed (step S120), if it is not completed (step S120: NO), the process returns to step S332, and if it is completed (step S120: YES), the original blurring of the reference frame is performed. The ratio (B'2BlA) of the length BlA and the adjusted blur length BlA'is obtained (step S121), and the geometric deformation matrix that maps the vertex position before adjustment to the adjusted position for each patch of the reference frame is obtained (M). FrmA, * → FrmA, *' ) (step S333).

次いで、FrmRに「1」を設定する(ステップS122)。そして、ブレPSFパラメータ保持メモリ17BからFrmR番フレームのブレ長(BlR)を取得し(ステップS123)、BlR*B’2BlAを計算し、その結果をBlR’に設定する(ステップS124)。次いで、ブレPSFパラメータ保持メモリ17Bに格納されたBlRをBlR’で更新する(ステップS125)。次いで、基準点位置保持メモリ17AからFrmRの顔特徴点(PFrmR,*)、パッチの情報(SFrmR,*)および幾何変換行列(MFrmR,*→FrmA,*)を取得し(ステップS334)、顔特徴点PFrmR,*を写像する(PFrmR,*’)(図29参照)(ステップS335)。 Next, "1" is set in FrmR (step S122). Then, the blur length (BlR) of the FrmR frame is acquired from the blur PSF parameter holding memory 17B (step S123), BlR * B'2BlA is calculated, and the result is set to BlR'(step S124). Next, BlR stored in the blur PSF parameter holding memory 17B is updated with BlR'(step S125). Next, the face feature point (P FrmR, * ) of FrmR, the patch information (S FrmR, * ) and the geometric conversion matrix (M FrmR, * → FrmA, * ) are acquired from the reference point position holding memory 17A (step S334). ), The facial feature points P FrmR, * are mapped (P FrmR, *' ) (see FIG. 29) (step S335).

次いで、基準点位置保持メモリ17Aに格納された顔特徴点PFrmR,*をPFrmR,*’で更新する(ステップS336)。次いで、FrmRの値に「1」加算し、その値をFrmRに設定する(ステップS129)。そして、FrmRが「N」以下かどうか判定し(ステップS130)、「N」以下である場合(ステップS130:YES)、ステップS123に戻り、「N」以下ではない場合(ステップS130:NO)、基準フレームでのパラメータ調整処理を終了する。 Next, the face feature points P FrmR, * stored in the reference point position holding memory 17A are updated with P FrmR, *' (step S336). Next, "1" is added to the value of FrmR, and the value is set to FrmR (step S129). Then, it is determined whether or not FrmR is "N" or less (step S130), and if it is "N" or less (step S130: YES), the process returns to step S123, and if it is not "N" or less (step S130: NO). The parameter adjustment process in the reference frame ends.

ステップS121〜ステップS130の処理(すなわちユーザによる調整完了後の一連の処理)によって、参照フレームの個別調整にかかる後の作業が大きく軽減される。 The processing of steps S121 to S130 (that is, a series of processing after the adjustment by the user is completed) greatly reduces the work after the individual adjustment of the reference frame.

なお、ブレPSFパラメータ保持メモリ17Bに格納した他のパラメータ(焦点ボケの大きさ・形状や、ボケ除去時の強度設定など)を表示し、設定値をユーザで変更できるようにしてもよい。 Other parameters (such as the size and shape of the focus blur and the intensity setting at the time of removing the blur) stored in the blur PSF parameter holding memory 17B may be displayed so that the set value can be changed by the user.

次に、図28のステップS335の顔特徴点の写像処理の詳細について図29を用いて説明する。 Next, the details of the mapping process of the facial feature points in step S335 of FIG. 28 will be described with reference to FIG. 29.

同図において、まずパッチ番号kを「1」に設定し(ステップS340)、kの値が全パッチ数以下かどうか判定する(ステップS341)。 In the figure, first, the patch number k is set to "1" (step S340), and it is determined whether or not the value of k is equal to or less than the total number of patches (step S341).

この判定において、kの値が全パッチ数以下である場合(ステップS341:YES)、参照フレームFrmRでのパッチkの各頂点座標を幾何変換行列MFrmR,k→FrmA,k’で変換する(PFrmR,*’)(ステップS342)。その後、kの値に「1」加算し、その値をkに設定し(ステップS343)、ステップS341に戻る。 In this determination, when the value of k is equal to or less than the total number of patches (step S341: YES), the coordinates of each vertex of patch k in the reference frame FrmR are transformed by the geometric transformation matrix M FrmR, k → FrmA, k' (step S341: YES). P FrmR, *' ) (step S342). After that, "1" is added to the value of k, the value is set to k (step S343), and the process returns to step S341.

一方、ステップS341でkの値が全パッチ数より大きいと判定した場合(ステップS341:NO)、ステップS335の顔特徴点の写像処理を終了する。 On the other hand, when it is determined in step S341 that the value of k is larger than the total number of patches (step S341: NO), the mapping process of the facial feature points in step S335 ends.

なお、パッチの頂点は、隣接パッチの頂点と共有されているため、図29のフローにおいて、あるパッチの座標変換処理と別のパッチの座標変換処理とで、同じ頂点(すなわち、顔特徴点)に対する変換後座標が複数通り算出される場合があり得る。このため、本実施の形態では、複数算出された変換後座標の中から1つの変換後座標を所定の方法により決定し、決定した座標をその顔特徴点iに対するPFrmR,i’とする。決定の方法として、重心を求める、初出の値を採用する、あるいは、最後の値を採用する等が挙げられる。 Since the vertices of the patch are shared with the vertices of the adjacent patches, in the flow of FIG. 29, the same vertices (that is, face feature points) are used in the coordinate conversion process of one patch and the coordinate conversion process of another patch. There may be a case where a plurality of converted coordinates for are calculated. Therefore, in the present embodiment, one post-conversion coordinate is determined from a plurality of calculated post-conversion coordinates by a predetermined method, and the determined coordinates are P FrmR, i'with respect to the face feature point i. As a method of determination, the center of gravity is obtained, the first value is adopted, or the last value is adopted.

(参照フレームでのパラメータ調整処理)
図30及び図31は、参照フレームでのパラメータ調整処理を説明するためのフローチャートである。なお、図30及び図31において、図15及び図16と共通するステップには、図15及び図16と同一符号を付して説明を省略する。
(Parameter adjustment processing in the reference frame)
30 and 31 are flowcharts for explaining the parameter adjustment process in the reference frame. In FIGS. 30 and 31, the steps common to those in FIGS. 15 and 16 are designated by the same reference numerals as those in FIGS. 15 and 16 and the description thereof will be omitted.

図30及び図31において、まず基準フレーム(FrmA)の画像データをフレームメモリ11から取得し(ステップS140)、これを表示する(ステップS141)。次いで、基準点位置保持メモリ17AからFrmAの顔特徴点(PFrmA,*)を取得し(ステップS350)、顔特徴点PFrmA,*及び顔特徴点間を結ぶメッシュを表示する(ステップS351)。さらに、フレームメモリ11に格納された全フレームの一覧を表示する(ステップS145)。また、フレーム一覧に表示された個々のフレームに注目被写体領域の枠を表示する(ステップS146)。 In FIGS. 30 and 31, first, the image data of the reference frame (FrmA) is acquired from the frame memory 11 (step S140), and this is displayed (step S141). Next, the face feature points (P FrmA, * ) of FrmA are acquired from the reference point position holding memory 17A (step S350), and the mesh connecting the face feature points P FrmA, * and the face feature points is displayed (step S351). .. Further, a list of all frames stored in the frame memory 11 is displayed (step S145). In addition, the frame of the subject area of interest is displayed on each frame displayed in the frame list (step S146).

次いで、任意の1フレームを選択状態にし(ステップS147)、参照フレームの選択変更や選択中参照フレームのパラメータ調整をユーザに行わせる(ステップS148)。次いで、参照フレームの選択状態が変更されたかどうか判定し(ステップS149)、参照フレームの選択状態が変更された場合(ステップS149:YES)、選択中参照フレーム(FrmR)の画像データをフレームメモリ11から取得し(ステップS150)、これを表示する(ステップS151)。 Next, any one frame is selected (step S147), and the user is made to change the selection of the reference frame and adjust the parameters of the selected reference frame (step S148). Next, it is determined whether or not the selected state of the reference frame has been changed (step S149), and when the selected state of the reference frame has been changed (step S149: YES), the image data of the selected reference frame (FrmR) is stored in the frame memory 11. (Step S150) and display this (step S151).

FrmRを表示した後、基準点位置保持メモリ17AからFrmRの顔特徴点(PFrmR,*)を取得し(ステップS352)、顔特徴点PFrmR,*及び顔特徴点間を結ぶメッシュを表示する(ステップS353)。 After displaying FrmR, the face feature points (P FrmR, * ) of FrmR are acquired from the reference point position holding memory 17A (step S352), and the face feature points P FrmR, * and the mesh connecting the face feature points are displayed. (Step S353).

さらに、ブレPSFパラメータ保持メモリ17BからFrmRのブレ角度(BaR)・ブレ長(BlR)を取得し(ステップS155)、ブレ角度(BaR)・ブレ長(BlR)からブレPSF画像を生成して表示する(ステップS156)。また、ブレ角度(BaR)・ブレ長(BlR)の数値を表示する(ステップS157)。その後、ステップS148に戻る。 Further, the blur angle (BaR) and blur length (BlR) of FrmR are acquired from the blur PSF parameter holding memory 17B (step S155), and a blur PSF image is generated and displayed from the blur angle (BaR) and blur length (BlR). (Step S156). In addition, the numerical values of the blur angle (BaR) and the blur length (BlR) are displayed (step S157). After that, the process returns to step S148.

一方、ステップS149で参照フレームの選択状態が変更されていないと判定された場合(ステップS149:NO)、RoiRやブレPSFパラメータが変更されたかどうか判定する(ステップS158)。RoiRやブレPSFパラメータが変更された場合(ステップS158:YES)、調整内容に応じて画面表示内容を更新する(ステップS159)。そして、調整内容に応じて、選択中参照フレーム(FrmR)に対する、基準点位置保持メモリ17AやブレPSFパラメータ保持メモリ17Bの設定値を変更する(ステップS160)。その後、ステップS148に戻る。 On the other hand, when it is determined in step S149 that the selection state of the reference frame has not been changed (step S149: NO), it is determined whether or not the RoiR and blur PSF parameters have been changed (step S158). When the RoiR and blur PSF parameters are changed (step S158: YES), the screen display contents are updated according to the adjustment contents (step S159). Then, the set values of the reference point position holding memory 17A and the blur PSF parameter holding memory 17B are changed with respect to the selected reference frame (FrmR) according to the adjustment content (step S160). After that, the process returns to step S148.

また、ステップS158でRoiRやブレPSFパラメータが変更されていないと判定された場合(ステップS158:NO)、調整完了かどうか判定し(ステップS161)、調整完了ではない場合(ステップS161:NO)、ステップS148に戻り、調整完了の場合(ステップS161:YES)、参照フレームでのパラメータ調整処理を終了する。 Further, when it is determined in step S158 that the RoiR and blur PSF parameters have not been changed (step S158: NO), it is determined whether or not the adjustment is completed (step S161), and when the adjustment is not completed (step S161: NO). Returning to step S148, when the adjustment is completed (step S161: YES), the parameter adjustment process in the reference frame ends.

(再構成処理)
図32は、再構成処理を説明するためのフローチャートである。なお、図32において、図20と共通するステップには、図20と同一符号を付して説明を省略する。
(Reconstruction process)
FIG. 32 is a flowchart for explaining the reconstruction process. In FIG. 32, the steps common to those in FIG. 20 are designated by the same reference numerals as those in FIG. 20, and the description thereof will be omitted.

図32において、まずXに初期推定画像を設定する(ステップS180)。次いで、評価値Sと修正画像Uを初期化し(ステップS181)、その後、FrmRに「1」を設定する(ステップS182)。 In FIG. 32, first, the initial estimated image is set in X (step S180). Next, the evaluation value S and the modified image U are initialized (step S181), and then “1” is set in FrmR (step S182).

次いで、基準点位置保持メモリ17Aから参照フレームFrmRのパッチの情報(SFrmR,*)および幾何変換行列(MFrmR,*→FrmA,*)を取得する(ステップS360)。さらに、各パッチ近傍の画像データをフレームメモリ11から取得する(ImgRS*)(ステップS361)。 Next, the patch information (S FrmR, * ) and the geometric conversion matrix (M FrmR, * → FrmA, * ) of the reference frame FrmR are acquired from the reference point position holding memory 17A (step S360). Further, the image data in the vicinity of each patch is acquired from the frame memory 11 (ImgRS * ) (step S361).

次いで、パッチ毎に画像XをFrmRでの位置に幾何変形する(ステップS362)。すなわち、各kについて、(Mz*MFrmR,k→FrmA,k −1)*Xの計算を行い、その結果を画像Y’に設定する(Y’← (Mz*MFrmR,k→FrmA,k −1)*X)。ここで、Mzは拡大変換行列である(超解像拡大倍率をzとすると、図21に示すようになる)。 Next, the image X is geometrically deformed to the position in FrmR for each patch (step S362). That is, for each k, (Mz * M FrmR, k → FrmA, k -1 ) * X is calculated, and the result is set in the image Y'(Y'← (Mz * M FrmR, k → FrmA,). k -1 ) * X). Here, Mz is a expansion transformation matrix (as shown in FIG. 21 when the super-resolution magnification is z).

画像XをFrmRでの位置に幾何変形した後、画像Y’を解像度劣化させる(Y”)(ステップS186)。そして、画像Y”とImgRの差分を元に評価値Sと修正画像Uを更新する(ステップS187)。その後、FrmRの値に「1」加算し、その値をFrmRに設定する(ステップS188)。そして、FrmRの値が「N」以下かどうか判定し(ステップS189)、「N」以下である場合(ステップS189:YES)、ステップS360に戻り、「N」以下ではない場合(ステップS189:NO)、画像Xの拘束条件を評価し、評価値Sと修正画像Uを更新する(ステップS190)。そして、Xが十分に収束したかどうか判定し(ステップS191)、十分に収束した場合(ステップS191:YES)、画像Xを出力し(ステップS192)、再構成処理を終了する。これに対し、Xが十分に収束していない場合(ステップS191:NO)、修正画像Uを元にXを更新し(ステップS193)、ステップS181に戻る。 After the image X is geometrically deformed to the position in FrmR, the resolution of the image Y'is deteriorated (Y ") (step S186), and the evaluation value S and the modified image U are updated based on the difference between the image Y" and Imgur. (Step S187). After that, "1" is added to the value of FrmR, and the value is set to FrmR (step S188). Then, it is determined whether or not the value of FrmR is "N" or less (step S189), and if it is "N" or less (step S189: YES), the process returns to step S360 and if it is not "N" or less (step S189: NO). ), The constraint condition of the image X is evaluated, and the evaluation value S and the modified image U are updated (step S190). Then, it is determined whether or not X has sufficiently converged (step S191), and if it has sufficiently converged (step S191: YES), the image X is output (step S192), and the reconstruction process is terminated. On the other hand, when X is not sufficiently converged (step S191: NO), X is updated based on the modified image U (step S193), and the process returns to step S181.

(効果)
以上のように、本実施の形態では、画像処理装置1は、基準フレームの画像およびパラメータ(顔特徴点の位置、顔特徴点間を結ぶメッシュおよびブレPSFパラメータ)を表示し、ユーザの調整に基づいて基準フレームの画像の表示内容を更新し、調整されたパラメータを基準フレームのパラメータとして記憶する。そして、画像処理装置1は、次の参照フレームの画像を表示させる際に、記憶された基準フレームのパラメータを当該参照フレームのパラメータとして表示し、ユーザの調整に基づいて当該参照フレームの画像の表示内容を更新し、調整されたパラメータを当該参照フレームのパラメータとして記憶する。以降、画像処理装置1は、新たな参照フレームの画像を表示させる際には、基準フレームのパラメータを、当該新たな参照フレームのパラメータとして表示する。
(effect)
As described above, in the present embodiment, the image processing device 1 displays the image and parameters of the reference frame (positions of face feature points, mesh and blur PSF parameters connecting the face feature points), and is used for user adjustment. Based on this, the display content of the image of the reference frame is updated, and the adjusted parameters are stored as the parameters of the reference frame. Then, when displaying the image of the next reference frame, the image processing device 1 displays the stored reference frame parameter as the parameter of the reference frame, and displays the image of the reference frame based on the user's adjustment. The contents are updated and the adjusted parameters are stored as the parameters of the reference frame. Hereinafter, when the image processing device 1 displays the image of the new reference frame, the parameter of the reference frame is displayed as the parameter of the new reference frame.

これにより、基準フレームでの調整結果を他の全ての参照フレームに対して反映できるので、複数入力フレームの画像の位置合わせを手作業で行う場合に、入力作業を少なくし、作業効率の向上を図ることができる。この結果、超解像処理に利用できるフレームの数を増やすことができるので、超解像処理によって高解像度画像を得ることができる。 As a result, the adjustment result in the reference frame can be reflected to all other reference frames, so that when the images of multiple input frames are manually aligned, the input work is reduced and the work efficiency is improved. Can be planned. As a result, the number of frames that can be used for the super-resolution processing can be increased, so that a high-resolution image can be obtained by the super-resolution processing.

(実施の形態4)
実施の形態4では、実施の形態3において図26、図27を用いて説明したものと異なるブレPSF推定処理について説明する。
(Embodiment 4)
In the fourth embodiment, the blur PSF estimation process different from that described with reference to FIGS. 26 and 27 in the third embodiment will be described.

(ブレPSF推定処理)
図33、図34及び図35は、本実施の形態に係る画像処理装置1のブレPSF推定処理を説明するためのフローチャートである。なお、図33、図34及び図35において、図26及び図27と共通するステップには図26及び図27と同一符号を付して説明を省略する。
(Blur PSF estimation process)
33, 34, and 35 are flowcharts for explaining the blur PSF estimation process of the image processing device 1 according to the present embodiment. In FIGS. 33, 34 and 35, the steps common to those in FIGS. 26 and 27 are designated by the same reference numerals as those in FIGS. 26 and 27, and the description thereof will be omitted.

図33、図34及び図35では、まずFrmRに「1」を設定する(ステップS80)。次いで、基準点位置保持メモリ17AからPFrmR,*を取得する(ステップS400)。そして、取得したRoiR近傍の画像データをフレームメモリ11から取得する(ImgR)(ステップS200)。次いで、取得したPFrmR,*の代表点を求める(CtrFrmR)(ステップS401)。その後、FrmRの値を「1」加算し、その値をFrmRに設定する(ステップS402)。次いで、FrmRの値が「N」以下かどうか判定し(ステップS403)、「N」以下である場合(ステップS403:YES)、ステップS400に戻る。 In FIGS. 33, 34 and 35, first, “1” is set in FrmR (step S80). Next, P FrmR, * is acquired from the reference point position holding memory 17A (step S400). Then, the acquired image data in the vicinity of RoiR is acquired from the frame memory 11 (ImgR) (step S200). Next, the representative points of the acquired P FrmR, * are obtained (Ctr FrmR ) (step S401). After that, the value of FrmR is added by "1", and the value is set to FrmR (step S402). Next, it is determined whether or not the value of FrmR is "N" or less (step S403), and if it is "N" or less (step S403: YES), the process returns to step S400.

一方、ステップS403でFrmRの値が「N」より大きいと判定された場合(ステップS403:NO)、FrmRの値を「1」に設定する(ステップS404)。 On the other hand, when it is determined in step S403 that the value of FrmR is larger than "N" (step S403: NO), the value of FrmR is set to "1" (step S404).

次いで、FrmRの値を「1」減算し、その値をFrmPに設定するとともに、FrmRの値を「1」加算し、その値をFrmNに設定する(ス以下ではないテップS83)。そして、FrmPの値が「1」以上「N」以下かどうか判定し(ステップS84)、「1」以上「N」以下である場合(ステップS84:YES)、ステップS86に進む。 Next, the value of FrmR is subtracted by "1" and the value is set to FrmP, the value of FrmR is added by "1", and the value is set to FrmN (Tep S83 which is not less than or equal to S). Then, it is determined whether or not the value of FrmP is "1" or more and "N" or less (step S84), and if it is "1" or more and "N" or less (step S84: YES), the process proceeds to step S86.

そして、FrmNの値が「1」以上「N」以下かどうか判定し(ステップS86)、「1」以上「N」以下である場合(ステップS86:YES)、(ベクトル(CtrFrmP→CtrFrmR)+ベクトル(CtrFrmR→CtrFrmN))÷2の値を動きベクトルMvRに設定する(ステップS405)。 Then, it is determined whether or not the value of FrmN is "1" or more and "N" or less (step S86), and when it is "1" or more and "N" or less (step S86: YES), (vector (Ctr FrmP → Ctr FrmR )). The value of + vector (Ctr FrmR → Ctr FrmN )) / 2 is set in the motion vector MvR (step S405).

一方、ステップS86でFrmNの値が「1」以上「N」以下ではないと判定された場合(ステップS86:NO)、ベクトル(CtrFrmP→CtrFrmR)を動きベクトルMvRに設定する(ステップS406)。 On the other hand, when it is determined in step S86 that the value of FrmN is not "1" or more and "N" or less (step S86: NO), the vector (Ctr FrmP → Ctr FrmR ) is set in the motion vector MvR (step S406). ..

また、ステップS84でFrmPの値が「1」以上「N」以下ではないと判定された場合(ステップS84:NO)、FrmNの値が「1」以上「N」以下かどうか判定し(ステップS90)、「1」以上「N」以下である場合(ステップS90:YES)、ベクトル(CtrFrmR→CtrFrmN)の値を動きベクトルMvRに設定する(ステップS407)。 Further, when it is determined in step S84 that the value of FrmP is not "1" or more and "N" or less (step S84: NO), it is determined whether the value of FrmN is "1" or more and "N" or less (step S90). ), When it is "1" or more and "N" or less (step S90: YES), the value of the vector (Ctr FrmR → Ctr FrmN ) is set in the motion vector MvR (step S407).

ステップS405、S406、S407の中のいずれか1つの処理を行った後、MvRがx軸となす角度・MvRの長さを、ブレの角度(BaR)・長さ(MlR)とする(ステップS93)。そして、求めたブレの角度(BaR)・長さ(MlR)をブレPSFパラメータ保持メモリ17Bに格納する(ステップS94)。次いで、画像データImgRとブレ角度BaRからブレの長さを推定する(BlR)(ステップS201)。そして、推定したブレ長さBlRとベクトル長MlRの比を算出する(B2MlR)(ステップS202)。 After performing any one of the processes of steps S405, S406, and S407, the angle and length of MvR formed by MvR with the x-axis are set to the blur angle (BaR) and length (MlR) (step S93). ). Then, the obtained blur angle (BaR) and length (MlR) are stored in the blur PSF parameter holding memory 17B (step S94). Next, the length of the blur is estimated from the image data ImgurR and the blur angle BaR (BlR) (step S201). Then, the ratio of the estimated blur length BlR and the vector length MlR is calculated (B2MlR) (step S202).

その後、FrmRの値に「1」加算し、その値をFrmRに設定する(ステップS95)。そして、FrmRが「N」以下かどうか判定し(ステップS96)、FrmRが「N」以下である場合(ステップS96:YES)、ステップS83に戻る。これに対し、FrmRが「N」以下ではない場合(ステップS96:NO)、全フレーム(R=1〜N)で算出した比B2MlRの代表値を計算する(B2Ml)(ステップS203)。その後、FrmRに「1」を設定する(ステップS204)。次いで、ブレPSFパラメータ保持メモリ17Bに格納したブレの長さMlRにB2Mlを乗じた値をブレの長さBlRとして格納する(ステップS205)。次いで、FrmRの値に「1」加算し、その値をFrmRに設定し(ステップS206)、FrmRが「N」以下かどうか判定する(ステップS207)。FrmRが「N」以下である場合(ステップS207:YES)、ステップS205に戻る。これに対し、FrmRが「N」以下ではない場合(ステップS207:NO)、ブレPSFの推定処理を終了する。 After that, "1" is added to the value of FrmR, and the value is set to FrmR (step S95). Then, it is determined whether or not FrmR is "N" or less (step S96), and if FrmR is "N" or less (step S96: YES), the process returns to step S83. On the other hand, when FrmR is not "N" or less (step S96: NO), the representative value of the ratio B2MlR calculated in all frames (R = 1 to N) is calculated (B2Ml) (step S203). After that, “1” is set in FrmR (step S204). Next, the value obtained by multiplying the blur length MlR stored in the blur PSF parameter holding memory 17B by B2Ml is stored as the blur length BlR (step S205). Next, "1" is added to the value of FrmR, the value is set to FrmR (step S206), and it is determined whether or not FrmR is "N" or less (step S207). When FrmR is "N" or less (step S207: YES), the process returns to step S205. On the other hand, when FrmR is not "N" or less (step S207: NO), the blur PSF estimation process is terminated.

一方、ステップS90でFrmNの値が「1」以上「N」以下ではないと判定された場合(ステップS90:NO)、画像データImgRからブレの角度・長さを推定する(BaR、BlR)(ステップS208)。その後、BlRの値をMlRに設定し(ステップS209)、ステップS94に戻る。 On the other hand, when it is determined in step S90 that the value of FrmN is not "1" or more and "N" or less (step S90: NO), the angle and length of the blur are estimated from the image data Imgur (BaR, BlR) ( Step S208). After that, the value of BlR is set to MlR (step S209), and the process returns to step S94.

(効果)
以上のように、本実施の形態によれば、ブレPSF推定処理においてブレPSFの長さを推定する際に、1枚の画像データからブレPSFの長さを推定し、推定したブレPSFの長さと動きベクトルの長さとの比率をフレーム毎に求め、その比率を全フレームにわたって平滑化し、各動きベクトルの長さに平滑化した比率を乗算することにより各フレームのブレPSFの長さを計算する。これにより、カメラのシャッタースピードを考慮してブレPSFの長さを推定することができるので、正確なブレPSFを用いてブレの除去処理を行うことができ、リンギングノイズを伴わない先鋭な画像を得ることができる。
(effect)
As described above, according to the present embodiment, when estimating the length of the blur PSF in the blur PSF estimation process, the length of the blur PSF is estimated from one image data, and the estimated length of the blur PSF is estimated. The ratio of the motion vector to the length of the motion vector is calculated for each frame, the ratio is smoothed over all frames, and the length of the blur PSF of each frame is calculated by multiplying the length of each motion vector by the smoothed ratio. .. As a result, the length of the blur PSF can be estimated in consideration of the shutter speed of the camera, so that the blur removal process can be performed using an accurate blur PSF, and a sharp image without ringing noise can be obtained. Obtainable.

本発明は、監視カメラで撮影された画像を処理する画像処理装置に用いるに好適である。 The present invention is suitable for use in an image processing apparatus that processes an image taken by a surveillance camera.

1 画像処理装置
10 画像データ入力部
11 フレームメモリ
12 グラフィカルユーザインタフェース部
13 基準フレーム選択部
14 注目被写体領域選択部
15 マッチング計算部
16 ブレPSF推定部
17 メモリ部
17A 基準点位置保持メモリ
17B ブレPSFパラメータ保持メモリ
18 基準フレーム調整部
19 参照フレーム調整部
20 ブレ除去部
21 再構成処理部
22 超解像画像出力部
23 画像生成部
100 ナンバープレート
1 Image processing device 10 Image data input unit 11 Frame memory 12 Graphical user interface unit 13 Reference frame selection unit 14 Focused subject area selection unit 15 Matching calculation unit 16 Blur PSF estimation unit 17 Memory unit 17A Reference point position holding memory 17B Blur PSF parameter Retention memory 18 Reference frame adjustment unit 19 Reference frame adjustment unit 20 Blur removal unit 21 Reconstruction processing unit 22 Super-resolution image output unit 23 Image generation unit 100 Number plate

Claims (6)

それぞれが共通する部分領域を有する複数の入力フレームの低解像度画像を位置合わせして高解像度画像を生成する画像処理装置であって、
前記複数の入力フレームの中の1つを選択し、それを基準フレームとする基準フレーム選択部と、
選択された前記基準フレームに部分領域を設定する部分領域選択部と、
前記基準フレーム以外の複数の入力フレームのそれぞれにおいて前記基準フレームの部分領域の画像データとマッチする領域の中心点を求め、前記中心点の動きベクトルよりブレの角度と長さを求めて、ブレPSF(Point Spread Function)パラメータとしてメモリに記憶するブレPSF推定部と、
前記複数の入力フレームの中から選択された1つの基準フレームの画像および前記高解像度画像を生成する際に用いられる前記基準フレームの部分領域の位置とブレPSFパラメータを表示させ、前記表示された部分領域の位置の調整に基づいて前記基準フレームの画像の表示内容を更新し、前記調整された部分領域の位置とブレPSFパラメータを前記基準フレームのパラメータとしてメモリに記憶させるとともに、前記基準フレーム以外の複数入力フレームの部分領域の位置とブレPSFパラメータを更新して前記メモリにそれぞれさらに記憶させる基準フレーム調整部と、
前記基準フレーム以外の入力フレームの1つである参照フレームの画像および前記参照フレームの部分領域の位置とブレPSFパラメータを前記参照フレームのパラメータとして表示させ、前記表示された部分領域の位置の調整に基づいて前記参照フレームの画像の表示内容を更新し、前記調整された部分領域の位置とブレPSFパラメータを前記参照フレームのパラメータとしてメモリに記憶させる参照フレーム調整部と、
前記各入力フレームに対して、対応するパラメータを用いて前記入力フレームの部分画像に含まれるブレを除去する処理を行うブレ除去部と、
前記ブレが除去された入力フレームの低解像度画像を位置合わせして高解像度画像を生成する画像生成部と、
を具備する画像処理装置。
An image processing device that aligns low-resolution images of a plurality of input frames, each having a common partial area, to generate a high-resolution image.
A reference frame selection unit that selects one of the plurality of input frames and uses it as a reference frame,
A partial area selection unit that sets a partial area for the selected reference frame, and
In each of the plurality of input frames other than the reference frame, the center point of the region matching the image data of the partial region of the reference frame is obtained, and the blur angle and length are obtained from the motion vector of the center point, and the blur PSF (Point Spread Function) A blur PSF estimation unit that is stored in memory as a parameter,
The position of the partial region of the reference frame and the blur PSF parameter used when generating the image of one reference frame selected from the plurality of input frames and the high resolution image are displayed, and the displayed portion is displayed. The display content of the image of the reference frame is updated based on the adjustment of the position of the region, the position of the adjusted partial region and the blur PSF parameter are stored in the memory as the parameter of the reference frame, and other than the reference frame . A reference frame adjustment unit that updates the position and blur PSF parameters of the partial areas of multiple input frames and stores them in the memory, respectively.
The image of the reference frame which is one of the input frames other than the reference frame, the position of the partial area of the reference frame, and the blur PSF parameter are displayed as the parameters of the reference frame, and the position of the displayed partial area is adjusted. Based on this, the reference frame adjustment unit that updates the display content of the image of the reference frame and stores the position of the adjusted partial area and the blur PSF parameter in the memory as the parameter of the reference frame.
A blur removing unit that performs processing for removing blur included in a partial image of the input frame using corresponding parameters for each input frame.
An image generator that aligns the low-resolution image of the input frame from which the blur has been removed to generate a high-resolution image, and
An image processing device comprising.
前記ブレPSF推定部は、前記複数の入力フレームのそれぞれについて、時間方向に前記入力フレームと近接する入力フレームの間で動きベクトルを計算し、前記動きベクトルの長さと方向から前記入力フレームのブレPSFの長さと角度を推定し、
前記基準フレーム調整部は、前記ブレPSF推定部により推定された前記基準フレームの前記ブレPSFの長さと調整後の前記ブレPSFの長さとの比率を求め、前記基準フレーム以外の前記入力フレームの前記ブレPSFの長さに前記比率を乗じる、
請求項1に記載の画像処理装置。
The blur PSF estimation unit calculates a motion vector between the input frame and an input frame adjacent to the input frame in the time direction for each of the plurality of input frames, and the blur PSF of the input frame is calculated from the length and direction of the motion vector. Estimate the length and angle of
The reference frame adjusting unit obtains a ratio of the length of the blur PSF of the reference frame estimated by the blur PSF estimation unit to the length of the adjusted PSF of the blur PSF, and obtains the ratio of the input frame other than the reference frame. Multiply the length of the blur PSF by the above ratio,
The image processing apparatus according to claim 1.
前記ブレPSF推定部は、前記ブレPSFの長さを推定する際に、前記入力フレームそれぞれの画像データから前記ブレPSFの長さを推定し、推定したブレPSFの長さと前記動きベクトルの長さとの比率をフレーム毎に求め、その比率を全フレームにわたって平滑化し、各動きベクトルの長さに平滑化した比率を乗算することにより各フレームのブレPSFの長さを計算する、
請求項2に記載の画像処理装置。
When estimating the length of the blur PSF, the blur PSF estimation unit estimates the length of the blur PSF from the image data of each of the input frames, and determines the length of the estimated blur PSF and the length of the motion vector. The length of the blur PSF of each frame is calculated by obtaining the ratio of each frame, smoothing the ratio over all frames, and multiplying the length of each motion vector by the smoothed ratio.
The image processing apparatus according to claim 2.
前記パラメータは、前記各入力フレームに含まれる前記部分領域の位置を示す複数の基準点座標であり、
前記基準フレーム調整部は、前記基準フレームの前記複数の基準点座標を表示させ、前記表示された複数の基準点座標の調整に基づいて前記基準フレームの画像の複数の基準点座標を更新し、前記調整された複数の基準点座標をメモリに記憶させる、
請求項1から3のいずれか一項に記載の画像処理装置。
The parameter is a plurality of reference point coordinates indicating the position of the partial region included in each input frame.
The reference frame adjusting unit displays the plurality of reference point coordinates of the reference frame, updates the plurality of reference point coordinates of the image of the reference frame based on the adjustment of the displayed plurality of reference point coordinates, and updates the plurality of reference point coordinates. The coordinated plurality of reference point coordinates are stored in the memory.
The image processing apparatus according to any one of claims 1 to 3.
前記部分領域は、前記各入力フレームに含まれるナンバープレートであり、
前記位置合わせ基準点は、前記各入力フレームに含まれる前記ナンバープレートの4隅の位置に調整される、
請求項1から3のいずれか一項に記載の画像処理装置。
The partial area is a license plate included in each of the input frames.
The alignment reference points are adjusted to the positions of the four corners of the license plate included in each input frame.
The image processing apparatus according to any one of claims 1 to 3.
前記部分領域は、顔画像であり、
前記部分領域の位置は、前記各入力フレームに含まれる前記顔画像の複数の顔特徴点の位置であり、
前記基準フレーム調整部は、前記基準フレームの前記顔特徴点の位置および前記顔特徴点間を結ぶメッシュを表示させ、前記表示された顔特徴点の位置の調整に基づいて前記基準フレームの画像の前記顔特徴点の位置を更新し、前記調整された顔特徴点の位置をメモリに記憶させる、
請求項1から3のいずれか一項に記載の画像処理装置。
The partial area is a facial image and
The position of the partial region is the position of a plurality of facial feature points of the face image included in each input frame.
The reference frame adjusting unit displays the position of the face feature point of the reference frame and the mesh connecting the face feature points, and based on the adjustment of the position of the displayed face feature point, the image of the reference frame. The position of the facial feature point is updated, and the adjusted position of the facial feature point is stored in the memory.
The image processing apparatus according to any one of claims 1 to 3.
JP2016132548A 2015-07-22 2016-07-04 Image processing device Active JP6771148B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
US15/743,467 US10346956B2 (en) 2015-07-22 2016-07-19 Image processing device
PCT/JP2016/003386 WO2017013871A1 (en) 2015-07-22 2016-07-19 Image processing device

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2015144912 2015-07-22
JP2015144912 2015-07-22

Publications (2)

Publication Number Publication Date
JP2017028687A JP2017028687A (en) 2017-02-02
JP6771148B2 true JP6771148B2 (en) 2020-10-21

Family

ID=57950760

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016132548A Active JP6771148B2 (en) 2015-07-22 2016-07-04 Image processing device

Country Status (1)

Country Link
JP (1) JP6771148B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110717859B (en) * 2019-10-09 2023-06-23 哈尔滨工业大学 Super-resolution reconstruction method based on two-way video

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4429816B2 (en) * 2004-06-10 2010-03-10 オリンパス株式会社 Imaging apparatus and method for increasing image resolution
JP2012100000A (en) * 2010-11-01 2012-05-24 Olympus Corp Image pickup device, image processing device, and computer program product

Also Published As

Publication number Publication date
JP2017028687A (en) 2017-02-02

Similar Documents

Publication Publication Date Title
CN109196561B (en) System and method for three-dimensional garment mesh deformation and layering for fitting visualization
CN111932673B (en) Object space data augmentation method and system based on three-dimensional reconstruction
US11080833B2 (en) Image manipulation using deep learning techniques in a patch matching operation
JP2007193508A (en) Image processor and image processing program
Lee et al. Automatic distortion correction of endoscopic images captured with wide-angle zoom lens
Schall et al. Adaptive feature-preserving non-local denoising of static and time-varying range data
CN105551001B (en) A kind of image rebuilding method, device and equipment
JP6771148B2 (en) Image processing device
Zhang et al. Video super-resolution with 3D adaptive normalized convolution
Camponez et al. Super-resolution image reconstruction using nonparametric Bayesian INLA approximation
WO2015005163A1 (en) High-resolution image generation device, high-resolution image generation method, and high-resolution image generation program
Ruan et al. Adaptive total variation based autofocusing strategy in ptychography
Molina et al. Restoration of severely blurred high range images using stochastic and deterministic relaxation algorithms in compound Gauss–Markov random fields
JP4887491B2 (en) MEDICAL IMAGE PROCESSING METHOD, DEVICE THEREOF, AND PROGRAM
JP2018063693A (en) Image processing device, image processing method, and program
WO2016098323A1 (en) Information processing device, information processing method, and recording medium
JP2006350562A (en) Image processor and image processing program
WO2017013871A1 (en) Image processing device
CN116580148A (en) Parameterized human body model fitting method based on human body point cloud and measurement parameters
Han et al. A nonblind deconvolution method by bias correction for inaccurate blur kernel estimation in image deblurring
US11120606B1 (en) Systems and methods for image texture uniformization for multiview object capture
JP7343336B2 (en) Inspection support device and inspection support method
Lee et al. Real-time correction of wide-angle lens distortion for images with GPU computing
JP4266150B2 (en) Projection apparatus and projection method
Güssefeld et al. Are reflectance field renderings appropriate for optical flow evaluation?

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190415

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20190625

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20191018

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200303

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200428

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200526

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200722

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200811

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200910

R151 Written notification of patent or utility model registration

Ref document number: 6771148

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151