JP2006033232A - Image processing apparatus - Google Patents

Image processing apparatus Download PDF

Info

Publication number
JP2006033232A
JP2006033232A JP2004206995A JP2004206995A JP2006033232A JP 2006033232 A JP2006033232 A JP 2006033232A JP 2004206995 A JP2004206995 A JP 2004206995A JP 2004206995 A JP2004206995 A JP 2004206995A JP 2006033232 A JP2006033232 A JP 2006033232A
Authority
JP
Japan
Prior art keywords
image
processing apparatus
images
frame
image processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2004206995A
Other languages
Japanese (ja)
Inventor
Tatsuya Hosoda
達矢 細田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Priority to JP2004206995A priority Critical patent/JP2006033232A/en
Publication of JP2006033232A publication Critical patent/JP2006033232A/en
Pending legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide a technology of generating a still images with high resolution while suppressing deterioration in the image quality, by detecting rapid changes in a photographic state and reflecting it to image processing. <P>SOLUTION: An image processing apparatus 100 designates a reference frame image 13 among frame images consecutive in time series for configuring a moving image MV. The image processing apparatus calculates an exposure value (EV value) of each frame image, on the basis of the reference frame image 13 and Exif information attached to frame images other than the reference frame image. The image processing apparatus discriminates that the photographic conditions of frame images 14 to 16 in existence in the vicinity of the reference frame image 13 and whose EV value is within a prescribed value (±1) is the same as / similar to that of the reference frame image 13, and selects them as processing object frame images for generating a high-resolution still image. Since frame images 10 to 12 have the EV value different by the prescribed value or larger, the image processing apparatus discriminates that the photographic conditions of the frame images 10 to 12 differs from that of the reference frame image 13 and excludes the frame images 10 to 12 from the processing object frame images. The image processing apparatus uses the selected processing object frame images, to perform sharpening processing to produce a high resolution still image 200. <P>COPYRIGHT: (C)2006,JPO&NCIPI

Description

本発明は、複数の画像から、より解像度の高い静止画像を作成する画像処理装置に関するものである。   The present invention relates to an image processing apparatus that creates a still image with higher resolution from a plurality of images.

近年、時系列に連続する複数の画像から構成されている動画像から、高解像度の画像を作成する画像処理装置が普及しつつある。画像処理装置は、例えば、複数の画像のうち、基準となる画像と、基準画像の前後の画像との画素のずれに基づいて間欠画素の補間を行い、高解像度静止画像を作成する。   2. Description of the Related Art In recent years, image processing apparatuses that create high-resolution images from moving images composed of a plurality of images that are continuous in time series are becoming popular. For example, the image processing apparatus performs intermittent pixel interpolation based on a pixel shift between a reference image and images before and after the reference image, and creates a high-resolution still image.

最近では、複数の画像中に、複雑な動きをしていたり、非常に高速で動いていたりする被写体が含まれる場合にも、画質の劣化を抑制しつつ、解像度の高い画像を作成する技術が提案されている(特許文献1参照)。   Recently, there is a technology to create high-resolution images while suppressing deterioration in image quality even when multiple images include subjects that move in a complex manner or move at a very high speed. It has been proposed (see Patent Document 1).

特開2004−88616号公報JP 2004-88616 A

しかしながら、従来の技術では、フラッシュやズーム操作などによる撮影状況の急激な変化による画質の劣化を考慮していなかった。撮影状況の急激な変化とは、例えば、動画像の撮影時に、周囲からフラッシュが間欠的にたかれ、動画像を構成する複数の画像の一部だけ露出値が高くなる場合、撮影時にズーム操作が行われた場合には、複数の画像の焦点距離が異なる場合がある。撮影中にこのような撮影状況の急激な変化があった場合には、各画像間の画素のずれの検出精度が低下し、高解像度静止画像の画質の劣化を余儀なくされていた。   However, the conventional technology does not take into account image quality deterioration due to a sudden change in the shooting state due to a flash or zoom operation. An abrupt change in the shooting situation means that, for example, when a moving image is shot, the flash is intermittently applied from the surroundings, and the exposure value increases only for some of the images that make up the moving image. In some cases, the focal lengths of a plurality of images may be different. When such a rapid change in the shooting situation occurs during shooting, the detection accuracy of the pixel shift between the images is lowered, and the image quality of the high-resolution still image is inevitably deteriorated.

本発明は、上述した課題に鑑みてなされたものであり、急激な撮影状況の変化を検出し、画像処理に反映することにより、画質の劣化を抑制しつつ、解像度の高い静止画像を作成する技術を提供することを目的とする。   The present invention has been made in view of the above-described problems, and detects a sudden change in the shooting situation and reflects it in image processing, thereby creating a still image with high resolution while suppressing deterioration in image quality. The purpose is to provide technology.

上述した課題の少なくとも一部を解決するため、本発明は、以下の構成をとることとした。すなわち、
画像処理装置において、
時系列に連続した複数の画像を読み込む画像読込部と、
前記複数の画像から基準画像を指定する基準画像指定部と、
前記複数の画像のそれぞれの撮影時の状況を特定可能な画像情報を取得する画像情報取得部と、
前記複数の画像から前記基準画像を除いた各画像のうちの1つを注目画像として選択し、前記注目画像の前記画像情報と、前記基準画像の前記画像情報とに基づき、前記注目画像と前記基準画像との前記撮影時の状況が同一もしくは類似であるか否かを判定する判定部と、
前記判定により前記基準画像と前記撮影時の状況が同一もしくは類似すると判定された前記注目画像を対象画像として選択する選択部と、
前記対象画像および前記基準画像に基づき、前記複数の画像の解像度よりも解像度の高い高解像度静止画像を作成する画像作成部とを備えることを要旨とする。
In order to solve at least a part of the problems described above, the present invention has the following configuration. That is,
In the image processing apparatus,
An image reading unit for reading a plurality of continuous images in time series,
A reference image designating unit for designating a reference image from the plurality of images;
An image information acquisition unit for acquiring image information capable of specifying a situation at the time of shooting each of the plurality of images;
One of the images obtained by removing the reference image from the plurality of images is selected as an attention image, and the attention image and the image based on the image information of the attention image and the image information of the reference image A determination unit that determines whether the situation at the time of shooting with the reference image is the same or similar;
A selection unit that selects, as a target image, the target image determined by the determination that the reference image and the situation at the time of shooting are the same or similar;
The gist of the present invention is to provide an image creation unit that creates a high-resolution still image having a resolution higher than the resolution of the plurality of images based on the target image and the reference image.

このような構成をとることとすれば、基準画像と撮影時の状況が同一もしくは類似しない画像を、高解像度静止画像の作成処理に使用する処理対象画像から除外することができる。従って、鮮明化処理の精度を向上することができ、高品質の高解像度静止画像を作成することができる。   By adopting such a configuration, it is possible to exclude an image that is the same as or similar to the reference image and the situation at the time of shooting from the processing target image used for the high-resolution still image creation process. Therefore, the accuracy of the sharpening process can be improved, and a high-quality high-resolution still image can be created.

本発明の画像処理装置において、
前記画像情報は、前記複数の画像の各画像に関連付けられた前記各画像の撮影時の撮影条件であり、
前記画像取得部は、前記画像情報を取得することとしてもよい。
In the image processing apparatus of the present invention,
The image information is a shooting condition at the time of shooting each image associated with each image of the plurality of images,
The image acquisition unit may acquire the image information.

こうすれば、画像処理装置は、各画像の画像情報を簡易に取得することができるため、撮影時の状況の同一・類似を判断する演算負荷を軽減することができる。 In this way, the image processing apparatus can easily acquire the image information of each image, and therefore it is possible to reduce the calculation load for determining the same / similarity of the situation at the time of shooting.

本発明の画像処理装置において、
前記画像情報には、前記撮影時のISO感度、露出時間、および、絞り値が含まれており、
前記判定部は、前記画像情報から前記各画像の露出値を算出し、前記基準画像の前記露出値と、前記注目画像の前記露出値との差が所定値以下の場合に、前記同一もしくは類似であると判定することとしてもよい。
In the image processing apparatus of the present invention,
The image information includes ISO sensitivity at the time of shooting, exposure time, and aperture value.
The determination unit calculates an exposure value of each image from the image information, and when the difference between the exposure value of the reference image and the exposure value of the target image is equal to or less than a predetermined value, the same or similar It is good also as determining with it.

また、
前記画像情報には、前記撮影時の被写体までの距離が含まれており、
前記判定部は、前記基準画像の前記被写体までの距離と、前記注目画像の前記被写体までの距離との差が所定値以下の場合に、前記同一もしくは類似であると判定することとしてもよい。
Also,
The image information includes a distance to the subject at the time of shooting,
The determination unit may determine that the difference is the same or similar when the difference between the distance to the subject in the reference image and the distance to the subject in the target image is a predetermined value or less.

また、
前記画像情報には、前記撮影時の焦点距離が含まれており、
前記判定部は、前記基準画像の前記焦点距離と、前記注目画像の前記焦点距離との差が所定値以下の場合に、前記同一もしくは類似であると判定することとしてもよい。
Also,
The image information includes a focal length at the time of shooting,
The determination unit may determine that the difference is the same or similar when a difference between the focal distance of the reference image and the focal distance of the target image is equal to or less than a predetermined value.

こうすれば、画像に関連付けられた画像情報から取得可能な種々の情報に基づき、簡易に撮影状況の変化を検出することができる。従って、処理対象画像を効率的に判断することができ、演算負荷を軽減することができる。   In this way, it is possible to easily detect a change in the photographing state based on various information that can be acquired from the image information associated with the image. Therefore, it is possible to efficiently determine the processing target image and reduce the calculation load.

本発明の画像処理装置において、前記画像情報とは、Exif情報であることとしてもよい。こうすれば、Exif情報を参照することにより、画像から簡易に画像情報を取得することができる。   In the image processing apparatus of the present invention, the image information may be Exif information. In this way, it is possible to easily acquire image information from an image by referring to Exif information.

本発明の画像処理装置において、
更に、
前記複数の画像を解析し、前記解析結果に基づき、前記画像情報を生成する画像情報生成部を備ることとしてもよい。
In the image processing apparatus of the present invention,
Furthermore,
An image information generation unit that analyzes the plurality of images and generates the image information based on the analysis result may be provided.

このような構成をとることとすれば、画像に、撮影条件を特定可能な画像情報が関連付けられていない場合であっても、画像を解析することにより画像情報を取得することができる。   If such a configuration is adopted, the image information can be obtained by analyzing the image even when the image is not associated with image information that can specify the shooting condition.

本発明の画像処理装置において、
前記画像情報生成部は、前記複数の画像のそれぞれの輝度情報を解析して、前記輝度情報に基づき前記画像情報を生成し、
前記判定部は、前記基準画像の前記輝度情報と、前記注目画像の前記輝度情報との差が所定値以下の場合に、前記同一もしくは類似であると判定することとしてもよい。
In the image processing apparatus of the present invention,
The image information generation unit analyzes the luminance information of each of the plurality of images, generates the image information based on the luminance information,
The determination unit may determine that the difference is the same or similar when the difference between the luminance information of the reference image and the luminance information of the target image is a predetermined value or less.

このような構成をとることとすれば、画像間の輝度情報の急峻な変化、すなわち、画像間の明るさの変化に基づき、処理対象画像として選択するか否かを判断することができる。   With such a configuration, it is possible to determine whether or not to select the image to be processed based on a steep change in luminance information between images, that is, a change in brightness between images.

本発明の画像処理装置において、
更に、
前記判定部による判定に先立ち、前記基準画像と、前記注目画像との時系列的な距離が、所定範囲内であるかを判断する画像距離判断部とを備え、
前記判定部は、前記画像距離判断部により、前記所定範囲内であると判断された前記注目画像について、前記同一もしくは類似であるか否かの判定を行うこととしてもよい。
In the image processing apparatus of the present invention,
Furthermore,
Prior to determination by the determination unit, an image distance determination unit that determines whether a time-series distance between the reference image and the target image is within a predetermined range,
The determination unit may determine whether the image of interest determined by the image distance determination unit as being within the predetermined range is the same or similar.

一般的に時系列に連続した画像間の時系列的な距離が離れると、時間経過が大きく、撮影状況が同一もしくは類似である可能性が低くなる。本発明の構成をとることとすれば、画像情報に基づき同一もしくは類似を判断する前に、基準画像から時系列的な距離が離れている注目画像を、処理対象画像から除外することができ高解像度作成処理の処理効率を向上することができる。   In general, when a time-series distance between images that are continuous in time series increases, the time elapses and the possibility that the shooting situation is the same or similar is reduced. By taking the configuration of the present invention, it is possible to exclude a target image having a time-series distance from the reference image from the processing target image before determining the same or similar based on the image information. The processing efficiency of the resolution creation process can be improved.

本発明において、上述した種々の態様は、適宜、組み合わせたり、一部を省略したりして適用することができる。また、本発明は、上述した画像処理装置としての構成の他に、画像処理装置による画像処理方法、画像処理装置に画像処理を実効させるためのコンピュータプログラム、かかるコンピュータプログラムをコンピュータ読み取り可能に記録した記録媒体等としても構成できる。いずれの構成においても、上述した各態様を適宜適用可能である。コンピュータが読み取り可能な記録媒体としては、例えば、フレキシブルディスクや、CD−ROM、DVD−ROM、光磁気ディスク、ICカード、ハードディスク等種々の媒体を利用することが可能である。   In the present invention, the various aspects described above can be applied by appropriately combining or omitting some of them. In addition to the configuration as the image processing apparatus described above, the present invention records an image processing method by the image processing apparatus, a computer program for causing the image processing apparatus to perform image processing, and the computer program recorded in a computer-readable manner. It can also be configured as a recording medium. In any configuration, the above-described aspects can be appropriately applied. As a computer-readable recording medium, various media such as a flexible disk, a CD-ROM, a DVD-ROM, a magneto-optical disk, an IC card, and a hard disk can be used.

以下、本発明の実施の形態について、実施例に基づき、次の順序で説明する。
A.第1実施例:
A1.システム概要:
A2.機能ブロック:
A3.高解像度静止画像作成処理:
A3−1.全体処理:
A3−2.処理対象フレーム判定処理:
A3−3.鮮明化処理:
A4.第1実施例の変形例:
B.第2実施例:
B1.処理対象フレーム判定処理:
C.変形例:
Hereinafter, embodiments of the present invention will be described in the following order based on examples.
A. First embodiment:
A1. System overview:
A2. Function block:
A3. High-resolution still image creation process:
A3-1. Overall processing:
A3-2. Processing target frame judgment processing:
A3-3. Sharpening process:
A4. Modification of the first embodiment:
B. Second embodiment:
B1. Processing target frame judgment processing:
C. Variations:

A.第1実施例:
A1.システム概要:
図1は、本実施例におけるシステム概要を例示する説明図である。本実施例では、画像処理装置が、時系列に連続する複数の静止画像から解像度の高い静止画像を作成する際に、撮影条件が同一もしくは類似しない静止画像以外の静止画像を使用して、高解像度静止画像を作成する態様を説明する。本実施例において、連続画像SPは、静止画像10〜16を含む時系列に連続した静止画像から構成されており、デジタルカメラの連写モードで撮影された画像である。連続画像SPは、本発明の請求の範囲に記載した「時系列に連続する複数の画像」に相当する。以降、本実施例では、この複数の画像の各画像をフレームと呼ぶ。
A. First embodiment:
A1. System overview:
FIG. 1 is an explanatory diagram illustrating a system overview in the present embodiment. In this embodiment, when the image processing apparatus creates a high-resolution still image from a plurality of still images that are continuous in time series, a still image other than a still image that does not have the same or similar shooting conditions is used. A mode of creating a resolution still image will be described. In the present embodiment, the continuous image SP is composed of still images that are continuous in time series including the still images 10 to 16 and is an image that is captured in the continuous shooting mode of the digital camera. The continuous image SP corresponds to “a plurality of images continuous in time series” described in the claims of the present invention. Hereinafter, in this embodiment, each of the plurality of images is referred to as a frame.

画像処理装置100は、連続画像SPのうち、基準フレーム13の指定をユーザから受け付け、基準フレーム13に付加されたExif情報に基づき、基準フレーム13の露出値を算出する。露出値とは、露光量を数値化したものであり、いわゆる、EV値と呼ばれるものである。「Exif」とは、デジタルカメラ用の画像ファイルの規格であり、「Exif情報」とは、画像ファイルに付加された付加情報である。Exif情報には、例えば、フラッシュの有無などのデジタルカメラによる撮影時の撮影条件や、撮影日時などの情報が記録される。EV値の算出方法に関しては後述する。   The image processing apparatus 100 receives the designation of the reference frame 13 from the user in the continuous image SP, and calculates the exposure value of the reference frame 13 based on the Exif information added to the reference frame 13. The exposure value is a numerical value of the exposure amount, and is a so-called EV value. “Exif” is a standard for image files for digital cameras, and “Exif information” is additional information added to an image file. In the Exif information, for example, shooting conditions such as the presence or absence of a flash when shooting with a digital camera, and information such as shooting date and time are recorded. An EV value calculation method will be described later.

画像処理装置100は、基準フレーム13以外のフレームであって、基準フレーム13との時系列距離が所定の範囲内のフレームから、基準フレーム13とのEV値の差が所定の範囲内であるフレームを、高解像度化処理に使用する対象フレームとして選択する。時系列距離とは、時系列距離とは、時系列的に連続した複数の画像において、基準フレームと他のフレームとが何枚離れているかを表す数値である。本実施例では、基準フレーム13とのEV値の差が±1以内であるフレームを高解像度化処理に使用する対象フレームとして選択することとした。   The image processing apparatus 100 is a frame other than the reference frame 13 and has a difference in EV value from the reference frame 13 within a predetermined range from a frame whose time series distance from the reference frame 13 is within a predetermined range. Are selected as target frames to be used for the resolution enhancement processing. The time series distance is a numerical value indicating how many reference frames and other frames are separated from each other in a plurality of time series continuous images. In this embodiment, a frame whose EV value difference from the reference frame 13 is within ± 1 is selected as a target frame to be used for the high resolution processing.

図示するように、基準フレーム13のEV値は、「EV=6」である。基準フレーム13の前後に存在するフレーム10〜12、14〜16のEV値は、フレーム10〜12については「EV=10」であり、フレーム14〜16については「EV=6」である。画像処理装置100は、基準フレーム13よりEV値が「3」高い「EV=10」を有するフレーム10〜12を対象フレームとせず、「EV=6」を有するフレーム14〜16を対象フレームとして選択する。対象フレーム14〜16は、基準フレーム13との画素のずれを比較する対象となるフレームである。本実施例では、基準フレーム13と、対象フレーム14〜16とを併せて処理対象フレームと呼ぶ。   As shown in the figure, the EV value of the reference frame 13 is “EV = 6”. The EV values of the frames 10 to 12 and 14 to 16 existing before and after the reference frame 13 are “EV = 10” for the frames 10 to 12 and “EV = 6” for the frames 14 to 16. The image processing apparatus 100 selects frames 14 to 16 having “EV = 6” as target frames without setting frames 10 to 12 having “EV = 10” whose EV value is “3” higher than the reference frame 13 as target frames. To do. The target frames 14 to 16 are frames to be compared with pixel deviations from the reference frame 13. In this embodiment, the reference frame 13 and the target frames 14 to 16 are collectively referred to as a processing target frame.

画像処理装置100は、処理対象フレームに基づき鮮明化処理を行い、もとの画像よりも解像度の高い高解像度静止画像200を作成する。   The image processing apparatus 100 performs a sharpening process based on the processing target frame, and creates a high-resolution still image 200 having a higher resolution than the original image.

A2.機能ブロック:
図2は、本実施例における画像処理装置100の機能ブロックを例示する説明図である。画像処理装置100は、CPU101とインターフェース102と、ROM110と、ハードディスク120とを備えている。ROM110には、各機能を実行する機能ブロックが構成されている。機能ブロックは、画像読込部103と、フレーム指定部104と、時系列距離判断部105と、撮影条件判定部106と、対象フレーム選択部107と、鮮明化処理部108とから構成されている。各機能ブロックは、CPUにより制御されている。ハードディスク120には、画像格納部121と、高解像度静止画像格納部122とが構成されている。画像格納部121には、連続画像SPなど高解像度化処理前の画像が格納されており、高解像度静止画像格納部122には、高解像度化された高解像度静止画像が格納される。
A2. Function block:
FIG. 2 is an explanatory diagram illustrating functional blocks of the image processing apparatus 100 in the present embodiment. The image processing apparatus 100 includes a CPU 101, an interface 102, a ROM 110, and a hard disk 120. The ROM 110 includes functional blocks that execute each function. The functional block includes an image reading unit 103, a frame specifying unit 104, a time series distance determining unit 105, an imaging condition determining unit 106, a target frame selecting unit 107, and a sharpening processing unit 108. Each functional block is controlled by the CPU. The hard disk 120 includes an image storage unit 121 and a high-resolution still image storage unit 122. The image storage unit 121 stores images before the high resolution processing such as the continuous image SP, and the high resolution still image storage unit 122 stores the high resolution still image that has been increased in resolution.

インターフェース102は、キーボードやマウスなど、ユーザが操作する機器からの入力を各機能ブロックへ通知する機能を備える。   The interface 102 has a function of notifying each functional block of an input from a device operated by a user such as a keyboard and a mouse.

画像読込部103は、画像格納部121に格納されている画像から、高解像度化処理を行う連続画像SPを読み込む機能を備える。フレーム指定部104は、インターフェース102を介して通知されるユーザからの指示に基づき、読み込んだ連続画像SPを構成するフレームから基準フレームや注目フレームの指定を行う。フレーム指定部104は、本発明の基準画像指定部に当たる。   The image reading unit 103 has a function of reading a continuous image SP for performing resolution enhancement processing from an image stored in the image storage unit 121. The frame designation unit 104 designates a reference frame and a target frame from the frames constituting the read continuous image SP based on an instruction from the user notified through the interface 102. The frame designation unit 104 corresponds to the reference image designation unit of the present invention.

時系列距離判断部105は、注目フレームと基準フレームとの時系列距離が所定の範囲内にあるか否かを判断する機能を備える。また、時系列距離判断部105は、注目フレームと基準フレームとの時系列距離が所定の範囲内でないと判断した場合に、ユーザに基準フレームの再指定を行うか否かの選択画面を表示する機能も備える。時系列距離判断部105は、本発明の画像距離判断部に当たる。   The time series distance determination unit 105 has a function of determining whether or not the time series distance between the frame of interest and the reference frame is within a predetermined range. Further, when the time-series distance determination unit 105 determines that the time-series distance between the frame of interest and the reference frame is not within a predetermined range, the time-series distance determination unit 105 displays a selection screen as to whether or not to re-specify the reference frame to the user. It also has functions. The time series distance determination unit 105 corresponds to the image distance determination unit of the present invention.

撮影条件判定部106は、注目フレームと基準フレームとの撮影条件を比較して両フレーム間の撮影条件が同一もしくは類似であるかを判定する。具体的には、各フレームに付加されているExif情報からEV値を算出し、注目フレームのEV値が、基準フレームのEV値と比べて±1以内であれば、撮影条件は同一もしくは類似であると判断する。Exif情報を使用することで、簡易に、精度良く撮影条件の変化を判断することができる。Exif情報を、図3を用いて説明する。撮影条件判定部106は、本発明の画像情報取得部および判定部に当たる。   The shooting condition determination unit 106 compares the shooting conditions of the frame of interest and the reference frame to determine whether the shooting conditions between the frames are the same or similar. Specifically, the EV value is calculated from the Exif information added to each frame, and if the EV value of the frame of interest is within ± 1 compared to the EV value of the reference frame, the shooting conditions are the same or similar. Judge that there is. By using Exif information, it is possible to easily and accurately determine changes in shooting conditions. Exif information will be described with reference to FIG. The imaging condition determination unit 106 corresponds to the image information acquisition unit and determination unit of the present invention.

図3は、本実施例におけるExif情報を例示する説明図である。図3(a)は、本実施例におけるフレーム10のデータ構成を例示する説明図である。他のフレームも同様の構成である。フレーム10は、Exif情報20と、画像データ21とから構成されている。Exif情報の内容の一例を、図3(b)を用いて説明する。   FIG. 3 is an explanatory diagram illustrating Exif information in the present embodiment. FIG. 3A is an explanatory diagram illustrating the data configuration of the frame 10 in the present embodiment. The other frames have the same configuration. The frame 10 is composed of Exif information 20 and image data 21. An example of the contents of Exif information will be described with reference to FIG.

Exif情報20には、図示するように、「画像タイトル」、「撮影日時」などの基準フレーム13に関する情報とともに、「色空間情報」、「ISO感度」、「露出時間」、「被写体距離」、「焦点距離」等のフレーム10の撮影時の撮影条件が記録されている。例えば、フレーム10の「画像タイトル」は「file05.jpg」であり、「ISO感度」は、「100」である。Exif情報20は、簡易に参照することができ、種々の値を取得することができるため、撮影条件の判断材料として好適である。   The Exif information 20 includes, as shown in the figure, information on the reference frame 13 such as “image title” and “shooting date and time”, “color space information”, “ISO sensitivity”, “exposure time”, “subject distance”, The shooting conditions at the time of shooting the frame 10 such as “focal length” are recorded. For example, the “image title” of the frame 10 is “file05.jpg”, and the “ISO sensitivity” is “100”. The Exif information 20 can be easily referred to, and various values can be acquired. Therefore, the Exif information 20 is suitable as a shooting condition determination material.

図2に戻り説明を続ける。対象フレーム選択部107は、撮影条件判定部106によって撮影条件が同一もしくは類似であると判定された注目フレームを、対象フレームとして選択する。また、対象フレーム選択部107は、処理対象フレームが、高解像度化処理を行うための必要枚数に達したか否かにより、選択処理を続行するか否かを判断する。本実施例では、対象フレーム選択部107は、基準フレームと対象フレームとの合計枚数が4枚、すなわち、対象フレームを3枚選択すると、選択処理を終了する。対象フレーム選択部107は、本発明の選択部に当たる。   Returning to FIG. The target frame selection unit 107 selects a target frame determined by the shooting condition determination unit 106 as having the same or similar shooting conditions as the target frame. Further, the target frame selection unit 107 determines whether or not to continue the selection process based on whether or not the number of processing target frames has reached the required number for performing the resolution enhancement process. In this embodiment, the target frame selection unit 107 ends the selection process when the total number of reference frames and target frames is four, that is, three target frames are selected. The target frame selection unit 107 corresponds to the selection unit of the present invention.

鮮明化処理部108は、対象フレーム選択部107によって選択された基準フレームおよび対象フレームに基づき、これらのフレームよりも解像度の高い高解像度静止画像を作成し、高解像度静止画像格納部122に格納する。鮮明化処理部108は、本発明の画像作成部に当たる。   The sharpening processing unit 108 creates a high-resolution still image having a higher resolution than these frames based on the reference frame and the target frame selected by the target frame selection unit 107 and stores them in the high-resolution still image storage unit 122. . The sharpening processing unit 108 corresponds to the image creation unit of the present invention.

A3.高解像度静止画像作成処理:
A3−1.全体処理:
図4は、本実施例における高解像度静止画像作成処理の全体処理を説明するフローチャートである。利用者が基準フレームを指定することによりこの処理は開始される。
A3. High-resolution still image creation process:
A3-1. Overall processing:
FIG. 4 is a flowchart for explaining the overall processing of the high-resolution still image creation processing in this embodiment. This process is started when the user designates a reference frame.

画像処理装置100は、ユーザからの基準フレームの選択指示を受けて、基準フレームを指定する(ステップS10)。次に、画像処理装置100は、処理対象フレームを選択する処理を行い(ステップS11)、選択された処理対象フレームに基づき鮮明化処理を行い、高解像度静止画像を作成する(ステップS12)。処理対象フレーム選択処理、および、鮮明化処理について以下に説明する。   The image processing apparatus 100 receives a reference frame selection instruction from the user and designates the reference frame (step S10). Next, the image processing apparatus 100 performs processing for selecting a processing target frame (step S11), performs sharpening processing based on the selected processing target frame, and creates a high-resolution still image (step S12). Processing target frame selection processing and sharpening processing will be described below.

A3−2.処理対象フレーム選択処理:
図5は、本実施例における処理対象フレームの選択処理を説明するフローチャートである。図4のステップS11における処理の詳細を説明する図である。
A3-2. Processing target frame selection processing:
FIG. 5 is a flowchart for explaining processing frame selection processing in the present embodiment. It is a figure explaining the detail of the process in step S11 of FIG.

画像処理装置100は、基準フレームのEV値を算出する(ステップS20)。EV値は、Exif情報に含まれる「ISO感度」、「露出時間」および「絞り値」から次の式により求まる。以下の式では、「ISO感度」を「ISO」と、「露出時間」を「T」と、「絞り値」を「F」と表す。   The image processing apparatus 100 calculates the EV value of the reference frame (step S20). The EV value is obtained by the following expression from “ISO sensitivity”, “exposure time”, and “aperture value” included in the Exif information. In the following formula, “ISO sensitivity” is represented as “ISO”, “exposure time” is represented as “T”, and “aperture value” is represented as “F”.

Figure 2006033232
Figure 2006033232

数1に記載の式は、「絞り値=1.0」、「露出時間=1sec」、「ISO感度=100」の時に「EV=0」と定義されている。露出量が2倍になるごとにEV値が1増加し、露出量が1/2になるとEV値は1減少する。例えば、図3のExif情報20に数1に記載の式を適用してEV値を算出すると以下のようになる。   The expression of Equation 1 is defined as “EV = 0” when “aperture value = 1.0”, “exposure time = 1 sec”, and “ISO sensitivity = 100”. Every time the exposure amount is doubled, the EV value is increased by 1. When the exposure amount is halved, the EV value is decreased by 1. For example, when the EV value is calculated by applying the formula described in Equation 1 to the Exif information 20 in FIG.

Figure 2006033232
Figure 2006033232

このように、フレーム10のEV値は「10」であると算出される。   Thus, the EV value of the frame 10 is calculated to be “10”.

次に、画像処理装置100は、注目フレームを指定する(ステップS21)。本実施例では、基準フレームの直後に選択する注目フレームを、基準フレームの次のフレームとした。   Next, the image processing apparatus 100 designates a frame of interest (step S21). In this embodiment, the frame of interest to be selected immediately after the reference frame is the frame next to the reference frame.

画像処理装置100は、基準フレームと注目フレームとの時系列距離に基づき、その注目フレームが所定の制限範囲内であるか否かを判断する(ステップS22)。かかる判断処理の詳細を、図6を用いて説明する。   Based on the time-series distance between the reference frame and the target frame, the image processing apparatus 100 determines whether the target frame is within a predetermined limit range (step S22). Details of such determination processing will be described with reference to FIG.

図6は、本実施例における時系列距離判断処理を説明するフローチャートである。画像処理装置100は、注目フレームの基準フレームとの時系列距離d1を算出し(ステップS30)、時系列的距離d1が制限範囲内であるか否かを判断する(ステップS31)。時系列距離の判断処理について、図7を用いて説明する。   FIG. 6 is a flowchart illustrating time-series distance determination processing in the present embodiment. The image processing apparatus 100 calculates the time series distance d1 between the frame of interest and the reference frame (step S30), and determines whether or not the time series distance d1 is within the limit range (step S31). The time-series distance determination process will be described with reference to FIG.

図7は、本実施例における時系列距離の判断処理を模式的に示した模式図である。連続画像SPは、フレームレートが30fps、すなわち、1秒間に30フレームを有する連続画像である。図中、フレームf(n)の「n」は、当該フレームが連続画像SP中の順番を示しており、フレームf(n)は、連続画像SPのn番目のフレームであることを示している。本図は、連続画像SPの任意の1秒間に存在するフレームf(n)〜f(n+30)を示している。   FIG. 7 is a schematic diagram schematically showing time-series distance determination processing in the present embodiment. The continuous image SP is a continuous image having a frame rate of 30 fps, that is, 30 frames per second. In the figure, “n” of the frame f (n) indicates the order of the frame in the continuous image SP, and the frame f (n) indicates the nth frame of the continuous image SP. . This figure shows frames f (n) to f (n + 30) existing in any one second of the continuous image SP.

基準フレームとその他のフレームとの時系列距離d1は、両画像が何枚離れているかを示している。例えば、注目フレームをフレームf(n+18)とした場合、基準フレームf(n+15)と注目フレームf(n+18)との時系列距離d1は以下の計算により算出される。   The time series distance d1 between the reference frame and the other frames indicates how many the two images are separated from each other. For example, when the target frame is the frame f (n + 18), the time series distance d1 between the reference frame f (n + 15) and the target frame f (n + 18) is calculated by the following calculation.

d1=(n+18)−(n+15)
=3
d1 = (n + 18)-(n + 15)
= 3

よって、時系列距離d1<閾値th(=14)であり、注目フレームf(n+18)は、制限範囲内であると判断される。   Therefore, it is determined that time series distance d1 <threshold th (= 14) and the frame of interest f (n + 18) is within the limit range.

時系列距離が大きくなるにつれて両フレーム間の時間差も大きくなり、一般的に、両フレームの撮影された内容や撮影条件に差異が生じることが多い。よって、本実施例では、対象フレームとなり得る範囲が1秒以上にならないようにするため、時系列距離d1の閾値thを「14」とする。すなわち、対象フレームとなり得るフレームは、基準フレームf(n+15)の前後14枚を含むf(n+1)〜f(n+29)の範囲内のフレームである。   As the time series distance increases, the time difference between both frames also increases, and in general, there are often differences in the contents and shooting conditions of both frames. Therefore, in this embodiment, the threshold th of the time-series distance d1 is set to “14” so that the range that can be the target frame does not exceed 1 second. That is, the frames that can be the target frame are frames within the range of f (n + 1) to f (n + 29) including 14 frames before and after the reference frame f (n + 15).

図6に戻り説明を続ける。画像処理装置100は基準フレームと注目フレームとの時系列距離d1が閾値th以下でない場合、すなわち、制限範囲内でないと判断した場合(ステップS31:NO)には、基準フレームを再指定するか否かをユーザに選択させる選択案内画面を表示する(ステップS32)。選択案内画面の画面例を、図8を用いて説明する。   Returning to FIG. If the time-series distance d1 between the reference frame and the frame of interest is not less than or equal to the threshold th, that is, if the image processing apparatus 100 determines that it is not within the limit range (step S31: NO), whether or not to re-specify the reference frame A selection guidance screen for allowing the user to select is displayed (step S32). A screen example of the selection guidance screen will be described with reference to FIG.

図8は、本実施例における選択案内画面の画面例である。選択案内画面300は、案内メッセージ表示部301と、選択部302と、OKボタン303とから構成されている。案内メッセージ表示部301には、ユーザに選択を促すためのメッセージが表示される。選択部302は、ラジオボタン310〜312とその後に実行する処理内容が表示される。ユーザは、所望する処理に対応するラジオボタン310〜312を選択し、OKボタン303を押下する。画像処理装置100はOKボタン303の押下を受けて、選択された処理を実行する。   FIG. 8 is a screen example of the selection guidance screen in the present embodiment. The selection guidance screen 300 includes a guidance message display unit 301, a selection unit 302, and an OK button 303. The guidance message display unit 301 displays a message for prompting the user to select. The selection unit 302 displays radio buttons 310 to 312 and processing contents to be executed thereafter. The user selects radio buttons 310 to 312 corresponding to a desired process and presses an OK button 303. The image processing apparatus 100 receives the press of the OK button 303 and executes the selected process.

図6に戻り説明を続ける。画像処理装置100は、図8の選択案内画面300において「基準フレーム再指定」が選択されたか否かを判断する(ステップS33)。再指定が選択された場合(ステップS33:YES)には、図4のステップS10へ戻り処理を続行する。再指定が選択されなかった場合には、図8の選択案内画面300において「鮮明化処理実行」が選択されたか否かを判断する(ステップS34)。鮮明化処理実行が選択された場合(ステップS34:YES)には、現在選択されている処理対象フレームで鮮明化処理を強制的に実行する(ステップS12)。鮮明化処理実行が選択されなかった場合(ステップS34:NO)、すなわち、選択案内画面300において「鮮明化処理を行わずに終了」が選択された場合には、高解像度静止画像の作成処理自体を終了する。   Returning to FIG. The image processing apparatus 100 determines whether “reference frame redesignation” is selected on the selection guide screen 300 of FIG. 8 (step S33). If re-designation is selected (step S33: YES), the process returns to step S10 in FIG. If re-designation has not been selected, it is determined whether or not “clarification processing execution” has been selected on the selection guide screen 300 of FIG. 8 (step S34). When the sharpening process execution is selected (step S34: YES), the sharpening process is forcibly executed with the currently selected processing target frame (step S12). When the sharpening process execution is not selected (step S34: NO), that is, when “end without sharpening process” is selected on the selection guide screen 300, the high-resolution still image creation process itself Exit.

図6に戻り説明を続行する。画像処理装置100は、時系列距離d1が制限範囲内であると判断した場合(ステップS31:YES)には、かかる注目フレームについて図5のステップS22以降の処理を続行する。 Returning to FIG. 6, the description will be continued. When the image processing apparatus 100 determines that the time-series distance d1 is within the limit range (step S31: YES), the image processing apparatus 100 continues the processing from step S22 in FIG.

図5に戻り説明を続ける。画像処理装置100は、基準フレームと注目フレームとの時系列距離d1が制限範囲内であると判断された場合には、注目フレームのEV値を算出し(ステップS23)、基準フレームのEV値と注目フレームのEV値の変化量d2を算出する(ステップS24)。変化量d2が、所定値以下であるか否かによって、両フレーム間の撮影条件が同一もしくは類似であるか否かを判断する。かかる変化量d2が所定値以上である場合(ステップS25:NO)、すなわち、両フレーム間の撮影条件が同一もしくは類似でないと判断した場合には、次の注目フレームを指定し(ステップS28)、ステップS22から処理を繰り返す。注目フレームを指定する処理を、図9を用いて説明する。   Returning to FIG. When it is determined that the time-series distance d1 between the reference frame and the target frame is within the limit range, the image processing apparatus 100 calculates the EV value of the target frame (step S23), and determines the EV value of the reference frame. A change amount d2 of the EV value of the frame of interest is calculated (step S24). It is determined whether or not the shooting conditions between both frames are the same or similar depending on whether or not the amount of change d2 is equal to or less than a predetermined value. When the amount of change d2 is greater than or equal to a predetermined value (step S25: NO), that is, when it is determined that the shooting conditions between the frames are not the same or similar, the next frame of interest is designated (step S28). The process is repeated from step S22. The process for designating the frame of interest will be described with reference to FIG.

図9は、本実施例における注目フレーム指定処理を模式的に示した説明図である。画像処理装置100は、基準フレーム13を指定し、次に、基準フレーム13の最も近くに存在し、かつ、一度も注目フレームとなっておらず、かつ、基準フレーム13よりも時間が経過しているフレームを優先的に注目フレームとして指定する。すなわち、図に示すように、基準フレーム13を指定し(矢印(1))、次に、基準フレーム13の最も近くに存在し、かつ一度も注目フレームとなっていないフレーム12,14のうち、基準フレーム13よりも時間が経過しているフレーム14を、注目フレームとして指定する(矢印(2))。注目フレーム14を対象フレームとして選択するか否かの判断を終えると、画像処理装置100は、次の注目フレームとして、基準フレーム13の最も近くに存在し、かつ、一度も注目フレームとなっていないフレーム12を指定する(矢印(3))。画像処理装置100は、このように判断しつつ注目フレームを指定する。   FIG. 9 is an explanatory diagram schematically showing a target frame designation process in the present embodiment. The image processing apparatus 100 designates the reference frame 13, and then exists closest to the reference frame 13, has never been a frame of interest, and has elapsed from the reference frame 13. Frame is preferentially designated as the frame of interest. That is, as shown in the figure, the reference frame 13 is designated (arrow (1)), and next, among the frames 12 and 14 that are closest to the reference frame 13 and have never been the frame of interest, The frame 14 whose time has elapsed from the reference frame 13 is designated as the frame of interest (arrow (2)). When the determination of whether or not to select the target frame 14 as the target frame is completed, the image processing apparatus 100 exists as the next target frame closest to the reference frame 13 and has never been the target frame. The frame 12 is designated (arrow (3)). The image processing apparatus 100 designates the frame of interest while making this determination.

図5に戻り説明を続ける。画像処理装置100は、変化量d2が所定値以下である場合(ステップS25:YES)、すなわち、両フレーム間の撮影条件が同一もしくは類似であると判断した場合には、かかる注目フレームを対象フレームとして選択し(ステップS26)、処理対象フレームが所定枚数以上となったか否かを判断する(ステップS27)。画像処理装置100は、処理対象フレームが所定枚数になっていない場合(ステップS27:NO)には、次の注目フレームを指定する(ステップS28)。所定枚数となった場合(ステップS27:YES)には、処理対象フレームに基づき、鮮明化処理を実行して高解像度静止画像を作成する(図4:ステップS12)。以下に、鮮明化処理の詳細を説明する。
A3−3.鮮明化処理:
Returning to FIG. When the amount of change d2 is equal to or smaller than the predetermined value (step S25: YES), that is, when the image processing apparatus 100 determines that the shooting conditions between the two frames are the same or similar, the image processing apparatus 100 sets the target frame as the target frame. Is selected (step S26), and it is determined whether or not the number of frames to be processed exceeds a predetermined number (step S27). If the number of frames to be processed is not the predetermined number (step S27: NO), the image processing apparatus 100 designates the next frame of interest (step S28). When the predetermined number is reached (step S27: YES), a sharpening process is executed based on the processing target frame to create a high-resolution still image (FIG. 4: step S12). Details of the sharpening process will be described below.
A3-3. Sharpening process:

図10は、本実施例における鮮明化処理を説明するフローチャートである。この処理は、画像処理装置100の鮮明化処理部108が実行する処理である。本実施例の鮮明化処理では、処理対象フレームとして4枚のフレームを使用する。以降の鮮明化処理の説明において、処理対象フレームのうち、基準フレームを基準フレームF0と、処理対象フレームのうち基準フレームF0以外のフレームを対象フレームF1,F2,F3と呼ぶこととする。   FIG. 10 is a flowchart for explaining the sharpening process in the present embodiment. This process is a process executed by the sharpening processing unit 108 of the image processing apparatus 100. In the sharpening processing of the present embodiment, four frames are used as processing target frames. In the following description of the sharpening process, among the processing target frames, the reference frame is referred to as a reference frame F0, and the processing target frames other than the reference frame F0 are referred to as target frames F1, F2, and F3.

画像処理装置100は、選択した処理対象フレームを取得する(ステップS40)。次に、画像処理装置100は、基準フレームF0と対象フレームF1〜F3において、対応する位置に存在する画素のずれ量を、全画素について算出し、かかるずれ量に基づき、ずれを補正するための補正量を推定する(ステップS41)。   The image processing apparatus 100 acquires the selected processing target frame (step S40). Next, the image processing apparatus 100 calculates the shift amount of pixels existing at corresponding positions in the reference frame F0 and the target frames F1 to F3, and corrects the shift based on the shift amount. A correction amount is estimated (step S41).

具体的には、画像処理装置100は、まず、基準フレームF0に対して、3枚の対象フレームF1〜F3が、それぞれどれだけずれているかを表す「ずれ量」を、全画素について順次算出する。本実施例における「ずれ」とは、撮影対象物自体の動きや、ビデオカメラの設置場所の移動に起因するものではなく、いわゆるパンと呼ばれるカメラワークや、手ぶれのようにビデオカメラの向きの変化のみに起因するものである。すなわち、異なるフレーム間において、全ての画素が、同じ量だけずれるようなずれを想定している。ずれは、横および縦のずれを示す「並進のずれ」と、「回転のずれ」の組合せで表される。対象フレームF1〜F3について、上述のずれ量が画素ごとに算出されると、かかるずれ量を基にして、ずれを補正するための補正量が推定される。補正量は、画素のずれ量と同様に、「並進の補正量」と、「回転の補正量」との組合せで表される。並進補正量を推定する様子を、図11を用いて説明する。   Specifically, first, the image processing apparatus 100 sequentially calculates “deviation amount” indicating how much each of the three target frames F1 to F3 is deviated from the reference frame F0 for all pixels. . The “displacement” in the present embodiment is not caused by the movement of the photographing object itself or the movement of the installation location of the video camera, but the camera work called so-called pan or the change of the orientation of the video camera like camera shake. Is due only to. That is, a shift is assumed in which all pixels are shifted by the same amount between different frames. The deviation is represented by a combination of “translational deviation” indicating horizontal and vertical deviation and “rotational deviation”. When the above-described shift amount is calculated for each pixel for the target frames F1 to F3, a correction amount for correcting the shift is estimated based on the shift amount. The correction amount is represented by a combination of a “translation correction amount” and a “rotation correction amount” in the same manner as the pixel shift amount. The manner in which the translation correction amount is estimated will be described with reference to FIG.

図11は、本実施例におけるパターンマッチ法により並進補正量を推定する様子を模式的に示す図である。図示するように、基準フレーム情報の座標(x1,y1)が対象フレーム情報の座標(x2,y2)に対応しているものとする。並進補正量は(u,v)、回転補正量はフレームの中心を原点としてδとしている。撮影時に焦点距離を変えないことを前提としているため、並進と回転のみの変換を前提として、座標変換の式として次式を使う。   FIG. 11 is a diagram schematically showing how the translation correction amount is estimated by the pattern matching method in the present embodiment. As shown in the drawing, it is assumed that the coordinates (x1, y1) of the reference frame information correspond to the coordinates (x2, y2) of the target frame information. The translation correction amount is (u, v), and the rotation correction amount is δ with the center of the frame as the origin. Since it is assumed that the focal length is not changed at the time of shooting, the following equation is used as a coordinate conversion equation on the assumption that only translation and rotation are converted.

Figure 2006033232
Figure 2006033232
Figure 2006033232
Figure 2006033232
Figure 2006033232
Figure 2006033232
Figure 2006033232
Figure 2006033232

なお、基準フレームと対象フレームとの時間差はごく僅かであるため、u,v,δは微小量となる。ここで、δが微小量のとき、cosδ≒1、sinδ≒δであるから、上式を以下のように置き換えることができる。   Since the time difference between the reference frame and the target frame is very small, u, v, and δ are minute amounts. Here, when δ is a minute amount, cos δ≈1 and sin δ≈δ, so the above equation can be replaced as follows.

Figure 2006033232
Figure 2006033232
Figure 2006033232
Figure 2006033232
Figure 2006033232
Figure 2006033232
Figure 2006033232
Figure 2006033232

そして、数7、数8(または、数9,数10)に記載の式のu,v,δを最小自乗法により推定する。補正量の推定は、フレーム情報間の各画素の例えば輝度を用いて1画素よりも細かい単位で画素の位置を推定する勾配法(グラディエント法)に基づいている。   Then, u, v, and δ in the equations described in Equations 7 and 8 (or Equations 9 and 10) are estimated by the method of least squares. The estimation of the correction amount is based on a gradient method (gradient method) that estimates the pixel position in units smaller than one pixel using, for example, the luminance of each pixel between frame information.

図12は、本実施例における勾配法による並進補正量を推定する様子を模式的に示す図である。図の上段に示すように、基準フレーム情報の各画素の輝度をZ1(ix,iy)、対象フレーム情報の各画素の輝度をZ2(ix',iy')と表すことにする。まず、対象フレーム情報の座標(ix',iy')が基準フレーム情報の座標(ix〜ix+1,iy〜iy+1)の間にあるものとして、勾配法により座標(ix',iy')を求める手法を説明する。   FIG. 12 is a diagram schematically showing a state in which the translation correction amount by the gradient method in this embodiment is estimated. As shown in the upper part of the figure, the luminance of each pixel of the reference frame information is represented as Z1 (ix, iy), and the luminance of each pixel of the target frame information is represented as Z2 (ix ′, iy ′). First, assuming that the coordinates (ix ′, iy ′) of the target frame information are between the coordinates (ix to ix + 1, iy to iy + 1) of the reference frame information, a method of obtaining the coordinates (ix ′, iy ′) by the gradient method. Will be explained.

図の中段に示すように、座標(ix',iy')のx軸方向の位置をix+Δxとし、Px=Z1(ix+1,iy)−Z1(ix,iy)とすると、Px・Δx=Z2(ix',iy')−Z1(ix,iy)となるようなΔxを求めればよい。実際には、各画素についてΔxを算出し、全体で平均をとることになる。ここで、単にZ1=Z1(ix,iy)、Z2=Z2(ix',iy')で表すと、以下の式が成り立つようなΔxを算出すればよい。   As shown in the middle of the figure, assuming that the position in the x-axis direction of the coordinates (ix ′, iy ′) is ix + Δx, and Px = Z1 (ix + 1, iy) −Z1 (ix, iy), Px · Δx = Z2 ( It is sufficient to obtain Δx such that ix ′, iy ′) − Z1 (ix, iy). In practice, Δx is calculated for each pixel, and the average is taken as a whole. Here, if simply expressed as Z1 = Z1 (ix, iy) and Z2 = Z2 (ix ′, iy ′), Δx that satisfies the following expression may be calculated.

Figure 2006033232
Figure 2006033232

また、図の下段に示すように、座標(ix',iy')のy軸方向の位置をiy+Δyとし、Py=Z1(ix,iy+1)−Z1(ix,iy)とすると、Py・Δy=Z2(ix',iy')−Z1(ix,iy)となるようなΔyを求めればよい。ここでも、単にZ1=Z1(ix,iy)、Z2=Z2(ix',iy')で表すと、以下の式が成り立つようなΔyを算出すればよい。   Further, as shown in the lower part of the figure, if the position in the y-axis direction of the coordinates (ix ′, iy ′) is iy + Δy, and Py = Z1 (ix, iy + 1) −Z1 (ix, iy), then Py · Δy = What is necessary is just to obtain | require (DELTA) y which becomes Z2 (ix ', iy')-Z1 (ix, iy). Here, if expressed simply by Z1 = Z1 (ix, iy) and Z2 = Z2 (ix ′, iy ′), Δy may be calculated such that the following expression is satisfied.

Figure 2006033232
Figure 2006033232

そこで、x、y両方向を考慮すると、以下の式のS2を最小にするΔx、Δyを最小自乗法により求めればよい。 Therefore, in consideration of both x and y directions, Δx and Δy that minimize S 2 in the following equation may be obtained by the method of least squares.

Figure 2006033232
Figure 2006033232

以上、勾配法によりフレームがx軸方向とy軸方向に平行移動したとして並進補正量を求める手法を説明した。次に、図13を用いて回転の補正量について説明する。   As described above, the method for obtaining the translation correction amount assuming that the frame is translated in the x-axis direction and the y-axis direction by the gradient method has been described. Next, the rotation correction amount will be described with reference to FIG.

図13は、本実施例における画素の回転補正量を模式的に示す図である。図示するように、基準フレーム情報の座標(x,y)の原点Oからの距離をr、x軸からの回転角度をθとすると、r、θは以下の式により求められる。   FIG. 13 is a diagram schematically illustrating a pixel rotation correction amount in the present embodiment. As shown in the figure, when the distance from the origin O of the coordinates (x, y) of the reference frame information is r, and the rotation angle from the x axis is θ, r and θ are obtained by the following equations.

Figure 2006033232
Figure 2006033232
Figure 2006033232
Figure 2006033232

ここで、並進ずれが補正されているとして、基準フレームと対象フレームの原点を合わせておき、対象フレームでは座標(x,y)からδ回転して座標(x',y')になったとすると、この回転によるx軸方向の移動量とy軸方向の移動量は、以下の式により求められる。   Here, assuming that the translational deviation is corrected, the origins of the reference frame and the target frame are aligned, and the target frame is rotated by δ from the coordinate (x, y) to become the coordinate (x ′, y ′). The amount of movement in the x-axis direction and the amount of movement in the y-axis direction due to this rotation can be obtained by the following equations.

Figure 2006033232
Figure 2006033232
Figure 2006033232
Figure 2006033232

そこで、数13に記載の式におけるΔx,Δyは、並進補正量u,v、回転補正量δを用いて、以下の式で表される。   Therefore, Δx and Δy in the equation described in Equation 13 are expressed by the following equations using the translation correction amounts u and v and the rotation correction amount δ.

Figure 2006033232
Figure 2006033232
Figure 2006033232
Figure 2006033232

これらを数13に記載の式に代入すると、以下の式が得られる。   Substituting these into the equation described in Equation 13 yields the following equation:

Figure 2006033232
Figure 2006033232

すなわち、基準フレーム情報の座標を(ix,iy)として、基準フレーム情報の全画素の座標値と階調データ(輝度値)を数20に記載の式に代入したときに、S2を最小にするu,v,δを最小自乗法により求めればよい。 That is, when the coordinates of the reference frame information are (ix, iy) and the coordinate values and gradation data (luminance values) of all the pixels of the reference frame information are substituted into the equation of Equation 20, S 2 is minimized. What is necessary is just to obtain | require u, v, (delta) to carry out by the least square method.

図10に戻り説明を続ける。次に、画像処理装置100は、フレームF0〜F3を、推定された補正量を使用して、合成する(ステップS42)。具体的には、画像処理装置100は、補正量を用いて、対象フレームF1〜F3の画素位置を補正する(ステップS43)。画素位置の補正とは、対象フレームF1〜F3の各画素の画素位置を、並進の補正量に基づき、縦、横のそれぞれの補正量だけ移動し、回転の補正量だけ、回転をした画素位置に置き換えることを示す。かかる補正処理の結果、基準フレームF0および対象フレームF1〜F3は、重なり部分において一致する。   Returning to FIG. Next, the image processing apparatus 100 combines the frames F0 to F3 using the estimated correction amount (step S42). Specifically, the image processing apparatus 100 corrects the pixel positions of the target frames F1 to F3 using the correction amount (step S43). The pixel position correction means that the pixel position of each pixel of the target frames F1 to F3 is moved by the vertical and horizontal correction amounts based on the translation correction amount, and rotated by the rotation correction amount. Indicates replacement. As a result of such correction processing, the reference frame F0 and the target frames F1 to F3 coincide at the overlapping portion.

次に、画像処理装置100は、最近傍画素の決定を行う(ステップS44)。図14に、最近傍画素の決定処理を説明する模式図を示した。   Next, the image processing apparatus 100 determines the nearest pixel (step S44). FIG. 14 is a schematic diagram for explaining the nearest pixel determination process.

図14は、本実施例における最近傍画素決定処理を説明する模式図である。本図は、並進の補正量を例に挙げて説明している。画像処理装置100が実行する処理である。本図は、基準フレームF0、対象フレームF1〜F3の一致した画像の一部を拡大し、各フレームF0〜F3、および、フレームF0〜F3から得られる高解像度静止画像200の、それぞれの画素位置を示している。図中、黒丸は、高解像度静止画像200の各画素を表しており、白抜きの四辺形は基準フレームF0の各画素を表している。また、ステップS42において補正を行った対象フレームF1〜F3の各画素をそれぞれ異なるハッチングにより表した。本実施例では、高解像度静止画像200は、基準フレームF0に対して、1.5倍密の画素密度に高解像度化されている。従って、図示するように、高解像度静止画像200の各画素間の距離は、基準フレームF0の各画素間の距離の2/3となっている。図中の画素G(k)(kは画素位置を表す整数)のように高解像度静止画像200の画素のうち、縦横それぞれの方向に2画素おきにある画素は、基準フレームF0の画素と画素位置が一致することとなる。   FIG. 14 is a schematic diagram for explaining the nearest-neighbor pixel determination process in the present embodiment. This figure is described taking the translation correction amount as an example. This is a process executed by the image processing apparatus 100. This figure enlarges a part of the matched image of the reference frame F0 and the target frames F1 to F3, and each pixel position of the high-resolution still image 200 obtained from each of the frames F0 to F3 and the frames F0 to F3. Is shown. In the drawing, black circles represent pixels of the high-resolution still image 200, and white squares represent pixels of the reference frame F0. In addition, each pixel of the target frames F1 to F3 corrected in step S42 is represented by different hatching. In this embodiment, the high-resolution still image 200 is increased in resolution to a pixel density 1.5 times that of the reference frame F0. Accordingly, as illustrated, the distance between the pixels of the high-resolution still image 200 is 2/3 of the distance between the pixels of the reference frame F0. Among the pixels of the high-resolution still image 200 such as the pixel G (k) (k is an integer representing the pixel position) in the figure, the pixels that are every two pixels in the vertical and horizontal directions are the pixels and pixels of the reference frame F0. The positions will match.

高解像度静止画像200のj番目の画素G(j)に注目して説明する。以下、画素G(j)を注目画素と呼ぶこととする。画像処理装置100は、注目画素G(j)と、基準フレームF0の画素において注目画素G(j)の最も近くに存在する画素との距離L0を算出する。また、画像処理装置100は、ステップS42の補正処理後の対象フレームF1、F2、F3の画素において注目画素G(j)の最も近くに存在する画素との距離L1,L2,L3を算出する。   Description will be made by paying attention to the j-th pixel G (j) of the high-resolution still image 200. Hereinafter, the pixel G (j) is referred to as a target pixel. The image processing apparatus 100 calculates a distance L0 between the target pixel G (j) and a pixel that is closest to the target pixel G (j) in the pixels of the reference frame F0. Further, the image processing apparatus 100 calculates the distances L1, L2, and L3 with the pixels that are closest to the target pixel G (j) in the pixels of the target frames F1, F2, and F3 after the correction processing in step S42.

次に、画像処理装置100は、距離L0〜L3の値を比較し、注目画素G(j)に最も近い距離に存在する画素を決定する。以降、かかる画素を「最近傍画素」と呼ぶこととする。図示するように、距離L3である対象フレームF3上の画素が、注目画素G(j)に最も近い画素となっているため、画像処理装置100は、この画素を最近傍画素として決定する。以降、注目画素G(j)に対する最近傍画素が、対象フレームF3のi番目の画素であったとして、最近傍画素g(F3,i)と表すこととする。   Next, the image processing apparatus 100 compares the values of the distances L <b> 0 to L <b> 3 and determines a pixel that is present at a distance closest to the target pixel G (j). Hereinafter, such a pixel is referred to as a “nearest neighbor pixel”. As shown in the figure, since the pixel on the target frame F3 having the distance L3 is the pixel closest to the target pixel G (j), the image processing apparatus 100 determines this pixel as the nearest pixel. Hereinafter, it is assumed that the nearest pixel to the target pixel G (j) is the i-th pixel of the target frame F3 and is represented as the nearest pixel g (F3, i).

画像処理装置100は、以上の処理を高解像度静止画像200の全画素について順次実行し、各画素について最近傍画素を決定する。   The image processing apparatus 100 sequentially executes the above processing for all the pixels of the high-resolution still image 200 and determines the nearest pixel for each pixel.

図10に戻り、説明を続行する。画像処理装置100は、高解像度静止画像200における各画素の画素データを、他の画素の画素データから補間する(ステップS45)。本実施例では、画像処理装置100は、ステップS43において、決定した最近傍画素の画素データ、および、最近傍画素が属する対象フレーム内の画素データを用いる。図15に、画素補間処理を説明する説明図を示した。   Returning to FIG. 10, the description will be continued. The image processing apparatus 100 interpolates pixel data of each pixel in the high-resolution still image 200 from pixel data of other pixels (step S45). In this embodiment, the image processing apparatus 100 uses the pixel data of the nearest pixel determined in step S43 and the pixel data in the target frame to which the nearest pixel belongs. FIG. 15 is an explanatory diagram for explaining pixel interpolation processing.

図15は、本実施例における画素補間処理を説明する模式図である。本図では、ステップS43において、注目画素G(j)に対する最近傍画素は、最近傍画素g(F3,i)であると決定された場合の処理を例示した。   FIG. 15 is a schematic diagram for explaining pixel interpolation processing in the present embodiment. In this figure, the process in the case where it is determined in step S43 that the nearest pixel for the target pixel G (j) is the nearest pixel g (F3, i) is illustrated.

画像処理装置100は、最近傍画素g(F3,i)の他、この最近傍画素g(F3.i)とともに、注目画素G(j)を囲む画素g(F3,j)、画素g(F3.k)、画素g(F3,l)の、それぞれの画素データを用いて、バイ・リニア法により注目画素G(j)の画素データを求める。バイ・リニア法に限らず、バイ・キュービック法、ニアレストネイバ法等の方法を用いることとしてもよい。   In addition to the nearest pixel g (F3, i), the image processing apparatus 100, together with the nearest pixel g (F3.i), a pixel g (F3, j) and a pixel g (F3) surrounding the target pixel G (j). K) and pixel g (F3, l), the pixel data of the target pixel G (j) is obtained by the bilinear method. Not only the bi-linear method but also a method such as the bi-cubic method and the nearest neighbor method may be used.

画像処理装置100は、以上のように鮮明化処理を終え、作成した高解像度静止画像を高解像度静止画像格納部122に格納する。   The image processing apparatus 100 finishes the sharpening process as described above, and stores the created high-resolution still image in the high-resolution still image storage unit 122.

以上説明した第1実施例の画像処理装置100によれば、基準フレームと撮影時の状況が同一もしくは類似でないフレームを、高解像度静止画像の作成処理に使用する処理対象フレームから除外することができる。従って、鮮明化処理の精度を向上することができ、高品質の高解像度静止画像を作成することができる。   According to the image processing apparatus 100 of the first embodiment described above, frames whose shooting conditions are not the same as or similar to the reference frame can be excluded from the processing target frames used for the high-resolution still image creation process. . Therefore, the accuracy of the sharpening process can be improved, and a high-quality high-resolution still image can be created.

本実施例では、EV値を使用することとしているため、フラッシュなどにより急激に撮影条件が変化した場合に、その変化を検出することができる。従って、フラッシュがたかれたフレームを処理対象フレームから除外することができ、鮮明化処理の精度を向上することができる。EV値を使用することは、例えば、連写モードで撮影中に周囲からフラッシュがたかれた場合などに、有効である。   In this embodiment, since the EV value is used, it is possible to detect the change when the photographing condition is suddenly changed by a flash or the like. Therefore, the flashed frame can be excluded from the processing target frame, and the accuracy of the sharpening process can be improved. Using the EV value is effective, for example, when a flash is struck from the surroundings during shooting in the continuous shooting mode.

A4.第1実施例の変形例:
図16は、第1実施例の変形例を説明する説明図である。図16(a)は、Exif情報に記録されている被写体距離に基づき選択される処理対象フレームを模式的に説明する説明図である。図中、「SD」は「Subject Distance」の略であり、被写体までの距離を表す。本変形例は、実施例において説明した図5のステップS20およびS23において、EV値の算出に代えて各フレームのExif情報から被写体距離を取得し、ステップS24において、「EV値」の差分に代えて「SD」の差分を算出することにより実現できる。本変形例では、ステップS25における所定値を「1」とする。こうすることにより、画像処理装置100は、基準フレームと注目フレームの被写体距離の差が1m以下である場合には撮影条件は同一もしくは類似であると判断することができる。
A4. Modification of the first embodiment:
FIG. 16 is an explanatory diagram for explaining a modification of the first embodiment. FIG. 16A is an explanatory diagram schematically illustrating a processing target frame selected based on a subject distance recorded in Exif information. In the figure, “SD” is an abbreviation for “Subject Distance” and represents the distance to the subject. In this modification, the subject distance is acquired from the Exif information of each frame instead of calculating the EV value in steps S20 and S23 of FIG. This can be realized by calculating the difference of “SD”. In this modification, the predetermined value in step S25 is “1”. By doing so, the image processing apparatus 100 can determine that the shooting conditions are the same or similar when the difference in subject distance between the reference frame and the target frame is 1 m or less.

図示するように、基準フレーム13は「SD=5.2」であり、フレーム10〜12、14も「SD=5.2」である。また、フレーム15,16は「SD=10.5」である。従って、一点鎖線枠で示したフレーム15、16は、基準フレーム13と撮影条件が異なると判断され、処理対象フレームから除外される。処理対象フレームは基準フレームを含めて4枚であるため、破線枠で示す基準フレーム13と、フレーム11,12,14が処理対象フレームとして選択される。   As shown in the drawing, the reference frame 13 is “SD = 5.2”, and the frames 10 to 12 and 14 are also “SD = 5.2”. The frames 15 and 16 have “SD = 10.5”. Accordingly, the frames 15 and 16 indicated by the one-dot chain line frame are determined to have different shooting conditions from the reference frame 13 and are excluded from the processing target frames. Since there are four processing target frames including the reference frame, the reference frame 13 indicated by the broken line frame and the frames 11, 12, and 14 are selected as the processing target frames.

本変形例によれば、Exif情報に記録された被写体距離をそのまま用いて撮影状況の類否判断を行うことができ、処理負荷を軽減することができる。また、被写体距離を用いることにより、ピントがずれた場合や、被写体の動きが大きい場合など鮮明化処理に不適なフレームを処理対象フレームから除外することができ、鮮明化処理の精度を向上することができる。   According to this modification, it is possible to determine the similarity of the shooting situation using the subject distance recorded in the Exif information as it is, and to reduce the processing load. Also, by using the subject distance, frames that are not suitable for sharpening processing, such as when the subject is out of focus or when the subject's movement is large, can be excluded from the processing target frames, thereby improving the accuracy of the sharpening processing. Can do.

図16(b)は、Exif情報に記録されている焦点距離基づき選択される処理対象フレームを模式的に説明する説明図である。図中、「FL」は「Focal Length」の略であり、レンズ焦点距離を表す。本変形例は、実施例において説明した図5のステップS20およびS23において、EV値の算出に代えて各フレームのExif情報から焦点距離を取得し、ステップS24において、「EV値」の差分に代えて「FL」の差分を算出することにより実現できる。本変形例では、ステップS25における所定値を「0」とする。すなわち、焦点距離が一致しない場合には、撮影条件が異なると判断する。差が微少値である場合には許容することとしてもよい。   FIG. 16B is an explanatory diagram schematically illustrating a processing target frame selected based on the focal length recorded in the Exif information. In the figure, “FL” is an abbreviation for “Focal Length” and represents a lens focal length. In this modification, the focal length is obtained from the Exif information of each frame instead of the calculation of the EV value in steps S20 and S23 of FIG. 5 described in the embodiment, and the difference of the “EV value” is replaced in step S24. This can be realized by calculating the difference of “FL”. In this modification, the predetermined value in step S25 is “0”. That is, if the focal lengths do not match, it is determined that the shooting conditions are different. When the difference is a minute value, it may be allowed.

図示するように、基準フレーム13は「FL=6.4」であり、フレーム10〜12も「FL=6.4」である。また、フレーム14〜16は「FL=5.9」である。従って、一点鎖線枠内のフレーム14〜16は、基準フレーム13と撮影条件が異なると判断され、処理対象フレームから除外される。処理対象フレームは基準フレームを含めて4枚であるため、破線枠内の基準フレーム13と、フレーム10〜12が処理対象フレームとして選択される。   As shown in the drawing, the reference frame 13 is “FL = 6.4”, and the frames 10 to 12 are also “FL = 6.4”. The frames 14 to 16 have “FL = 5.9”. Accordingly, the frames 14 to 16 in the one-dot chain line frame are determined to have different shooting conditions from the reference frame 13 and are excluded from the processing target frames. Since there are four processing target frames including the reference frame, the reference frame 13 and the frames 10 to 12 in the broken line frame are selected as the processing target frames.

本変形例によれば、Exif情報に記録された焦点距離をそのまま用いて撮影状況の類否判断を行うことができ、処理負荷を軽減することができる。また、焦点距離を用いることにより、ズーム操作が行われた場合などを検出することができる。ズーム操作が行われると鮮明化処理においてずれ検出の精度が低下するため、これらのフレームを処理対象フレームから除外することにより、鮮明化処理の精度を向上することができる。   According to this modification, it is possible to determine the similarity of the shooting situation using the focal length recorded in the Exif information as it is, and the processing load can be reduced. Further, by using the focal length, it is possible to detect a case where a zoom operation is performed. When the zoom operation is performed, the accuracy of deviation detection is lowered in the sharpening process. Therefore, the precision of the sharpening process can be improved by excluding these frames from the processing target frames.

B.第2実施例:
上述した第1実施例では、Exif情報に記録された情報に基づき撮影条件が同一もしくは類似であるか否かを判断し、処理対象フレームを選択することとした。第2実施例では、フレームを解析して得られる輝度情報に基づき、撮影条件が同一もしくは類似であるか否かを判断し、処理対象フレームを選択することとした。本実施例におけるシステム構成は第1実施例と同様であり、図2,図4、図6〜15に示した画像処理装置100の機能ブロックや鮮明化処理等は共通しているため、説明を省略する。ただし、図2に示した撮影条件判定部106は、フレームの輝度情報を算出する機能を備えていることとする。すなわち、撮影条件判定部106の一部として、本発明の画像情報作成部が構成されている。
B. Second embodiment:
In the first embodiment described above, it is determined whether the shooting conditions are the same or similar based on the information recorded in the Exif information, and the processing target frame is selected. In the second embodiment, based on the luminance information obtained by analyzing the frame, it is determined whether the shooting conditions are the same or similar, and the processing target frame is selected. The system configuration in this embodiment is the same as that in the first embodiment, and the functional blocks and the sharpening processing of the image processing apparatus 100 shown in FIGS. Omitted. However, the imaging condition determination unit 106 illustrated in FIG. 2 has a function of calculating frame luminance information. That is, the image information creation unit of the present invention is configured as a part of the imaging condition determination unit 106.

B1.撮影状況判断処理:
図17は本実施例における処理対象フレーム選択処理を説明するフローチャートである。図4のステップS11の処理の詳細を説明する図である。
B1. Shooting situation judgment processing:
FIG. 17 is a flowchart for explaining processing target frame selection processing in the present embodiment. It is a figure explaining the detail of the process of step S11 of FIG.

画像処理装置100は、基準フレームを指定すると(図4:ステップS10)、基準フレームの輝度値の平均を算出する(ステップS50)。輝度値の平均の算出処理を図18に示した。   When the reference frame is designated (FIG. 4: step S10), the image processing apparatus 100 calculates the average of the luminance values of the reference frame (step S50). The process for calculating the average of the luminance values is shown in FIG.

図18は、本実施例におけるフレームの輝度値の平均の算出処理を説明するフローチャートである。この処理は、画像処理装置100の撮影条件判定部106が行う処理である。撮影条件判定部106は、各フレームの全画素について、RGB空間からYCbCr空間に変換する色変換処理を行う(ステップS60)。かかる色変換処理は以下の式を適用することにより実現できる。   FIG. 18 is a flowchart for explaining the calculation process of the average of the luminance values of the frames in this embodiment. This process is a process performed by the imaging condition determination unit 106 of the image processing apparatus 100. The imaging condition determination unit 106 performs color conversion processing for converting all the pixels of each frame from the RGB space to the YCbCr space (step S60). Such color conversion processing can be realized by applying the following equation.

Figure 2006033232
Figure 2006033232

YCbCr空間では、Yは輝度値を表し、Cb値、Cr値は色差を表す。撮影条件判定部106は、全画素の輝度値の合計を画素数で除算することにより、フレームの輝度値の平均を算出する(ステップS61)。   In the YCbCr space, Y represents a luminance value, and the Cb value and the Cr value represent color differences. The shooting condition determination unit 106 calculates the average of the luminance values of the frames by dividing the sum of the luminance values of all the pixels by the number of pixels (step S61).

図17に戻り説明を続行する。画像処理装置100は、注目フレームを指定し(ステップS51)、基準フレームと注目フレームとの時系列距離に基づき、その注目フレームで処理を続行するか否かを判断する(ステップS52)。基準フレームと注目フレームとの時系列距離が制限範囲内であると判断された場合には、注目フレームの輝度値の平均を算出し(ステップS53)、基準フレームの輝度値の平均と注目フレームの輝度値の平均の変化量d3を算出する(ステップS54)。変化量d3が、所定値以下であるか否かによって、両フレーム間の撮影状況が同一もしくは類似であるか否かを判断する。本実施例では、この所定値を「5」とする。変化量d3が所定値以下でない場合(ステップS55:NO)、すなわち、両フレーム間の撮影状況が同一もしくは類似でないと判断した場合には、次の注目フレームを指定し(ステップS58)、ステップS52から処理を繰り返す。   Returning to FIG. 17, the description will be continued. The image processing apparatus 100 designates a frame of interest (step S51), and determines whether or not to continue the process with the frame of interest based on the time-series distance between the reference frame and the frame of interest (step S52). When it is determined that the time series distance between the reference frame and the target frame is within the limit range, the average luminance value of the target frame is calculated (step S53), and the average luminance value of the reference frame and the target frame are calculated. An average change amount d3 of the luminance value is calculated (step S54). It is determined whether or not the shooting situation between both frames is the same or similar depending on whether or not the change amount d3 is equal to or less than a predetermined value. In this embodiment, this predetermined value is “5”. If the amount of change d3 is not less than or equal to the predetermined value (step S55: NO), that is, if it is determined that the shooting situation between both frames is not the same or similar, the next frame of interest is designated (step S58), and step S52 Repeat the process.

画像処理装置100は、変化量d3が所定値以下である場合(ステップS55:YES)、すなわち、両フレーム間の撮影状況が同一もしくは類似であると判断した場合には、注目フレームを処理対象フレームとして選択し(ステップS56)、処理対象フレームが所定枚数以上となったか否かを判断する(ステップS57)。所定枚数になっていない場合(ステップS57:NO)には、次の注目フレームを指定する(ステップS58)。所定枚数となった場合(ステップS57:YES)には、選択した処理対象フレームに基づき、鮮明化処理を実行して高解像度静止画像を作成する(図4:ステップS12)。   When the amount of change d3 is equal to or smaller than the predetermined value (step S55: YES), that is, when the image processing apparatus 100 determines that the shooting situation between both frames is the same or similar, the image processing apparatus 100 sets the target frame as the processing target frame. Is selected (step S56), and it is determined whether or not the number of frames to be processed exceeds a predetermined number (step S57). If the predetermined number has not been reached (step S57: NO), the next frame of interest is designated (step S58). When the predetermined number is reached (step S57: YES), a high-resolution still image is created by executing a sharpening process based on the selected processing target frame (FIG. 4: step S12).

図19は、本実施例における処理対象フレームを模式的に説明する説明図である。動画像MV2は、時系列に連続した複数のフレーム70〜76から構成されている。クロスハッチを付したフレーム73は、基準フレームである。図に、各フレームの輝度値の平均(Y)を示した。本実施例では、フレームの輝度値と基準フレーム73の輝度値「Y=156」との差が5以内であるフレームを処理対象フレームとして選択する。   FIG. 19 is an explanatory diagram schematically illustrating a processing target frame in the present embodiment. The moving image MV2 is composed of a plurality of frames 70 to 76 that are continuous in time series. A frame 73 with a cross hatch is a reference frame. In the figure, the average (Y) of the luminance values of each frame is shown. In this embodiment, a frame in which the difference between the luminance value of the frame and the luminance value “Y = 156” of the reference frame 73 is within 5 is selected as a processing target frame.

従って、本実施例において、処理対象フレームとして選択されるフレームは、基準フレームの73と、フレーム71,72、75の4枚である。フレーム74のように、基準フレーム73の最近傍に位置していても、基準フレームの輝度値と「9」離れているということから、撮影時の明るさが急激に変化しており、処理対象フレームから除外される。明るさが急激に変化しているフレームは鮮明化処理に不適であるため、このようなフレームを処理対象フレームから除外することにより鮮明化処理の精度を向上することができる。   Therefore, in this embodiment, the four frames selected as the processing target frames are the reference frame 73 and the frames 71, 72, and 75. Even if it is located closest to the reference frame 73 as in the case of the frame 74, the brightness value at the time of shooting changes drastically because it is away from the brightness value of the reference frame by “9”. Excluded from the frame. Since the frame whose brightness changes rapidly is not suitable for the sharpening process, the accuracy of the sharpening process can be improved by excluding such a frame from the processing target frame.

本発明の第2実施例によれば、画像間の輝度情報の急峻な変化、すなわち、画像間の明るさの変化に基づき、画像を高解像度静止画像の作成処理に用いるか否かを判断することができる。したがって、鮮明化処理の精度を向上することができる。本実施例は、各フレームに、Exif情報などの撮影条件等を記録した付加情報が関連付けられていない場合にも有効である。   According to the second embodiment of the present invention, it is determined whether or not an image is used for high-resolution still image creation processing based on a sharp change in luminance information between images, that is, a change in brightness between images. be able to. Therefore, the accuracy of the sharpening process can be improved. The present embodiment is also effective when additional information in which shooting conditions such as Exif information are recorded is not associated with each frame.

C.変形例:
以上、本発明の種々の実施例について説明したが、本発明はこれらの実施例に限定されず、その趣旨を逸脱しない範囲で種々の構成をとることができることは言うまでもない。
C. Variations:
Although various embodiments of the present invention have been described above, it is needless to say that the present invention is not limited to these embodiments and can take various configurations without departing from the spirit of the present invention.

第1実施例におけるシステム概要を例示する説明図である。It is explanatory drawing which illustrates the system outline | summary in 1st Example. 第1実施例における画像処理装置の機能ブロックを例示する説明図である。It is explanatory drawing which illustrates the functional block of the image processing apparatus in 1st Example. 第1実施例におけるExif情報を例示する説明図である。It is explanatory drawing which illustrates Exif information in 1st Example. 第1実施例における高解像度静止画像作成処理の全体処理を説明するフローチャートである。It is a flowchart explaining the whole process of the high-resolution still image creation process in 1st Example. 第1実施例における処理対象選択処理を説明するフローチャートである。It is a flowchart explaining the process target selection process in 1st Example. 第1実施例における時系列距離判断処理を説明するフローチャートである。It is a flowchart explaining the time-sequential distance judgment process in 1st Example. 第1実施例における時系列距離の判断処理を模式的に示した模式図である。It is the schematic diagram which showed typically the judgment processing of the time series distance in 1st Example. 第1実施例における選択案内画面の画面例である。It is a screen example of the selection guidance screen in 1st Example. 第1実施例における注目フレーム指定処理を模式的に示した説明図である。It is explanatory drawing which showed typically the attention frame designation | designated process in 1st Example. 第1実施例における鮮明化処理を説明するフローチャートである。It is a flowchart explaining the sharpening process in 1st Example. 第1実施例におけるパターンマッチ法により並進補正量を推定する様子を模式的に示す図である。It is a figure which shows typically a mode that the translation correction amount is estimated by the pattern matching method in 1st Example. 第1実施例における勾配法による並進補正量を推定する様子を模式的に示す図である。It is a figure which shows typically a mode that the translation correction amount by the gradient method in 1st Example is estimated. 第1実施例における画素の回転補正量を模式的に示す図である。It is a figure which shows typically the rotation correction amount of the pixel in 1st Example. 第1実施例における最近傍画素決定処理を説明する模式図である。It is a schematic diagram explaining the nearest pixel determination process in 1st Example. 第1実施例における画素補間処理を説明する模式図である。It is a schematic diagram explaining the pixel interpolation process in 1st Example. 第1実施例の変形例を説明する説明図である。It is explanatory drawing explaining the modification of 1st Example. 第2実施例における処理対象フレーム選択処理を説明するフローチャートである。It is a flowchart explaining the process target frame selection process in 2nd Example. 第2実施例におけるフレームの輝度値の平均の算出処理を説明するフローチャートである。It is a flowchart explaining the calculation process of the average of the luminance value of the flame | frame in 2nd Example. 第2実施例における処理対象フレームを模式的に説明する説明図である。It is explanatory drawing which illustrates typically the process target frame in 2nd Example.

符号の説明Explanation of symbols

10〜16,70〜76...フレーム
13、73...基準フレーム
20...Exif情報
21...画像データ
100...画像処理装置
101...CPU
102...インターフェース
103...画像読込部
104...フレーム指定部
105...時系列距離判断部
106...撮影条件判定部
107...対象フレーム選択部
108...鮮明化処理部
120...ハードディスク
121...画像格納部
122...高解像度静止画像格納部
200...高解像度静止画像
300...選択案内画面
301...案内メッセージ表示部
302...選択部
303...OKボタン
310,311,312...ラジオボタン
10 to 16, 70 to 76 ... Frame 13, 73 ... Reference frame 20 ... Exif information 21 ... Image data 100 ... Image processing apparatus 101 ... CPU
DESCRIPTION OF SYMBOLS 102 ... Interface 103 ... Image reading part 104 ... Frame designation part 105 ... Time series distance judgment part 106 ... Shooting condition judgment part 107 ... Target frame selection part 108 ... Sharpening Processing unit 120 ... Hard disk 121 ... Image storage unit 122 ... High resolution still image storage unit 200 ... High resolution still image 300 ... Selection guide screen 301 ... Guidance message display unit 302 .. Selection section 303 ... OK button 310, 311, 312 ... radio button

Claims (12)

画像処理装置であって、
時系列に連続する複数の画像を読み込む画像読込部と、
前記複数の画像から基準画像を指定する基準画像指定部と、
前記複数の画像のそれぞれの撮影時の状況を特定可能な画像情報を取得する画像情報取得部と、
前記複数の画像から前記基準画像を除いた各画像のうちの1つを注目画像として選択し、前記注目画像の前記画像情報と、前記基準画像の前記画像情報とに基づき、前記注目画像と前記基準画像との前記撮影時の状況が同一もしくは類似であるか否かを判定する判定部と、
前記判定により前記基準画像と前記撮影時の状況が同一もしくは類似すると判定された前記注目画像を対象画像として選択する選択部と、
前記対象画像および前記基準画像に基づき、前記複数の画像の解像度よりも解像度の高い高解像度静止画像を作成する画像作成部とを備える画像処理装置。
An image processing apparatus,
An image reading unit for reading a plurality of continuous images in time series,
A reference image designating unit for designating a reference image from the plurality of images;
An image information acquisition unit for acquiring image information capable of specifying a situation at the time of shooting each of the plurality of images;
One of the images obtained by removing the reference image from the plurality of images is selected as an attention image, and the attention image and the image based on the image information of the attention image and the image information of the reference image A determination unit that determines whether the situation at the time of shooting with the reference image is the same or similar;
A selection unit that selects, as a target image, the target image determined by the determination that the reference image and the situation at the time of shooting are the same or similar;
An image processing apparatus comprising: an image creation unit that creates a high-resolution still image having a resolution higher than that of the plurality of images based on the target image and the reference image.
請求項1記載の画像処理装置であって、
更に、
前記判定部による判定に先立ち、前記基準画像と、前記注目画像との時系列的な距離が、所定範囲内であるかを判断する画像距離判断部とを備え、
前記判定部は、前記画像距離判断部により、前記所定範囲内であると判断された前記注目画像について、前記同一もしくは類似であるか否かの判定を行う画像処理装置。
The image processing apparatus according to claim 1,
Furthermore,
Prior to determination by the determination unit, an image distance determination unit that determines whether a time-series distance between the reference image and the target image is within a predetermined range,
The determination unit is an image processing device that determines whether or not the target image determined to be within the predetermined range by the image distance determination unit is the same or similar.
請求項1または請求項2記載の画像処理装置であって、
前記画像情報は、前記複数の画像の各画像に関連付けられた前記各画像の撮影時の撮影条件であり、
前記画像取得部は、前記画像情報を取得する画像処理装置。
The image processing apparatus according to claim 1 or 2,
The image information is a shooting condition at the time of shooting each image associated with each image of the plurality of images,
The image acquisition unit is an image processing apparatus that acquires the image information.
請求項3記載の画像処理装置であって、
前記画像情報には、前記撮影時のISO感度、露出時間、および、絞り値が含まれており、
前記判定部は、前記画像情報から前記各画像の露出値を算出し、前記基準画像の前記露出値と、前記注目画像の前記露出値との差が所定値以下の場合に、前記同一もしくは類似であると判定する画像処理装置。
The image processing apparatus according to claim 3,
The image information includes ISO sensitivity at the time of shooting, exposure time, and aperture value.
The determination unit calculates an exposure value of each image from the image information, and when the difference between the exposure value of the reference image and the exposure value of the target image is equal to or less than a predetermined value, the same or similar An image processing apparatus that determines that
請求項3記載の画像処理装置であって、
前記画像情報には、前記撮影時の被写体までの距離が含まれており、
前記判定部は、前記基準画像の前記被写体までの距離と、前記注目画像の前記被写体までの距離との差が所定値以下の場合に、前記同一もしくは類似であると判定する画像処理装置。
The image processing apparatus according to claim 3,
The image information includes a distance to the subject at the time of shooting,
The determination unit is an image processing apparatus that determines that the difference is the same or similar when a difference between a distance to the subject of the reference image and a distance to the subject of the attention image is a predetermined value or less.
請求項3記載の画像処理装置であって、
前記画像情報には、前記撮影時の焦点距離が含まれており、
前記判定部は、前記基準画像の前記焦点距離と、前記注目画像の前記焦点距離との差が所定値以下の場合に、前記同一もしくは類似であると判定する画像処理装置。
The image processing apparatus according to claim 3,
The image information includes a focal length at the time of shooting,
The determination unit is an image processing apparatus that determines that the difference is the same or similar when a difference between the focal distance of the reference image and the focal distance of the target image is a predetermined value or less.
請求項3〜請求項6いずれか記載の画像処理装置であって、
前記画像情報とは、Exif情報である画像処理装置。
An image processing apparatus according to any one of claims 3 to 6,
The image information is an image processing apparatus that is Exif information.
請求項1または請求項2記載の画像処理装置であって、
更に、
前記複数の画像を解析し、前記解析結果に基づき、前記画像情報を生成する画像情報生成部を備える画像処理装置。
The image processing apparatus according to claim 1 or 2,
Furthermore,
An image processing apparatus comprising: an image information generation unit that analyzes the plurality of images and generates the image information based on the analysis result.
請求項8記載の画像処理装置であって、
前記画像情報生成部は、前記複数の画像のそれぞれの輝度情報を解析して、前記輝度情報に基づき前記画像情報を生成し、
前記判定部は、前記基準画像の前記輝度情報と、前記注目画像の前記輝度情報との差が所定値以下の場合に、前記同一もしくは類似であると判定する画像処理装置。
The image processing apparatus according to claim 8, wherein
The image information generation unit analyzes the luminance information of each of the plurality of images, generates the image information based on the luminance information,
The determination unit is an image processing apparatus that determines that the difference is the same or similar when a difference between the luminance information of the reference image and the luminance information of the target image is a predetermined value or less.
画像処理装置が行う画像処理方法であって、
(a)時系列に連続した複数の画像を読み込む工程と、
(b)前記複数の画像から基準画像を指定する工程と、
(c)前記複数の画像のそれぞれの撮影時の状況を特定可能な画像情報を取得する工程と、
(d)前記複数の画像から前記基準画像を除いた各画像のうちの1つを注目画像として選択し、前記注目画像の前記画像情報と、前記基準画像の前記画像情報とに基づき、前記注目画像と前記基準画像との前記撮影時の状況が同一もしくは類似であるか否かを判定する工程と、
(e)前記判定により前記基準画像と前記撮影時の状況が同一もしくは類似すると判定された前記注目画像を対象画像として選択する工程と、
(f)前記対象画像および前記基準画像に基づき、前記複数の画像の解像度よりも解像度の高い高解像度静止画像を作成する工程とを備える画像処理方法。
An image processing method performed by an image processing apparatus,
(A) reading a plurality of continuous images in time series;
(B) designating a reference image from the plurality of images;
(C) obtaining image information capable of specifying a situation at the time of photographing each of the plurality of images;
(D) selecting one of the images obtained by removing the reference image from the plurality of images as the attention image, and based on the image information of the attention image and the image information of the reference image, Determining whether the situation at the time of shooting of the image and the reference image is the same or similar;
(E) selecting the target image determined by the determination that the reference image and the situation at the time of shooting are the same or similar as a target image;
(F) An image processing method comprising: creating a high-resolution still image having a resolution higher than that of the plurality of images based on the target image and the reference image.
コンピュータに、画像処理を実行させるためのコンピュータプログラムであって、
時系列に連続した複数の画像を読み込む機能と、
前記複数の画像から基準画像を指定する機能と、
前記複数の画像のそれぞれの撮影時の状況を特定可能な画像情報を取得する機能と、
前記複数の画像から前記基準画像を除いた各画像のうちの1つを注目画像として選択し、前記注目画像の前記画像情報と、前記基準画像の前記画像情報とに基づき、前記注目画像と前記基準画像との前記撮影時の状況が同一もしくは類似であるか否かを判定する機能と、
前記判定により前記基準画像と前記撮影時の状況が同一もしくは類似すると判定された前記注目画像を対象画像として選択する機能と、
前記対象画像および前記基準画像に基づき、前記複数の画像の解像度よりも解像度の高い高解像度静止画像を作成する機能とをコンピュータに実行させるためのコンピュータプログラム。
A computer program for causing a computer to execute image processing,
The ability to read multiple images in time series,
A function of designating a reference image from the plurality of images;
A function of acquiring image information capable of specifying a situation at the time of shooting each of the plurality of images;
One of the images obtained by removing the reference image from the plurality of images is selected as an attention image, and the attention image and the image based on the image information of the attention image and the image information of the reference image A function of determining whether the situation at the time of shooting with the reference image is the same or similar;
A function for selecting, as a target image, the target image determined by the determination that the reference image and the situation at the time of shooting are the same or similar;
A computer program for causing a computer to execute a function of creating a high-resolution still image having a resolution higher than that of the plurality of images based on the target image and the reference image.
請求項11記載のコンピュータプログラムをコンピュータ読み取り可能に記録した記録媒体。   The recording medium which recorded the computer program of Claim 11 so that computer reading was possible.
JP2004206995A 2004-07-14 2004-07-14 Image processing apparatus Pending JP2006033232A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004206995A JP2006033232A (en) 2004-07-14 2004-07-14 Image processing apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004206995A JP2006033232A (en) 2004-07-14 2004-07-14 Image processing apparatus

Publications (1)

Publication Number Publication Date
JP2006033232A true JP2006033232A (en) 2006-02-02

Family

ID=35899079

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004206995A Pending JP2006033232A (en) 2004-07-14 2004-07-14 Image processing apparatus

Country Status (1)

Country Link
JP (1) JP2006033232A (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007151080A (en) * 2005-10-27 2007-06-14 Canon Inc Image processor and image processing method
JP2009231871A (en) * 2008-03-19 2009-10-08 Fuji Xerox Co Ltd Image processor and image processing program
JP2010056771A (en) * 2008-08-27 2010-03-11 Ricoh Co Ltd Device and method for reading image, program, and storage medium
JP2010198346A (en) * 2009-02-25 2010-09-09 Toshiba Corp Apparatus and method for processing image
JP2010273268A (en) * 2009-05-25 2010-12-02 Nikon Corp Image reproducing device, imaging apparatus, image reproducing method, and image reproducing program
WO2011024249A1 (en) * 2009-08-24 2011-03-03 キヤノン株式会社 Image processing device, image processing method, and image processing program
US7956899B2 (en) 2007-08-29 2011-06-07 Sanyo Electric Co., Ltd. Imaging device and image processing apparatus

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007151080A (en) * 2005-10-27 2007-06-14 Canon Inc Image processor and image processing method
US7956899B2 (en) 2007-08-29 2011-06-07 Sanyo Electric Co., Ltd. Imaging device and image processing apparatus
US8411172B2 (en) 2007-08-29 2013-04-02 Sanyo Electric Co., Ltd. Imaging device and image processing apparatus
JP2009231871A (en) * 2008-03-19 2009-10-08 Fuji Xerox Co Ltd Image processor and image processing program
JP2010056771A (en) * 2008-08-27 2010-03-11 Ricoh Co Ltd Device and method for reading image, program, and storage medium
JP2010198346A (en) * 2009-02-25 2010-09-09 Toshiba Corp Apparatus and method for processing image
JP2010273268A (en) * 2009-05-25 2010-12-02 Nikon Corp Image reproducing device, imaging apparatus, image reproducing method, and image reproducing program
WO2011024249A1 (en) * 2009-08-24 2011-03-03 キヤノン株式会社 Image processing device, image processing method, and image processing program
US8571356B2 (en) 2009-08-24 2013-10-29 Canon Kabushiki Kaisha Image processing apparatus, image processing method, and image processing program
JP5587322B2 (en) * 2009-08-24 2014-09-10 キヤノン株式会社 Image processing apparatus, image processing method, and image processing program

Similar Documents

Publication Publication Date Title
JP4120677B2 (en) Generation of still images from multiple frame images
US8004570B2 (en) Image processing apparatus, image-pickup apparatus, and image processing method
JP4325625B2 (en) Image processing apparatus, image processing method, program thereof, and recording medium
US9253388B2 (en) Image processing device and method, and program
US20100157107A1 (en) Image Apparatus And Electronic Apparatus
JP2007072606A (en) Image processor and processing method
JP2005354124A (en) Production of high pixel density image from a plurality of low pixel density images
US20090189900A1 (en) Image processing apparatus, image processing program, image production method, and recording medium
JP6671994B2 (en) Imaging device and control method therefor, program, storage medium
CN107040713B (en) Motion vector detection apparatus, control method therefor, and image pickup apparatus
JP2006148260A (en) Automatic tracking device, image abnormality detector, automatic tracking method, image abnormality detecting method, program and storage medium
JP2008118555A (en) Image processor, image pickup device, and image processing method
JP6604908B2 (en) Image processing apparatus, control method thereof, and control program
JP2006033232A (en) Image processing apparatus
JP4636786B2 (en) Captured image projection device, image processing method and program for captured image projection device
JP4479396B2 (en) Image processing apparatus, image processing method, and image processing program
US10362213B2 (en) Imaging apparatus and imaging method
JP2009118434A (en) Blurring correction device and imaging apparatus
JP5340021B2 (en) Image processing apparatus, image processing method, and program
JP6545229B2 (en) IMAGE PROCESSING APPARATUS, IMAGING APPARATUS, CONTROL METHOD OF IMAGE PROCESSING APPARATUS, AND PROGRAM
JP2005217618A (en) Image processing method, image processing apparatus, and image processing program
JP2009027437A (en) Image processor, image processing method and imaging device
JP2005129996A (en) Efficiency enhancement for generation of high-resolution image from a plurality of low resolution images
JP2005217721A (en) Apparatus and method for generating still picture
JP4735649B2 (en) Image projection device