JP2006033232A - Image processing apparatus - Google Patents
Image processing apparatus Download PDFInfo
- Publication number
- JP2006033232A JP2006033232A JP2004206995A JP2004206995A JP2006033232A JP 2006033232 A JP2006033232 A JP 2006033232A JP 2004206995 A JP2004206995 A JP 2004206995A JP 2004206995 A JP2004206995 A JP 2004206995A JP 2006033232 A JP2006033232 A JP 2006033232A
- Authority
- JP
- Japan
- Prior art keywords
- image
- processing apparatus
- images
- frame
- image processing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Abstract
Description
本発明は、複数の画像から、より解像度の高い静止画像を作成する画像処理装置に関するものである。 The present invention relates to an image processing apparatus that creates a still image with higher resolution from a plurality of images.
近年、時系列に連続する複数の画像から構成されている動画像から、高解像度の画像を作成する画像処理装置が普及しつつある。画像処理装置は、例えば、複数の画像のうち、基準となる画像と、基準画像の前後の画像との画素のずれに基づいて間欠画素の補間を行い、高解像度静止画像を作成する。 2. Description of the Related Art In recent years, image processing apparatuses that create high-resolution images from moving images composed of a plurality of images that are continuous in time series are becoming popular. For example, the image processing apparatus performs intermittent pixel interpolation based on a pixel shift between a reference image and images before and after the reference image, and creates a high-resolution still image.
最近では、複数の画像中に、複雑な動きをしていたり、非常に高速で動いていたりする被写体が含まれる場合にも、画質の劣化を抑制しつつ、解像度の高い画像を作成する技術が提案されている(特許文献1参照)。 Recently, there is a technology to create high-resolution images while suppressing deterioration in image quality even when multiple images include subjects that move in a complex manner or move at a very high speed. It has been proposed (see Patent Document 1).
しかしながら、従来の技術では、フラッシュやズーム操作などによる撮影状況の急激な変化による画質の劣化を考慮していなかった。撮影状況の急激な変化とは、例えば、動画像の撮影時に、周囲からフラッシュが間欠的にたかれ、動画像を構成する複数の画像の一部だけ露出値が高くなる場合、撮影時にズーム操作が行われた場合には、複数の画像の焦点距離が異なる場合がある。撮影中にこのような撮影状況の急激な変化があった場合には、各画像間の画素のずれの検出精度が低下し、高解像度静止画像の画質の劣化を余儀なくされていた。 However, the conventional technology does not take into account image quality deterioration due to a sudden change in the shooting state due to a flash or zoom operation. An abrupt change in the shooting situation means that, for example, when a moving image is shot, the flash is intermittently applied from the surroundings, and the exposure value increases only for some of the images that make up the moving image. In some cases, the focal lengths of a plurality of images may be different. When such a rapid change in the shooting situation occurs during shooting, the detection accuracy of the pixel shift between the images is lowered, and the image quality of the high-resolution still image is inevitably deteriorated.
本発明は、上述した課題に鑑みてなされたものであり、急激な撮影状況の変化を検出し、画像処理に反映することにより、画質の劣化を抑制しつつ、解像度の高い静止画像を作成する技術を提供することを目的とする。 The present invention has been made in view of the above-described problems, and detects a sudden change in the shooting situation and reflects it in image processing, thereby creating a still image with high resolution while suppressing deterioration in image quality. The purpose is to provide technology.
上述した課題の少なくとも一部を解決するため、本発明は、以下の構成をとることとした。すなわち、
画像処理装置において、
時系列に連続した複数の画像を読み込む画像読込部と、
前記複数の画像から基準画像を指定する基準画像指定部と、
前記複数の画像のそれぞれの撮影時の状況を特定可能な画像情報を取得する画像情報取得部と、
前記複数の画像から前記基準画像を除いた各画像のうちの1つを注目画像として選択し、前記注目画像の前記画像情報と、前記基準画像の前記画像情報とに基づき、前記注目画像と前記基準画像との前記撮影時の状況が同一もしくは類似であるか否かを判定する判定部と、
前記判定により前記基準画像と前記撮影時の状況が同一もしくは類似すると判定された前記注目画像を対象画像として選択する選択部と、
前記対象画像および前記基準画像に基づき、前記複数の画像の解像度よりも解像度の高い高解像度静止画像を作成する画像作成部とを備えることを要旨とする。
In order to solve at least a part of the problems described above, the present invention has the following configuration. That is,
In the image processing apparatus,
An image reading unit for reading a plurality of continuous images in time series,
A reference image designating unit for designating a reference image from the plurality of images;
An image information acquisition unit for acquiring image information capable of specifying a situation at the time of shooting each of the plurality of images;
One of the images obtained by removing the reference image from the plurality of images is selected as an attention image, and the attention image and the image based on the image information of the attention image and the image information of the reference image A determination unit that determines whether the situation at the time of shooting with the reference image is the same or similar;
A selection unit that selects, as a target image, the target image determined by the determination that the reference image and the situation at the time of shooting are the same or similar;
The gist of the present invention is to provide an image creation unit that creates a high-resolution still image having a resolution higher than the resolution of the plurality of images based on the target image and the reference image.
このような構成をとることとすれば、基準画像と撮影時の状況が同一もしくは類似しない画像を、高解像度静止画像の作成処理に使用する処理対象画像から除外することができる。従って、鮮明化処理の精度を向上することができ、高品質の高解像度静止画像を作成することができる。 By adopting such a configuration, it is possible to exclude an image that is the same as or similar to the reference image and the situation at the time of shooting from the processing target image used for the high-resolution still image creation process. Therefore, the accuracy of the sharpening process can be improved, and a high-quality high-resolution still image can be created.
本発明の画像処理装置において、
前記画像情報は、前記複数の画像の各画像に関連付けられた前記各画像の撮影時の撮影条件であり、
前記画像取得部は、前記画像情報を取得することとしてもよい。
In the image processing apparatus of the present invention,
The image information is a shooting condition at the time of shooting each image associated with each image of the plurality of images,
The image acquisition unit may acquire the image information.
こうすれば、画像処理装置は、各画像の画像情報を簡易に取得することができるため、撮影時の状況の同一・類似を判断する演算負荷を軽減することができる。 In this way, the image processing apparatus can easily acquire the image information of each image, and therefore it is possible to reduce the calculation load for determining the same / similarity of the situation at the time of shooting.
本発明の画像処理装置において、
前記画像情報には、前記撮影時のISO感度、露出時間、および、絞り値が含まれており、
前記判定部は、前記画像情報から前記各画像の露出値を算出し、前記基準画像の前記露出値と、前記注目画像の前記露出値との差が所定値以下の場合に、前記同一もしくは類似であると判定することとしてもよい。
In the image processing apparatus of the present invention,
The image information includes ISO sensitivity at the time of shooting, exposure time, and aperture value.
The determination unit calculates an exposure value of each image from the image information, and when the difference between the exposure value of the reference image and the exposure value of the target image is equal to or less than a predetermined value, the same or similar It is good also as determining with it.
また、
前記画像情報には、前記撮影時の被写体までの距離が含まれており、
前記判定部は、前記基準画像の前記被写体までの距離と、前記注目画像の前記被写体までの距離との差が所定値以下の場合に、前記同一もしくは類似であると判定することとしてもよい。
Also,
The image information includes a distance to the subject at the time of shooting,
The determination unit may determine that the difference is the same or similar when the difference between the distance to the subject in the reference image and the distance to the subject in the target image is a predetermined value or less.
また、
前記画像情報には、前記撮影時の焦点距離が含まれており、
前記判定部は、前記基準画像の前記焦点距離と、前記注目画像の前記焦点距離との差が所定値以下の場合に、前記同一もしくは類似であると判定することとしてもよい。
Also,
The image information includes a focal length at the time of shooting,
The determination unit may determine that the difference is the same or similar when a difference between the focal distance of the reference image and the focal distance of the target image is equal to or less than a predetermined value.
こうすれば、画像に関連付けられた画像情報から取得可能な種々の情報に基づき、簡易に撮影状況の変化を検出することができる。従って、処理対象画像を効率的に判断することができ、演算負荷を軽減することができる。 In this way, it is possible to easily detect a change in the photographing state based on various information that can be acquired from the image information associated with the image. Therefore, it is possible to efficiently determine the processing target image and reduce the calculation load.
本発明の画像処理装置において、前記画像情報とは、Exif情報であることとしてもよい。こうすれば、Exif情報を参照することにより、画像から簡易に画像情報を取得することができる。 In the image processing apparatus of the present invention, the image information may be Exif information. In this way, it is possible to easily acquire image information from an image by referring to Exif information.
本発明の画像処理装置において、
更に、
前記複数の画像を解析し、前記解析結果に基づき、前記画像情報を生成する画像情報生成部を備ることとしてもよい。
In the image processing apparatus of the present invention,
Furthermore,
An image information generation unit that analyzes the plurality of images and generates the image information based on the analysis result may be provided.
このような構成をとることとすれば、画像に、撮影条件を特定可能な画像情報が関連付けられていない場合であっても、画像を解析することにより画像情報を取得することができる。 If such a configuration is adopted, the image information can be obtained by analyzing the image even when the image is not associated with image information that can specify the shooting condition.
本発明の画像処理装置において、
前記画像情報生成部は、前記複数の画像のそれぞれの輝度情報を解析して、前記輝度情報に基づき前記画像情報を生成し、
前記判定部は、前記基準画像の前記輝度情報と、前記注目画像の前記輝度情報との差が所定値以下の場合に、前記同一もしくは類似であると判定することとしてもよい。
In the image processing apparatus of the present invention,
The image information generation unit analyzes the luminance information of each of the plurality of images, generates the image information based on the luminance information,
The determination unit may determine that the difference is the same or similar when the difference between the luminance information of the reference image and the luminance information of the target image is a predetermined value or less.
このような構成をとることとすれば、画像間の輝度情報の急峻な変化、すなわち、画像間の明るさの変化に基づき、処理対象画像として選択するか否かを判断することができる。 With such a configuration, it is possible to determine whether or not to select the image to be processed based on a steep change in luminance information between images, that is, a change in brightness between images.
本発明の画像処理装置において、
更に、
前記判定部による判定に先立ち、前記基準画像と、前記注目画像との時系列的な距離が、所定範囲内であるかを判断する画像距離判断部とを備え、
前記判定部は、前記画像距離判断部により、前記所定範囲内であると判断された前記注目画像について、前記同一もしくは類似であるか否かの判定を行うこととしてもよい。
In the image processing apparatus of the present invention,
Furthermore,
Prior to determination by the determination unit, an image distance determination unit that determines whether a time-series distance between the reference image and the target image is within a predetermined range,
The determination unit may determine whether the image of interest determined by the image distance determination unit as being within the predetermined range is the same or similar.
一般的に時系列に連続した画像間の時系列的な距離が離れると、時間経過が大きく、撮影状況が同一もしくは類似である可能性が低くなる。本発明の構成をとることとすれば、画像情報に基づき同一もしくは類似を判断する前に、基準画像から時系列的な距離が離れている注目画像を、処理対象画像から除外することができ高解像度作成処理の処理効率を向上することができる。 In general, when a time-series distance between images that are continuous in time series increases, the time elapses and the possibility that the shooting situation is the same or similar is reduced. By taking the configuration of the present invention, it is possible to exclude a target image having a time-series distance from the reference image from the processing target image before determining the same or similar based on the image information. The processing efficiency of the resolution creation process can be improved.
本発明において、上述した種々の態様は、適宜、組み合わせたり、一部を省略したりして適用することができる。また、本発明は、上述した画像処理装置としての構成の他に、画像処理装置による画像処理方法、画像処理装置に画像処理を実効させるためのコンピュータプログラム、かかるコンピュータプログラムをコンピュータ読み取り可能に記録した記録媒体等としても構成できる。いずれの構成においても、上述した各態様を適宜適用可能である。コンピュータが読み取り可能な記録媒体としては、例えば、フレキシブルディスクや、CD−ROM、DVD−ROM、光磁気ディスク、ICカード、ハードディスク等種々の媒体を利用することが可能である。 In the present invention, the various aspects described above can be applied by appropriately combining or omitting some of them. In addition to the configuration as the image processing apparatus described above, the present invention records an image processing method by the image processing apparatus, a computer program for causing the image processing apparatus to perform image processing, and the computer program recorded in a computer-readable manner. It can also be configured as a recording medium. In any configuration, the above-described aspects can be appropriately applied. As a computer-readable recording medium, various media such as a flexible disk, a CD-ROM, a DVD-ROM, a magneto-optical disk, an IC card, and a hard disk can be used.
以下、本発明の実施の形態について、実施例に基づき、次の順序で説明する。
A.第1実施例:
A1.システム概要:
A2.機能ブロック:
A3.高解像度静止画像作成処理:
A3−1.全体処理:
A3−2.処理対象フレーム判定処理:
A3−3.鮮明化処理:
A4.第1実施例の変形例:
B.第2実施例:
B1.処理対象フレーム判定処理:
C.変形例:
Hereinafter, embodiments of the present invention will be described in the following order based on examples.
A. First embodiment:
A1. System overview:
A2. Function block:
A3. High-resolution still image creation process:
A3-1. Overall processing:
A3-2. Processing target frame judgment processing:
A3-3. Sharpening process:
A4. Modification of the first embodiment:
B. Second embodiment:
B1. Processing target frame judgment processing:
C. Variations:
A.第1実施例:
A1.システム概要:
図1は、本実施例におけるシステム概要を例示する説明図である。本実施例では、画像処理装置が、時系列に連続する複数の静止画像から解像度の高い静止画像を作成する際に、撮影条件が同一もしくは類似しない静止画像以外の静止画像を使用して、高解像度静止画像を作成する態様を説明する。本実施例において、連続画像SPは、静止画像10〜16を含む時系列に連続した静止画像から構成されており、デジタルカメラの連写モードで撮影された画像である。連続画像SPは、本発明の請求の範囲に記載した「時系列に連続する複数の画像」に相当する。以降、本実施例では、この複数の画像の各画像をフレームと呼ぶ。
A. First embodiment:
A1. System overview:
FIG. 1 is an explanatory diagram illustrating a system overview in the present embodiment. In this embodiment, when the image processing apparatus creates a high-resolution still image from a plurality of still images that are continuous in time series, a still image other than a still image that does not have the same or similar shooting conditions is used. A mode of creating a resolution still image will be described. In the present embodiment, the continuous image SP is composed of still images that are continuous in time series including the still
画像処理装置100は、連続画像SPのうち、基準フレーム13の指定をユーザから受け付け、基準フレーム13に付加されたExif情報に基づき、基準フレーム13の露出値を算出する。露出値とは、露光量を数値化したものであり、いわゆる、EV値と呼ばれるものである。「Exif」とは、デジタルカメラ用の画像ファイルの規格であり、「Exif情報」とは、画像ファイルに付加された付加情報である。Exif情報には、例えば、フラッシュの有無などのデジタルカメラによる撮影時の撮影条件や、撮影日時などの情報が記録される。EV値の算出方法に関しては後述する。
The
画像処理装置100は、基準フレーム13以外のフレームであって、基準フレーム13との時系列距離が所定の範囲内のフレームから、基準フレーム13とのEV値の差が所定の範囲内であるフレームを、高解像度化処理に使用する対象フレームとして選択する。時系列距離とは、時系列距離とは、時系列的に連続した複数の画像において、基準フレームと他のフレームとが何枚離れているかを表す数値である。本実施例では、基準フレーム13とのEV値の差が±1以内であるフレームを高解像度化処理に使用する対象フレームとして選択することとした。
The
図示するように、基準フレーム13のEV値は、「EV=6」である。基準フレーム13の前後に存在するフレーム10〜12、14〜16のEV値は、フレーム10〜12については「EV=10」であり、フレーム14〜16については「EV=6」である。画像処理装置100は、基準フレーム13よりEV値が「3」高い「EV=10」を有するフレーム10〜12を対象フレームとせず、「EV=6」を有するフレーム14〜16を対象フレームとして選択する。対象フレーム14〜16は、基準フレーム13との画素のずれを比較する対象となるフレームである。本実施例では、基準フレーム13と、対象フレーム14〜16とを併せて処理対象フレームと呼ぶ。
As shown in the figure, the EV value of the
画像処理装置100は、処理対象フレームに基づき鮮明化処理を行い、もとの画像よりも解像度の高い高解像度静止画像200を作成する。
The
A2.機能ブロック:
図2は、本実施例における画像処理装置100の機能ブロックを例示する説明図である。画像処理装置100は、CPU101とインターフェース102と、ROM110と、ハードディスク120とを備えている。ROM110には、各機能を実行する機能ブロックが構成されている。機能ブロックは、画像読込部103と、フレーム指定部104と、時系列距離判断部105と、撮影条件判定部106と、対象フレーム選択部107と、鮮明化処理部108とから構成されている。各機能ブロックは、CPUにより制御されている。ハードディスク120には、画像格納部121と、高解像度静止画像格納部122とが構成されている。画像格納部121には、連続画像SPなど高解像度化処理前の画像が格納されており、高解像度静止画像格納部122には、高解像度化された高解像度静止画像が格納される。
A2. Function block:
FIG. 2 is an explanatory diagram illustrating functional blocks of the
インターフェース102は、キーボードやマウスなど、ユーザが操作する機器からの入力を各機能ブロックへ通知する機能を備える。
The
画像読込部103は、画像格納部121に格納されている画像から、高解像度化処理を行う連続画像SPを読み込む機能を備える。フレーム指定部104は、インターフェース102を介して通知されるユーザからの指示に基づき、読み込んだ連続画像SPを構成するフレームから基準フレームや注目フレームの指定を行う。フレーム指定部104は、本発明の基準画像指定部に当たる。
The
時系列距離判断部105は、注目フレームと基準フレームとの時系列距離が所定の範囲内にあるか否かを判断する機能を備える。また、時系列距離判断部105は、注目フレームと基準フレームとの時系列距離が所定の範囲内でないと判断した場合に、ユーザに基準フレームの再指定を行うか否かの選択画面を表示する機能も備える。時系列距離判断部105は、本発明の画像距離判断部に当たる。
The time series
撮影条件判定部106は、注目フレームと基準フレームとの撮影条件を比較して両フレーム間の撮影条件が同一もしくは類似であるかを判定する。具体的には、各フレームに付加されているExif情報からEV値を算出し、注目フレームのEV値が、基準フレームのEV値と比べて±1以内であれば、撮影条件は同一もしくは類似であると判断する。Exif情報を使用することで、簡易に、精度良く撮影条件の変化を判断することができる。Exif情報を、図3を用いて説明する。撮影条件判定部106は、本発明の画像情報取得部および判定部に当たる。
The shooting
図3は、本実施例におけるExif情報を例示する説明図である。図3(a)は、本実施例におけるフレーム10のデータ構成を例示する説明図である。他のフレームも同様の構成である。フレーム10は、Exif情報20と、画像データ21とから構成されている。Exif情報の内容の一例を、図3(b)を用いて説明する。
FIG. 3 is an explanatory diagram illustrating Exif information in the present embodiment. FIG. 3A is an explanatory diagram illustrating the data configuration of the
Exif情報20には、図示するように、「画像タイトル」、「撮影日時」などの基準フレーム13に関する情報とともに、「色空間情報」、「ISO感度」、「露出時間」、「被写体距離」、「焦点距離」等のフレーム10の撮影時の撮影条件が記録されている。例えば、フレーム10の「画像タイトル」は「file05.jpg」であり、「ISO感度」は、「100」である。Exif情報20は、簡易に参照することができ、種々の値を取得することができるため、撮影条件の判断材料として好適である。
The
図2に戻り説明を続ける。対象フレーム選択部107は、撮影条件判定部106によって撮影条件が同一もしくは類似であると判定された注目フレームを、対象フレームとして選択する。また、対象フレーム選択部107は、処理対象フレームが、高解像度化処理を行うための必要枚数に達したか否かにより、選択処理を続行するか否かを判断する。本実施例では、対象フレーム選択部107は、基準フレームと対象フレームとの合計枚数が4枚、すなわち、対象フレームを3枚選択すると、選択処理を終了する。対象フレーム選択部107は、本発明の選択部に当たる。
Returning to FIG. The target
鮮明化処理部108は、対象フレーム選択部107によって選択された基準フレームおよび対象フレームに基づき、これらのフレームよりも解像度の高い高解像度静止画像を作成し、高解像度静止画像格納部122に格納する。鮮明化処理部108は、本発明の画像作成部に当たる。
The sharpening
A3.高解像度静止画像作成処理:
A3−1.全体処理:
図4は、本実施例における高解像度静止画像作成処理の全体処理を説明するフローチャートである。利用者が基準フレームを指定することによりこの処理は開始される。
A3. High-resolution still image creation process:
A3-1. Overall processing:
FIG. 4 is a flowchart for explaining the overall processing of the high-resolution still image creation processing in this embodiment. This process is started when the user designates a reference frame.
画像処理装置100は、ユーザからの基準フレームの選択指示を受けて、基準フレームを指定する(ステップS10)。次に、画像処理装置100は、処理対象フレームを選択する処理を行い(ステップS11)、選択された処理対象フレームに基づき鮮明化処理を行い、高解像度静止画像を作成する(ステップS12)。処理対象フレーム選択処理、および、鮮明化処理について以下に説明する。
The
A3−2.処理対象フレーム選択処理:
図5は、本実施例における処理対象フレームの選択処理を説明するフローチャートである。図4のステップS11における処理の詳細を説明する図である。
A3-2. Processing target frame selection processing:
FIG. 5 is a flowchart for explaining processing frame selection processing in the present embodiment. It is a figure explaining the detail of the process in step S11 of FIG.
画像処理装置100は、基準フレームのEV値を算出する(ステップS20)。EV値は、Exif情報に含まれる「ISO感度」、「露出時間」および「絞り値」から次の式により求まる。以下の式では、「ISO感度」を「ISO」と、「露出時間」を「T」と、「絞り値」を「F」と表す。
The
数1に記載の式は、「絞り値=1.0」、「露出時間=1sec」、「ISO感度=100」の時に「EV=0」と定義されている。露出量が2倍になるごとにEV値が1増加し、露出量が1/2になるとEV値は1減少する。例えば、図3のExif情報20に数1に記載の式を適用してEV値を算出すると以下のようになる。
The expression of
このように、フレーム10のEV値は「10」であると算出される。
Thus, the EV value of the
次に、画像処理装置100は、注目フレームを指定する(ステップS21)。本実施例では、基準フレームの直後に選択する注目フレームを、基準フレームの次のフレームとした。
Next, the
画像処理装置100は、基準フレームと注目フレームとの時系列距離に基づき、その注目フレームが所定の制限範囲内であるか否かを判断する(ステップS22)。かかる判断処理の詳細を、図6を用いて説明する。
Based on the time-series distance between the reference frame and the target frame, the
図6は、本実施例における時系列距離判断処理を説明するフローチャートである。画像処理装置100は、注目フレームの基準フレームとの時系列距離d1を算出し(ステップS30)、時系列的距離d1が制限範囲内であるか否かを判断する(ステップS31)。時系列距離の判断処理について、図7を用いて説明する。
FIG. 6 is a flowchart illustrating time-series distance determination processing in the present embodiment. The
図7は、本実施例における時系列距離の判断処理を模式的に示した模式図である。連続画像SPは、フレームレートが30fps、すなわち、1秒間に30フレームを有する連続画像である。図中、フレームf(n)の「n」は、当該フレームが連続画像SP中の順番を示しており、フレームf(n)は、連続画像SPのn番目のフレームであることを示している。本図は、連続画像SPの任意の1秒間に存在するフレームf(n)〜f(n+30)を示している。 FIG. 7 is a schematic diagram schematically showing time-series distance determination processing in the present embodiment. The continuous image SP is a continuous image having a frame rate of 30 fps, that is, 30 frames per second. In the figure, “n” of the frame f (n) indicates the order of the frame in the continuous image SP, and the frame f (n) indicates the nth frame of the continuous image SP. . This figure shows frames f (n) to f (n + 30) existing in any one second of the continuous image SP.
基準フレームとその他のフレームとの時系列距離d1は、両画像が何枚離れているかを示している。例えば、注目フレームをフレームf(n+18)とした場合、基準フレームf(n+15)と注目フレームf(n+18)との時系列距離d1は以下の計算により算出される。 The time series distance d1 between the reference frame and the other frames indicates how many the two images are separated from each other. For example, when the target frame is the frame f (n + 18), the time series distance d1 between the reference frame f (n + 15) and the target frame f (n + 18) is calculated by the following calculation.
d1=(n+18)−(n+15)
=3
d1 = (n + 18)-(n + 15)
= 3
よって、時系列距離d1<閾値th(=14)であり、注目フレームf(n+18)は、制限範囲内であると判断される。 Therefore, it is determined that time series distance d1 <threshold th (= 14) and the frame of interest f (n + 18) is within the limit range.
時系列距離が大きくなるにつれて両フレーム間の時間差も大きくなり、一般的に、両フレームの撮影された内容や撮影条件に差異が生じることが多い。よって、本実施例では、対象フレームとなり得る範囲が1秒以上にならないようにするため、時系列距離d1の閾値thを「14」とする。すなわち、対象フレームとなり得るフレームは、基準フレームf(n+15)の前後14枚を含むf(n+1)〜f(n+29)の範囲内のフレームである。 As the time series distance increases, the time difference between both frames also increases, and in general, there are often differences in the contents and shooting conditions of both frames. Therefore, in this embodiment, the threshold th of the time-series distance d1 is set to “14” so that the range that can be the target frame does not exceed 1 second. That is, the frames that can be the target frame are frames within the range of f (n + 1) to f (n + 29) including 14 frames before and after the reference frame f (n + 15).
図6に戻り説明を続ける。画像処理装置100は基準フレームと注目フレームとの時系列距離d1が閾値th以下でない場合、すなわち、制限範囲内でないと判断した場合(ステップS31:NO)には、基準フレームを再指定するか否かをユーザに選択させる選択案内画面を表示する(ステップS32)。選択案内画面の画面例を、図8を用いて説明する。
Returning to FIG. If the time-series distance d1 between the reference frame and the frame of interest is not less than or equal to the threshold th, that is, if the
図8は、本実施例における選択案内画面の画面例である。選択案内画面300は、案内メッセージ表示部301と、選択部302と、OKボタン303とから構成されている。案内メッセージ表示部301には、ユーザに選択を促すためのメッセージが表示される。選択部302は、ラジオボタン310〜312とその後に実行する処理内容が表示される。ユーザは、所望する処理に対応するラジオボタン310〜312を選択し、OKボタン303を押下する。画像処理装置100はOKボタン303の押下を受けて、選択された処理を実行する。
FIG. 8 is a screen example of the selection guidance screen in the present embodiment. The
図6に戻り説明を続ける。画像処理装置100は、図8の選択案内画面300において「基準フレーム再指定」が選択されたか否かを判断する(ステップS33)。再指定が選択された場合(ステップS33:YES)には、図4のステップS10へ戻り処理を続行する。再指定が選択されなかった場合には、図8の選択案内画面300において「鮮明化処理実行」が選択されたか否かを判断する(ステップS34)。鮮明化処理実行が選択された場合(ステップS34:YES)には、現在選択されている処理対象フレームで鮮明化処理を強制的に実行する(ステップS12)。鮮明化処理実行が選択されなかった場合(ステップS34:NO)、すなわち、選択案内画面300において「鮮明化処理を行わずに終了」が選択された場合には、高解像度静止画像の作成処理自体を終了する。
Returning to FIG. The
図6に戻り説明を続行する。画像処理装置100は、時系列距離d1が制限範囲内であると判断した場合(ステップS31:YES)には、かかる注目フレームについて図5のステップS22以降の処理を続行する。
Returning to FIG. 6, the description will be continued. When the
図5に戻り説明を続ける。画像処理装置100は、基準フレームと注目フレームとの時系列距離d1が制限範囲内であると判断された場合には、注目フレームのEV値を算出し(ステップS23)、基準フレームのEV値と注目フレームのEV値の変化量d2を算出する(ステップS24)。変化量d2が、所定値以下であるか否かによって、両フレーム間の撮影条件が同一もしくは類似であるか否かを判断する。かかる変化量d2が所定値以上である場合(ステップS25:NO)、すなわち、両フレーム間の撮影条件が同一もしくは類似でないと判断した場合には、次の注目フレームを指定し(ステップS28)、ステップS22から処理を繰り返す。注目フレームを指定する処理を、図9を用いて説明する。
Returning to FIG. When it is determined that the time-series distance d1 between the reference frame and the target frame is within the limit range, the
図9は、本実施例における注目フレーム指定処理を模式的に示した説明図である。画像処理装置100は、基準フレーム13を指定し、次に、基準フレーム13の最も近くに存在し、かつ、一度も注目フレームとなっておらず、かつ、基準フレーム13よりも時間が経過しているフレームを優先的に注目フレームとして指定する。すなわち、図に示すように、基準フレーム13を指定し(矢印(1))、次に、基準フレーム13の最も近くに存在し、かつ一度も注目フレームとなっていないフレーム12,14のうち、基準フレーム13よりも時間が経過しているフレーム14を、注目フレームとして指定する(矢印(2))。注目フレーム14を対象フレームとして選択するか否かの判断を終えると、画像処理装置100は、次の注目フレームとして、基準フレーム13の最も近くに存在し、かつ、一度も注目フレームとなっていないフレーム12を指定する(矢印(3))。画像処理装置100は、このように判断しつつ注目フレームを指定する。
FIG. 9 is an explanatory diagram schematically showing a target frame designation process in the present embodiment. The
図5に戻り説明を続ける。画像処理装置100は、変化量d2が所定値以下である場合(ステップS25:YES)、すなわち、両フレーム間の撮影条件が同一もしくは類似であると判断した場合には、かかる注目フレームを対象フレームとして選択し(ステップS26)、処理対象フレームが所定枚数以上となったか否かを判断する(ステップS27)。画像処理装置100は、処理対象フレームが所定枚数になっていない場合(ステップS27:NO)には、次の注目フレームを指定する(ステップS28)。所定枚数となった場合(ステップS27:YES)には、処理対象フレームに基づき、鮮明化処理を実行して高解像度静止画像を作成する(図4:ステップS12)。以下に、鮮明化処理の詳細を説明する。
A3−3.鮮明化処理:
Returning to FIG. When the amount of change d2 is equal to or smaller than the predetermined value (step S25: YES), that is, when the
A3-3. Sharpening process:
図10は、本実施例における鮮明化処理を説明するフローチャートである。この処理は、画像処理装置100の鮮明化処理部108が実行する処理である。本実施例の鮮明化処理では、処理対象フレームとして4枚のフレームを使用する。以降の鮮明化処理の説明において、処理対象フレームのうち、基準フレームを基準フレームF0と、処理対象フレームのうち基準フレームF0以外のフレームを対象フレームF1,F2,F3と呼ぶこととする。
FIG. 10 is a flowchart for explaining the sharpening process in the present embodiment. This process is a process executed by the sharpening
画像処理装置100は、選択した処理対象フレームを取得する(ステップS40)。次に、画像処理装置100は、基準フレームF0と対象フレームF1〜F3において、対応する位置に存在する画素のずれ量を、全画素について算出し、かかるずれ量に基づき、ずれを補正するための補正量を推定する(ステップS41)。
The
具体的には、画像処理装置100は、まず、基準フレームF0に対して、3枚の対象フレームF1〜F3が、それぞれどれだけずれているかを表す「ずれ量」を、全画素について順次算出する。本実施例における「ずれ」とは、撮影対象物自体の動きや、ビデオカメラの設置場所の移動に起因するものではなく、いわゆるパンと呼ばれるカメラワークや、手ぶれのようにビデオカメラの向きの変化のみに起因するものである。すなわち、異なるフレーム間において、全ての画素が、同じ量だけずれるようなずれを想定している。ずれは、横および縦のずれを示す「並進のずれ」と、「回転のずれ」の組合せで表される。対象フレームF1〜F3について、上述のずれ量が画素ごとに算出されると、かかるずれ量を基にして、ずれを補正するための補正量が推定される。補正量は、画素のずれ量と同様に、「並進の補正量」と、「回転の補正量」との組合せで表される。並進補正量を推定する様子を、図11を用いて説明する。
Specifically, first, the
図11は、本実施例におけるパターンマッチ法により並進補正量を推定する様子を模式的に示す図である。図示するように、基準フレーム情報の座標(x1,y1)が対象フレーム情報の座標(x2,y2)に対応しているものとする。並進補正量は(u,v)、回転補正量はフレームの中心を原点としてδとしている。撮影時に焦点距離を変えないことを前提としているため、並進と回転のみの変換を前提として、座標変換の式として次式を使う。 FIG. 11 is a diagram schematically showing how the translation correction amount is estimated by the pattern matching method in the present embodiment. As shown in the drawing, it is assumed that the coordinates (x1, y1) of the reference frame information correspond to the coordinates (x2, y2) of the target frame information. The translation correction amount is (u, v), and the rotation correction amount is δ with the center of the frame as the origin. Since it is assumed that the focal length is not changed at the time of shooting, the following equation is used as a coordinate conversion equation on the assumption that only translation and rotation are converted.
なお、基準フレームと対象フレームとの時間差はごく僅かであるため、u,v,δは微小量となる。ここで、δが微小量のとき、cosδ≒1、sinδ≒δであるから、上式を以下のように置き換えることができる。 Since the time difference between the reference frame and the target frame is very small, u, v, and δ are minute amounts. Here, when δ is a minute amount, cos δ≈1 and sin δ≈δ, so the above equation can be replaced as follows.
そして、数7、数8(または、数9,数10)に記載の式のu,v,δを最小自乗法により推定する。補正量の推定は、フレーム情報間の各画素の例えば輝度を用いて1画素よりも細かい単位で画素の位置を推定する勾配法(グラディエント法)に基づいている。 Then, u, v, and δ in the equations described in Equations 7 and 8 (or Equations 9 and 10) are estimated by the method of least squares. The estimation of the correction amount is based on a gradient method (gradient method) that estimates the pixel position in units smaller than one pixel using, for example, the luminance of each pixel between frame information.
図12は、本実施例における勾配法による並進補正量を推定する様子を模式的に示す図である。図の上段に示すように、基準フレーム情報の各画素の輝度をZ1(ix,iy)、対象フレーム情報の各画素の輝度をZ2(ix',iy')と表すことにする。まず、対象フレーム情報の座標(ix',iy')が基準フレーム情報の座標(ix〜ix+1,iy〜iy+1)の間にあるものとして、勾配法により座標(ix',iy')を求める手法を説明する。 FIG. 12 is a diagram schematically showing a state in which the translation correction amount by the gradient method in this embodiment is estimated. As shown in the upper part of the figure, the luminance of each pixel of the reference frame information is represented as Z1 (ix, iy), and the luminance of each pixel of the target frame information is represented as Z2 (ix ′, iy ′). First, assuming that the coordinates (ix ′, iy ′) of the target frame information are between the coordinates (ix to ix + 1, iy to iy + 1) of the reference frame information, a method of obtaining the coordinates (ix ′, iy ′) by the gradient method. Will be explained.
図の中段に示すように、座標(ix',iy')のx軸方向の位置をix+Δxとし、Px=Z1(ix+1,iy)−Z1(ix,iy)とすると、Px・Δx=Z2(ix',iy')−Z1(ix,iy)となるようなΔxを求めればよい。実際には、各画素についてΔxを算出し、全体で平均をとることになる。ここで、単にZ1=Z1(ix,iy)、Z2=Z2(ix',iy')で表すと、以下の式が成り立つようなΔxを算出すればよい。 As shown in the middle of the figure, assuming that the position in the x-axis direction of the coordinates (ix ′, iy ′) is ix + Δx, and Px = Z1 (ix + 1, iy) −Z1 (ix, iy), Px · Δx = Z2 ( It is sufficient to obtain Δx such that ix ′, iy ′) − Z1 (ix, iy). In practice, Δx is calculated for each pixel, and the average is taken as a whole. Here, if simply expressed as Z1 = Z1 (ix, iy) and Z2 = Z2 (ix ′, iy ′), Δx that satisfies the following expression may be calculated.
また、図の下段に示すように、座標(ix',iy')のy軸方向の位置をiy+Δyとし、Py=Z1(ix,iy+1)−Z1(ix,iy)とすると、Py・Δy=Z2(ix',iy')−Z1(ix,iy)となるようなΔyを求めればよい。ここでも、単にZ1=Z1(ix,iy)、Z2=Z2(ix',iy')で表すと、以下の式が成り立つようなΔyを算出すればよい。 Further, as shown in the lower part of the figure, if the position in the y-axis direction of the coordinates (ix ′, iy ′) is iy + Δy, and Py = Z1 (ix, iy + 1) −Z1 (ix, iy), then Py · Δy = What is necessary is just to obtain | require (DELTA) y which becomes Z2 (ix ', iy')-Z1 (ix, iy). Here, if expressed simply by Z1 = Z1 (ix, iy) and Z2 = Z2 (ix ′, iy ′), Δy may be calculated such that the following expression is satisfied.
そこで、x、y両方向を考慮すると、以下の式のS2を最小にするΔx、Δyを最小自乗法により求めればよい。 Therefore, in consideration of both x and y directions, Δx and Δy that minimize S 2 in the following equation may be obtained by the method of least squares.
以上、勾配法によりフレームがx軸方向とy軸方向に平行移動したとして並進補正量を求める手法を説明した。次に、図13を用いて回転の補正量について説明する。 As described above, the method for obtaining the translation correction amount assuming that the frame is translated in the x-axis direction and the y-axis direction by the gradient method has been described. Next, the rotation correction amount will be described with reference to FIG.
図13は、本実施例における画素の回転補正量を模式的に示す図である。図示するように、基準フレーム情報の座標(x,y)の原点Oからの距離をr、x軸からの回転角度をθとすると、r、θは以下の式により求められる。 FIG. 13 is a diagram schematically illustrating a pixel rotation correction amount in the present embodiment. As shown in the figure, when the distance from the origin O of the coordinates (x, y) of the reference frame information is r, and the rotation angle from the x axis is θ, r and θ are obtained by the following equations.
ここで、並進ずれが補正されているとして、基準フレームと対象フレームの原点を合わせておき、対象フレームでは座標(x,y)からδ回転して座標(x',y')になったとすると、この回転によるx軸方向の移動量とy軸方向の移動量は、以下の式により求められる。 Here, assuming that the translational deviation is corrected, the origins of the reference frame and the target frame are aligned, and the target frame is rotated by δ from the coordinate (x, y) to become the coordinate (x ′, y ′). The amount of movement in the x-axis direction and the amount of movement in the y-axis direction due to this rotation can be obtained by the following equations.
そこで、数13に記載の式におけるΔx,Δyは、並進補正量u,v、回転補正量δを用いて、以下の式で表される。
Therefore, Δx and Δy in the equation described in
これらを数13に記載の式に代入すると、以下の式が得られる。
Substituting these into the equation described in
すなわち、基準フレーム情報の座標を(ix,iy)として、基準フレーム情報の全画素の座標値と階調データ(輝度値)を数20に記載の式に代入したときに、S2を最小にするu,v,δを最小自乗法により求めればよい。
That is, when the coordinates of the reference frame information are (ix, iy) and the coordinate values and gradation data (luminance values) of all the pixels of the reference frame information are substituted into the equation of
図10に戻り説明を続ける。次に、画像処理装置100は、フレームF0〜F3を、推定された補正量を使用して、合成する(ステップS42)。具体的には、画像処理装置100は、補正量を用いて、対象フレームF1〜F3の画素位置を補正する(ステップS43)。画素位置の補正とは、対象フレームF1〜F3の各画素の画素位置を、並進の補正量に基づき、縦、横のそれぞれの補正量だけ移動し、回転の補正量だけ、回転をした画素位置に置き換えることを示す。かかる補正処理の結果、基準フレームF0および対象フレームF1〜F3は、重なり部分において一致する。
Returning to FIG. Next, the
次に、画像処理装置100は、最近傍画素の決定を行う(ステップS44)。図14に、最近傍画素の決定処理を説明する模式図を示した。
Next, the
図14は、本実施例における最近傍画素決定処理を説明する模式図である。本図は、並進の補正量を例に挙げて説明している。画像処理装置100が実行する処理である。本図は、基準フレームF0、対象フレームF1〜F3の一致した画像の一部を拡大し、各フレームF0〜F3、および、フレームF0〜F3から得られる高解像度静止画像200の、それぞれの画素位置を示している。図中、黒丸は、高解像度静止画像200の各画素を表しており、白抜きの四辺形は基準フレームF0の各画素を表している。また、ステップS42において補正を行った対象フレームF1〜F3の各画素をそれぞれ異なるハッチングにより表した。本実施例では、高解像度静止画像200は、基準フレームF0に対して、1.5倍密の画素密度に高解像度化されている。従って、図示するように、高解像度静止画像200の各画素間の距離は、基準フレームF0の各画素間の距離の2/3となっている。図中の画素G(k)(kは画素位置を表す整数)のように高解像度静止画像200の画素のうち、縦横それぞれの方向に2画素おきにある画素は、基準フレームF0の画素と画素位置が一致することとなる。
FIG. 14 is a schematic diagram for explaining the nearest-neighbor pixel determination process in the present embodiment. This figure is described taking the translation correction amount as an example. This is a process executed by the
高解像度静止画像200のj番目の画素G(j)に注目して説明する。以下、画素G(j)を注目画素と呼ぶこととする。画像処理装置100は、注目画素G(j)と、基準フレームF0の画素において注目画素G(j)の最も近くに存在する画素との距離L0を算出する。また、画像処理装置100は、ステップS42の補正処理後の対象フレームF1、F2、F3の画素において注目画素G(j)の最も近くに存在する画素との距離L1,L2,L3を算出する。
Description will be made by paying attention to the j-th pixel G (j) of the high-resolution still
次に、画像処理装置100は、距離L0〜L3の値を比較し、注目画素G(j)に最も近い距離に存在する画素を決定する。以降、かかる画素を「最近傍画素」と呼ぶこととする。図示するように、距離L3である対象フレームF3上の画素が、注目画素G(j)に最も近い画素となっているため、画像処理装置100は、この画素を最近傍画素として決定する。以降、注目画素G(j)に対する最近傍画素が、対象フレームF3のi番目の画素であったとして、最近傍画素g(F3,i)と表すこととする。
Next, the
画像処理装置100は、以上の処理を高解像度静止画像200の全画素について順次実行し、各画素について最近傍画素を決定する。
The
図10に戻り、説明を続行する。画像処理装置100は、高解像度静止画像200における各画素の画素データを、他の画素の画素データから補間する(ステップS45)。本実施例では、画像処理装置100は、ステップS43において、決定した最近傍画素の画素データ、および、最近傍画素が属する対象フレーム内の画素データを用いる。図15に、画素補間処理を説明する説明図を示した。
Returning to FIG. 10, the description will be continued. The
図15は、本実施例における画素補間処理を説明する模式図である。本図では、ステップS43において、注目画素G(j)に対する最近傍画素は、最近傍画素g(F3,i)であると決定された場合の処理を例示した。 FIG. 15 is a schematic diagram for explaining pixel interpolation processing in the present embodiment. In this figure, the process in the case where it is determined in step S43 that the nearest pixel for the target pixel G (j) is the nearest pixel g (F3, i) is illustrated.
画像処理装置100は、最近傍画素g(F3,i)の他、この最近傍画素g(F3.i)とともに、注目画素G(j)を囲む画素g(F3,j)、画素g(F3.k)、画素g(F3,l)の、それぞれの画素データを用いて、バイ・リニア法により注目画素G(j)の画素データを求める。バイ・リニア法に限らず、バイ・キュービック法、ニアレストネイバ法等の方法を用いることとしてもよい。
In addition to the nearest pixel g (F3, i), the
画像処理装置100は、以上のように鮮明化処理を終え、作成した高解像度静止画像を高解像度静止画像格納部122に格納する。
The
以上説明した第1実施例の画像処理装置100によれば、基準フレームと撮影時の状況が同一もしくは類似でないフレームを、高解像度静止画像の作成処理に使用する処理対象フレームから除外することができる。従って、鮮明化処理の精度を向上することができ、高品質の高解像度静止画像を作成することができる。
According to the
本実施例では、EV値を使用することとしているため、フラッシュなどにより急激に撮影条件が変化した場合に、その変化を検出することができる。従って、フラッシュがたかれたフレームを処理対象フレームから除外することができ、鮮明化処理の精度を向上することができる。EV値を使用することは、例えば、連写モードで撮影中に周囲からフラッシュがたかれた場合などに、有効である。 In this embodiment, since the EV value is used, it is possible to detect the change when the photographing condition is suddenly changed by a flash or the like. Therefore, the flashed frame can be excluded from the processing target frame, and the accuracy of the sharpening process can be improved. Using the EV value is effective, for example, when a flash is struck from the surroundings during shooting in the continuous shooting mode.
A4.第1実施例の変形例:
図16は、第1実施例の変形例を説明する説明図である。図16(a)は、Exif情報に記録されている被写体距離に基づき選択される処理対象フレームを模式的に説明する説明図である。図中、「SD」は「Subject Distance」の略であり、被写体までの距離を表す。本変形例は、実施例において説明した図5のステップS20およびS23において、EV値の算出に代えて各フレームのExif情報から被写体距離を取得し、ステップS24において、「EV値」の差分に代えて「SD」の差分を算出することにより実現できる。本変形例では、ステップS25における所定値を「1」とする。こうすることにより、画像処理装置100は、基準フレームと注目フレームの被写体距離の差が1m以下である場合には撮影条件は同一もしくは類似であると判断することができる。
A4. Modification of the first embodiment:
FIG. 16 is an explanatory diagram for explaining a modification of the first embodiment. FIG. 16A is an explanatory diagram schematically illustrating a processing target frame selected based on a subject distance recorded in Exif information. In the figure, “SD” is an abbreviation for “Subject Distance” and represents the distance to the subject. In this modification, the subject distance is acquired from the Exif information of each frame instead of calculating the EV value in steps S20 and S23 of FIG. This can be realized by calculating the difference of “SD”. In this modification, the predetermined value in step S25 is “1”. By doing so, the
図示するように、基準フレーム13は「SD=5.2」であり、フレーム10〜12、14も「SD=5.2」である。また、フレーム15,16は「SD=10.5」である。従って、一点鎖線枠で示したフレーム15、16は、基準フレーム13と撮影条件が異なると判断され、処理対象フレームから除外される。処理対象フレームは基準フレームを含めて4枚であるため、破線枠で示す基準フレーム13と、フレーム11,12,14が処理対象フレームとして選択される。
As shown in the drawing, the
本変形例によれば、Exif情報に記録された被写体距離をそのまま用いて撮影状況の類否判断を行うことができ、処理負荷を軽減することができる。また、被写体距離を用いることにより、ピントがずれた場合や、被写体の動きが大きい場合など鮮明化処理に不適なフレームを処理対象フレームから除外することができ、鮮明化処理の精度を向上することができる。 According to this modification, it is possible to determine the similarity of the shooting situation using the subject distance recorded in the Exif information as it is, and to reduce the processing load. Also, by using the subject distance, frames that are not suitable for sharpening processing, such as when the subject is out of focus or when the subject's movement is large, can be excluded from the processing target frames, thereby improving the accuracy of the sharpening processing. Can do.
図16(b)は、Exif情報に記録されている焦点距離基づき選択される処理対象フレームを模式的に説明する説明図である。図中、「FL」は「Focal Length」の略であり、レンズ焦点距離を表す。本変形例は、実施例において説明した図5のステップS20およびS23において、EV値の算出に代えて各フレームのExif情報から焦点距離を取得し、ステップS24において、「EV値」の差分に代えて「FL」の差分を算出することにより実現できる。本変形例では、ステップS25における所定値を「0」とする。すなわち、焦点距離が一致しない場合には、撮影条件が異なると判断する。差が微少値である場合には許容することとしてもよい。 FIG. 16B is an explanatory diagram schematically illustrating a processing target frame selected based on the focal length recorded in the Exif information. In the figure, “FL” is an abbreviation for “Focal Length” and represents a lens focal length. In this modification, the focal length is obtained from the Exif information of each frame instead of the calculation of the EV value in steps S20 and S23 of FIG. 5 described in the embodiment, and the difference of the “EV value” is replaced in step S24. This can be realized by calculating the difference of “FL”. In this modification, the predetermined value in step S25 is “0”. That is, if the focal lengths do not match, it is determined that the shooting conditions are different. When the difference is a minute value, it may be allowed.
図示するように、基準フレーム13は「FL=6.4」であり、フレーム10〜12も「FL=6.4」である。また、フレーム14〜16は「FL=5.9」である。従って、一点鎖線枠内のフレーム14〜16は、基準フレーム13と撮影条件が異なると判断され、処理対象フレームから除外される。処理対象フレームは基準フレームを含めて4枚であるため、破線枠内の基準フレーム13と、フレーム10〜12が処理対象フレームとして選択される。
As shown in the drawing, the
本変形例によれば、Exif情報に記録された焦点距離をそのまま用いて撮影状況の類否判断を行うことができ、処理負荷を軽減することができる。また、焦点距離を用いることにより、ズーム操作が行われた場合などを検出することができる。ズーム操作が行われると鮮明化処理においてずれ検出の精度が低下するため、これらのフレームを処理対象フレームから除外することにより、鮮明化処理の精度を向上することができる。 According to this modification, it is possible to determine the similarity of the shooting situation using the focal length recorded in the Exif information as it is, and the processing load can be reduced. Further, by using the focal length, it is possible to detect a case where a zoom operation is performed. When the zoom operation is performed, the accuracy of deviation detection is lowered in the sharpening process. Therefore, the precision of the sharpening process can be improved by excluding these frames from the processing target frames.
B.第2実施例:
上述した第1実施例では、Exif情報に記録された情報に基づき撮影条件が同一もしくは類似であるか否かを判断し、処理対象フレームを選択することとした。第2実施例では、フレームを解析して得られる輝度情報に基づき、撮影条件が同一もしくは類似であるか否かを判断し、処理対象フレームを選択することとした。本実施例におけるシステム構成は第1実施例と同様であり、図2,図4、図6〜15に示した画像処理装置100の機能ブロックや鮮明化処理等は共通しているため、説明を省略する。ただし、図2に示した撮影条件判定部106は、フレームの輝度情報を算出する機能を備えていることとする。すなわち、撮影条件判定部106の一部として、本発明の画像情報作成部が構成されている。
B. Second embodiment:
In the first embodiment described above, it is determined whether the shooting conditions are the same or similar based on the information recorded in the Exif information, and the processing target frame is selected. In the second embodiment, based on the luminance information obtained by analyzing the frame, it is determined whether the shooting conditions are the same or similar, and the processing target frame is selected. The system configuration in this embodiment is the same as that in the first embodiment, and the functional blocks and the sharpening processing of the
B1.撮影状況判断処理:
図17は本実施例における処理対象フレーム選択処理を説明するフローチャートである。図4のステップS11の処理の詳細を説明する図である。
B1. Shooting situation judgment processing:
FIG. 17 is a flowchart for explaining processing target frame selection processing in the present embodiment. It is a figure explaining the detail of the process of step S11 of FIG.
画像処理装置100は、基準フレームを指定すると(図4:ステップS10)、基準フレームの輝度値の平均を算出する(ステップS50)。輝度値の平均の算出処理を図18に示した。
When the reference frame is designated (FIG. 4: step S10), the
図18は、本実施例におけるフレームの輝度値の平均の算出処理を説明するフローチャートである。この処理は、画像処理装置100の撮影条件判定部106が行う処理である。撮影条件判定部106は、各フレームの全画素について、RGB空間からYCbCr空間に変換する色変換処理を行う(ステップS60)。かかる色変換処理は以下の式を適用することにより実現できる。
FIG. 18 is a flowchart for explaining the calculation process of the average of the luminance values of the frames in this embodiment. This process is a process performed by the imaging
YCbCr空間では、Yは輝度値を表し、Cb値、Cr値は色差を表す。撮影条件判定部106は、全画素の輝度値の合計を画素数で除算することにより、フレームの輝度値の平均を算出する(ステップS61)。
In the YCbCr space, Y represents a luminance value, and the Cb value and the Cr value represent color differences. The shooting
図17に戻り説明を続行する。画像処理装置100は、注目フレームを指定し(ステップS51)、基準フレームと注目フレームとの時系列距離に基づき、その注目フレームで処理を続行するか否かを判断する(ステップS52)。基準フレームと注目フレームとの時系列距離が制限範囲内であると判断された場合には、注目フレームの輝度値の平均を算出し(ステップS53)、基準フレームの輝度値の平均と注目フレームの輝度値の平均の変化量d3を算出する(ステップS54)。変化量d3が、所定値以下であるか否かによって、両フレーム間の撮影状況が同一もしくは類似であるか否かを判断する。本実施例では、この所定値を「5」とする。変化量d3が所定値以下でない場合(ステップS55:NO)、すなわち、両フレーム間の撮影状況が同一もしくは類似でないと判断した場合には、次の注目フレームを指定し(ステップS58)、ステップS52から処理を繰り返す。
Returning to FIG. 17, the description will be continued. The
画像処理装置100は、変化量d3が所定値以下である場合(ステップS55:YES)、すなわち、両フレーム間の撮影状況が同一もしくは類似であると判断した場合には、注目フレームを処理対象フレームとして選択し(ステップS56)、処理対象フレームが所定枚数以上となったか否かを判断する(ステップS57)。所定枚数になっていない場合(ステップS57:NO)には、次の注目フレームを指定する(ステップS58)。所定枚数となった場合(ステップS57:YES)には、選択した処理対象フレームに基づき、鮮明化処理を実行して高解像度静止画像を作成する(図4:ステップS12)。
When the amount of change d3 is equal to or smaller than the predetermined value (step S55: YES), that is, when the
図19は、本実施例における処理対象フレームを模式的に説明する説明図である。動画像MV2は、時系列に連続した複数のフレーム70〜76から構成されている。クロスハッチを付したフレーム73は、基準フレームである。図に、各フレームの輝度値の平均(Y)を示した。本実施例では、フレームの輝度値と基準フレーム73の輝度値「Y=156」との差が5以内であるフレームを処理対象フレームとして選択する。
FIG. 19 is an explanatory diagram schematically illustrating a processing target frame in the present embodiment. The moving image MV2 is composed of a plurality of
従って、本実施例において、処理対象フレームとして選択されるフレームは、基準フレームの73と、フレーム71,72、75の4枚である。フレーム74のように、基準フレーム73の最近傍に位置していても、基準フレームの輝度値と「9」離れているということから、撮影時の明るさが急激に変化しており、処理対象フレームから除外される。明るさが急激に変化しているフレームは鮮明化処理に不適であるため、このようなフレームを処理対象フレームから除外することにより鮮明化処理の精度を向上することができる。
Therefore, in this embodiment, the four frames selected as the processing target frames are the
本発明の第2実施例によれば、画像間の輝度情報の急峻な変化、すなわち、画像間の明るさの変化に基づき、画像を高解像度静止画像の作成処理に用いるか否かを判断することができる。したがって、鮮明化処理の精度を向上することができる。本実施例は、各フレームに、Exif情報などの撮影条件等を記録した付加情報が関連付けられていない場合にも有効である。 According to the second embodiment of the present invention, it is determined whether or not an image is used for high-resolution still image creation processing based on a sharp change in luminance information between images, that is, a change in brightness between images. be able to. Therefore, the accuracy of the sharpening process can be improved. The present embodiment is also effective when additional information in which shooting conditions such as Exif information are recorded is not associated with each frame.
C.変形例:
以上、本発明の種々の実施例について説明したが、本発明はこれらの実施例に限定されず、その趣旨を逸脱しない範囲で種々の構成をとることができることは言うまでもない。
C. Variations:
Although various embodiments of the present invention have been described above, it is needless to say that the present invention is not limited to these embodiments and can take various configurations without departing from the spirit of the present invention.
10〜16,70〜76...フレーム
13、73...基準フレーム
20...Exif情報
21...画像データ
100...画像処理装置
101...CPU
102...インターフェース
103...画像読込部
104...フレーム指定部
105...時系列距離判断部
106...撮影条件判定部
107...対象フレーム選択部
108...鮮明化処理部
120...ハードディスク
121...画像格納部
122...高解像度静止画像格納部
200...高解像度静止画像
300...選択案内画面
301...案内メッセージ表示部
302...選択部
303...OKボタン
310,311,312...ラジオボタン
10 to 16, 70 to 76 ...
DESCRIPTION OF
Claims (12)
時系列に連続する複数の画像を読み込む画像読込部と、
前記複数の画像から基準画像を指定する基準画像指定部と、
前記複数の画像のそれぞれの撮影時の状況を特定可能な画像情報を取得する画像情報取得部と、
前記複数の画像から前記基準画像を除いた各画像のうちの1つを注目画像として選択し、前記注目画像の前記画像情報と、前記基準画像の前記画像情報とに基づき、前記注目画像と前記基準画像との前記撮影時の状況が同一もしくは類似であるか否かを判定する判定部と、
前記判定により前記基準画像と前記撮影時の状況が同一もしくは類似すると判定された前記注目画像を対象画像として選択する選択部と、
前記対象画像および前記基準画像に基づき、前記複数の画像の解像度よりも解像度の高い高解像度静止画像を作成する画像作成部とを備える画像処理装置。 An image processing apparatus,
An image reading unit for reading a plurality of continuous images in time series,
A reference image designating unit for designating a reference image from the plurality of images;
An image information acquisition unit for acquiring image information capable of specifying a situation at the time of shooting each of the plurality of images;
One of the images obtained by removing the reference image from the plurality of images is selected as an attention image, and the attention image and the image based on the image information of the attention image and the image information of the reference image A determination unit that determines whether the situation at the time of shooting with the reference image is the same or similar;
A selection unit that selects, as a target image, the target image determined by the determination that the reference image and the situation at the time of shooting are the same or similar;
An image processing apparatus comprising: an image creation unit that creates a high-resolution still image having a resolution higher than that of the plurality of images based on the target image and the reference image.
更に、
前記判定部による判定に先立ち、前記基準画像と、前記注目画像との時系列的な距離が、所定範囲内であるかを判断する画像距離判断部とを備え、
前記判定部は、前記画像距離判断部により、前記所定範囲内であると判断された前記注目画像について、前記同一もしくは類似であるか否かの判定を行う画像処理装置。 The image processing apparatus according to claim 1,
Furthermore,
Prior to determination by the determination unit, an image distance determination unit that determines whether a time-series distance between the reference image and the target image is within a predetermined range,
The determination unit is an image processing device that determines whether or not the target image determined to be within the predetermined range by the image distance determination unit is the same or similar.
前記画像情報は、前記複数の画像の各画像に関連付けられた前記各画像の撮影時の撮影条件であり、
前記画像取得部は、前記画像情報を取得する画像処理装置。 The image processing apparatus according to claim 1 or 2,
The image information is a shooting condition at the time of shooting each image associated with each image of the plurality of images,
The image acquisition unit is an image processing apparatus that acquires the image information.
前記画像情報には、前記撮影時のISO感度、露出時間、および、絞り値が含まれており、
前記判定部は、前記画像情報から前記各画像の露出値を算出し、前記基準画像の前記露出値と、前記注目画像の前記露出値との差が所定値以下の場合に、前記同一もしくは類似であると判定する画像処理装置。 The image processing apparatus according to claim 3,
The image information includes ISO sensitivity at the time of shooting, exposure time, and aperture value.
The determination unit calculates an exposure value of each image from the image information, and when the difference between the exposure value of the reference image and the exposure value of the target image is equal to or less than a predetermined value, the same or similar An image processing apparatus that determines that
前記画像情報には、前記撮影時の被写体までの距離が含まれており、
前記判定部は、前記基準画像の前記被写体までの距離と、前記注目画像の前記被写体までの距離との差が所定値以下の場合に、前記同一もしくは類似であると判定する画像処理装置。 The image processing apparatus according to claim 3,
The image information includes a distance to the subject at the time of shooting,
The determination unit is an image processing apparatus that determines that the difference is the same or similar when a difference between a distance to the subject of the reference image and a distance to the subject of the attention image is a predetermined value or less.
前記画像情報には、前記撮影時の焦点距離が含まれており、
前記判定部は、前記基準画像の前記焦点距離と、前記注目画像の前記焦点距離との差が所定値以下の場合に、前記同一もしくは類似であると判定する画像処理装置。 The image processing apparatus according to claim 3,
The image information includes a focal length at the time of shooting,
The determination unit is an image processing apparatus that determines that the difference is the same or similar when a difference between the focal distance of the reference image and the focal distance of the target image is a predetermined value or less.
前記画像情報とは、Exif情報である画像処理装置。 An image processing apparatus according to any one of claims 3 to 6,
The image information is an image processing apparatus that is Exif information.
更に、
前記複数の画像を解析し、前記解析結果に基づき、前記画像情報を生成する画像情報生成部を備える画像処理装置。 The image processing apparatus according to claim 1 or 2,
Furthermore,
An image processing apparatus comprising: an image information generation unit that analyzes the plurality of images and generates the image information based on the analysis result.
前記画像情報生成部は、前記複数の画像のそれぞれの輝度情報を解析して、前記輝度情報に基づき前記画像情報を生成し、
前記判定部は、前記基準画像の前記輝度情報と、前記注目画像の前記輝度情報との差が所定値以下の場合に、前記同一もしくは類似であると判定する画像処理装置。 The image processing apparatus according to claim 8, wherein
The image information generation unit analyzes the luminance information of each of the plurality of images, generates the image information based on the luminance information,
The determination unit is an image processing apparatus that determines that the difference is the same or similar when a difference between the luminance information of the reference image and the luminance information of the target image is a predetermined value or less.
(a)時系列に連続した複数の画像を読み込む工程と、
(b)前記複数の画像から基準画像を指定する工程と、
(c)前記複数の画像のそれぞれの撮影時の状況を特定可能な画像情報を取得する工程と、
(d)前記複数の画像から前記基準画像を除いた各画像のうちの1つを注目画像として選択し、前記注目画像の前記画像情報と、前記基準画像の前記画像情報とに基づき、前記注目画像と前記基準画像との前記撮影時の状況が同一もしくは類似であるか否かを判定する工程と、
(e)前記判定により前記基準画像と前記撮影時の状況が同一もしくは類似すると判定された前記注目画像を対象画像として選択する工程と、
(f)前記対象画像および前記基準画像に基づき、前記複数の画像の解像度よりも解像度の高い高解像度静止画像を作成する工程とを備える画像処理方法。 An image processing method performed by an image processing apparatus,
(A) reading a plurality of continuous images in time series;
(B) designating a reference image from the plurality of images;
(C) obtaining image information capable of specifying a situation at the time of photographing each of the plurality of images;
(D) selecting one of the images obtained by removing the reference image from the plurality of images as the attention image, and based on the image information of the attention image and the image information of the reference image, Determining whether the situation at the time of shooting of the image and the reference image is the same or similar;
(E) selecting the target image determined by the determination that the reference image and the situation at the time of shooting are the same or similar as a target image;
(F) An image processing method comprising: creating a high-resolution still image having a resolution higher than that of the plurality of images based on the target image and the reference image.
時系列に連続した複数の画像を読み込む機能と、
前記複数の画像から基準画像を指定する機能と、
前記複数の画像のそれぞれの撮影時の状況を特定可能な画像情報を取得する機能と、
前記複数の画像から前記基準画像を除いた各画像のうちの1つを注目画像として選択し、前記注目画像の前記画像情報と、前記基準画像の前記画像情報とに基づき、前記注目画像と前記基準画像との前記撮影時の状況が同一もしくは類似であるか否かを判定する機能と、
前記判定により前記基準画像と前記撮影時の状況が同一もしくは類似すると判定された前記注目画像を対象画像として選択する機能と、
前記対象画像および前記基準画像に基づき、前記複数の画像の解像度よりも解像度の高い高解像度静止画像を作成する機能とをコンピュータに実行させるためのコンピュータプログラム。 A computer program for causing a computer to execute image processing,
The ability to read multiple images in time series,
A function of designating a reference image from the plurality of images;
A function of acquiring image information capable of specifying a situation at the time of shooting each of the plurality of images;
One of the images obtained by removing the reference image from the plurality of images is selected as an attention image, and the attention image and the image based on the image information of the attention image and the image information of the reference image A function of determining whether the situation at the time of shooting with the reference image is the same or similar;
A function for selecting, as a target image, the target image determined by the determination that the reference image and the situation at the time of shooting are the same or similar;
A computer program for causing a computer to execute a function of creating a high-resolution still image having a resolution higher than that of the plurality of images based on the target image and the reference image.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004206995A JP2006033232A (en) | 2004-07-14 | 2004-07-14 | Image processing apparatus |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004206995A JP2006033232A (en) | 2004-07-14 | 2004-07-14 | Image processing apparatus |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2006033232A true JP2006033232A (en) | 2006-02-02 |
Family
ID=35899079
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2004206995A Pending JP2006033232A (en) | 2004-07-14 | 2004-07-14 | Image processing apparatus |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2006033232A (en) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007151080A (en) * | 2005-10-27 | 2007-06-14 | Canon Inc | Image processor and image processing method |
JP2009231871A (en) * | 2008-03-19 | 2009-10-08 | Fuji Xerox Co Ltd | Image processor and image processing program |
JP2010056771A (en) * | 2008-08-27 | 2010-03-11 | Ricoh Co Ltd | Device and method for reading image, program, and storage medium |
JP2010198346A (en) * | 2009-02-25 | 2010-09-09 | Toshiba Corp | Apparatus and method for processing image |
JP2010273268A (en) * | 2009-05-25 | 2010-12-02 | Nikon Corp | Image reproducing device, imaging apparatus, image reproducing method, and image reproducing program |
WO2011024249A1 (en) * | 2009-08-24 | 2011-03-03 | キヤノン株式会社 | Image processing device, image processing method, and image processing program |
US7956899B2 (en) | 2007-08-29 | 2011-06-07 | Sanyo Electric Co., Ltd. | Imaging device and image processing apparatus |
-
2004
- 2004-07-14 JP JP2004206995A patent/JP2006033232A/en active Pending
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007151080A (en) * | 2005-10-27 | 2007-06-14 | Canon Inc | Image processor and image processing method |
US7956899B2 (en) | 2007-08-29 | 2011-06-07 | Sanyo Electric Co., Ltd. | Imaging device and image processing apparatus |
US8411172B2 (en) | 2007-08-29 | 2013-04-02 | Sanyo Electric Co., Ltd. | Imaging device and image processing apparatus |
JP2009231871A (en) * | 2008-03-19 | 2009-10-08 | Fuji Xerox Co Ltd | Image processor and image processing program |
JP2010056771A (en) * | 2008-08-27 | 2010-03-11 | Ricoh Co Ltd | Device and method for reading image, program, and storage medium |
JP2010198346A (en) * | 2009-02-25 | 2010-09-09 | Toshiba Corp | Apparatus and method for processing image |
JP2010273268A (en) * | 2009-05-25 | 2010-12-02 | Nikon Corp | Image reproducing device, imaging apparatus, image reproducing method, and image reproducing program |
WO2011024249A1 (en) * | 2009-08-24 | 2011-03-03 | キヤノン株式会社 | Image processing device, image processing method, and image processing program |
US8571356B2 (en) | 2009-08-24 | 2013-10-29 | Canon Kabushiki Kaisha | Image processing apparatus, image processing method, and image processing program |
JP5587322B2 (en) * | 2009-08-24 | 2014-09-10 | キヤノン株式会社 | Image processing apparatus, image processing method, and image processing program |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4120677B2 (en) | Generation of still images from multiple frame images | |
US8004570B2 (en) | Image processing apparatus, image-pickup apparatus, and image processing method | |
JP4325625B2 (en) | Image processing apparatus, image processing method, program thereof, and recording medium | |
US9253388B2 (en) | Image processing device and method, and program | |
US20100157107A1 (en) | Image Apparatus And Electronic Apparatus | |
JP2007072606A (en) | Image processor and processing method | |
JP2005354124A (en) | Production of high pixel density image from a plurality of low pixel density images | |
US20090189900A1 (en) | Image processing apparatus, image processing program, image production method, and recording medium | |
JP6671994B2 (en) | Imaging device and control method therefor, program, storage medium | |
CN107040713B (en) | Motion vector detection apparatus, control method therefor, and image pickup apparatus | |
JP2006148260A (en) | Automatic tracking device, image abnormality detector, automatic tracking method, image abnormality detecting method, program and storage medium | |
JP2008118555A (en) | Image processor, image pickup device, and image processing method | |
JP6604908B2 (en) | Image processing apparatus, control method thereof, and control program | |
JP2006033232A (en) | Image processing apparatus | |
JP4636786B2 (en) | Captured image projection device, image processing method and program for captured image projection device | |
JP4479396B2 (en) | Image processing apparatus, image processing method, and image processing program | |
US10362213B2 (en) | Imaging apparatus and imaging method | |
JP2009118434A (en) | Blurring correction device and imaging apparatus | |
JP5340021B2 (en) | Image processing apparatus, image processing method, and program | |
JP6545229B2 (en) | IMAGE PROCESSING APPARATUS, IMAGING APPARATUS, CONTROL METHOD OF IMAGE PROCESSING APPARATUS, AND PROGRAM | |
JP2005217618A (en) | Image processing method, image processing apparatus, and image processing program | |
JP2009027437A (en) | Image processor, image processing method and imaging device | |
JP2005129996A (en) | Efficiency enhancement for generation of high-resolution image from a plurality of low resolution images | |
JP2005217721A (en) | Apparatus and method for generating still picture | |
JP4735649B2 (en) | Image projection device |