JP2005122601A - Image processing apparatus, image processing method and image processing program - Google Patents

Image processing apparatus, image processing method and image processing program Download PDF

Info

Publication number
JP2005122601A
JP2005122601A JP2003359036A JP2003359036A JP2005122601A JP 2005122601 A JP2005122601 A JP 2005122601A JP 2003359036 A JP2003359036 A JP 2003359036A JP 2003359036 A JP2003359036 A JP 2003359036A JP 2005122601 A JP2005122601 A JP 2005122601A
Authority
JP
Japan
Prior art keywords
image
still image
image processing
resolution
block
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2003359036A
Other languages
Japanese (ja)
Inventor
Masashi Aiiso
政司 相磯
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Priority to JP2003359036A priority Critical patent/JP2005122601A/en
Publication of JP2005122601A publication Critical patent/JP2005122601A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Editing Of Facsimile Originals (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Image Processing (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To easily confirm the effects of image processing in which the picture quality or the like of details of an image is remarkably changed. <P>SOLUTION: A difference between the pixel values of pixels existing on the same position of the same block in images obtained before and after image processing is calculated. When the resolution values of the images obtained before and after the image processing are different from each other, the resolution of the image obtained before the processing is adjusted, so as to be equal to the resolution of the image obtained after the processing and then the difference is calculated. Differences of pixel values in the whole blocks are calculated by using the calculated difference of pixel values in each pixel, the differences are compared among blocks and the block in which the difference is maximum is specified. Images obtained by enlarging a prescribed area in the specified block are respectively generated from the image data of the images obtained before and after the image processing and displayed on the same picture. Consequently an area in which the effects of image processing are remarkable is displayed as an enlarged image and the effects of the image processing can be easily checked. <P>COPYRIGHT: (C)2005,JPO&NCIPI

Description

本発明は、或る画像に所望の画像処理を施した場合に、その画像処理の効果を確認するための技術に関し、特に、画像処理後の画像内において、最も画像処理の効果が大きい領域を拡大して表示することが可能な技術に関する。   The present invention relates to a technique for confirming the effect of image processing when a desired image processing is performed on a certain image, and in particular, in an image after image processing, an area having the largest image processing effect. The present invention relates to a technology that can be enlarged and displayed.

或る画像に対して、鮮明化、ぼかし、またはノイズ軽減等の画像処理を施した場合に、処理後の画像について、画像処理の効果を確認したい場合がある。一般的に、この画像処理の効果は、画像処理前後における、画像の画質等の差違として現れるので、この画像処理前後における、画像の画質等を比較することで、画像処理の効果を確認することができる。
従来より、複数の画像間における、画質等の差違を確認にするために、その差違をグラフで示したり、画像として表示したりする技術があった。
このような技術の一例としては、下記の特許文献1に記載されたものが知られている。
When image processing such as sharpening, blurring, or noise reduction is performed on a certain image, it may be desired to confirm the effect of the image processing on the processed image. In general, the effect of this image processing appears as a difference in image quality before and after the image processing, so the effect of the image processing can be confirmed by comparing the image quality before and after this image processing. Can do.
Conventionally, in order to confirm a difference in image quality or the like between a plurality of images, there has been a technique of displaying the difference in a graph or displaying it as an image.
As an example of such a technique, one described in Patent Document 1 below is known.

特開平6−237917号公報Japanese Patent Laid-Open No. 6-237917

しかし、画像処理による画質等の差違が、画像の細部において顕著となるような画像処理方法を用いた場合においては、画像処理前後における、画像の画質等の差違、つまり、画像処理の効果が、確認しづらいという課題があった。   However, in the case of using an image processing method in which the difference in image quality due to image processing becomes significant in the details of the image, the difference in image quality before and after image processing, that is, the effect of image processing is There was a problem that it was difficult to confirm.

本発明は、上述の課題を解決するためになされたものであり、画像の細部において、画質等の変化が顕著となるような画像処理を施した場合においても、容易にその画像処理の効果を確認できるようにすることを目的とする。   The present invention has been made in order to solve the above-described problems. Even when image processing is performed such that changes in image quality or the like are noticeable in image details, the effect of the image processing is easily achieved. The purpose is to be able to confirm.

上述の課題の少なくとも一部を解決するために、本発明の画像処理装置は、第1の静止画像と、前記第1の静止画像に対して所望の画像処理を施した結果得られる第2の静止画像と、を表示することが可能な画像処理装置であって、
前記第1の静止画像と、前記第2の静止画像と、を比較して、前記所望の画像処理の前後において、所定画素値の変化が最大となる領域を特定する領域特定処理部と、
前記第1の静止画像における前記特定領域を拡大して第1の領域拡大画像を得ると共に、前記第2の静止画像における前記特定領域を拡大して第2の領域拡大画像を得る拡大処理部と、
前記第1の領域拡大画像と、前記第2の領域拡大画像と、を並列して表示させる表示処理部と、
を備えることを要旨とする。
In order to solve at least a part of the above-described problems, an image processing apparatus according to the present invention includes a first still image and a second obtained as a result of performing desired image processing on the first still image. An image processing apparatus capable of displaying a still image,
An area specifying processor that compares the first still image with the second still image and specifies an area in which a change in a predetermined pixel value is maximum before and after the desired image processing;
An enlargement processing unit that obtains a first region enlarged image by enlarging the specific region in the first still image and obtains a second region enlarged image by enlarging the specific region in the second still image; ,
A display processing unit that displays the first region enlarged image and the second region enlarged image in parallel;
It is a summary to provide.

本発明の画像処理装置では、領域特定処理部は、所望の画像処理を施す前の第1の静止画像と、所望の画像処理を施した結果得られる第2の静止画像と、を比較して、それぞれ同じ位置にある画素について、所定の画素値の変化を把握して、その変化が最大となる所定の領域を特定する。
一方、拡大処理部は、第1の静止画像および第2の静止画像における、領域特定処理部によって特定された所定の領域を、それぞれ拡大して、第1の領域拡大画像および第2の領域拡大画像を生成し、また、画像処理部は、拡大処理部によって生成された第1の領域拡大画像および第2の領域拡大画像を、それぞれ並べて表示させる。
In the image processing apparatus of the present invention, the region specifying processing unit compares the first still image before performing the desired image processing with the second still image obtained as a result of performing the desired image processing. For each pixel at the same position, a change in a predetermined pixel value is grasped, and a predetermined area where the change is maximum is specified.
On the other hand, the enlargement processing unit enlarges the predetermined regions specified by the region specifying processing unit in the first still image and the second still image, respectively, so that the first region expansion image and the second region expansion are performed. The image is generated, and the image processing unit displays the first region enlarged image and the second region enlarged image generated by the enlargement processing unit side by side.

画像に所望の画像処理を施した場合に、処理後の画像において、その画像処理の効果が大きい部分は、当然に、その部分における画素の所定画素値が、処理前に比べて大きく変化しているものと仮定すると、上述のような構成とすることで、上述の画像処理の効果が最大となる領域を特定することができる。しかも、画像処理前後の画像について、その特定した領域を拡大し、並列して表示することで、一見して、画像処理前後の画像を比較することができると共に、その画像処理が、画像の細部において、画質が変化するような画像処理であったとしても、その画像処理の効果が確認しやすくなる。   When the desired image processing is performed on the image, in the processed image, the portion where the effect of the image processing is large is, of course, that the predetermined pixel value of the pixel in the portion changes greatly compared to before the processing. Assuming that the above-described configuration is adopted, it is possible to specify a region where the above-described image processing effect is maximized. In addition, the images before and after the image processing can be compared and the images before and after the image processing can be compared at a glance by enlarging the specified area and displaying the images in parallel. However, even if the image processing is such that the image quality changes, it is easy to confirm the effect of the image processing.

また、本発明の画像処理装置において、前記第1の静止画像と、前記第2の静止画像と、で解像度が異なる場合には、前記第1の静止画像の解像度を調整して前記第2の静止画像の解像度と等しくする解像度調整部をさらに備えると共に、
前記領域特定処理部は、解像度を調整された前記第1の静止画像と、前記第2の静止画像と、を比較することが好ましい。
Further, in the image processing apparatus of the present invention, when the first still image and the second still image have different resolutions, the second still image is adjusted by adjusting the resolution of the first still image. It further includes a resolution adjustment unit that equals the resolution of the still image,
It is preferable that the area specifying processing unit compares the first still image with the adjusted resolution and the second still image.

このような構成とすることで、仮に、第1の静止画像および第2の静止画像が、互いに解像度が異なる場合でも、第1の静止画像の解像度が、第2の静止画像の解像度と等しくなるように調整されるので、第1の静止画像および第2の静止画像において、それぞれ同じ位置に画素が存在することとなる。したがって、領域特定処理部は、第1の静止画像および第2の静止画像に含まれる全ての画素について、同じ位置にあるそれぞれの画素の画素値の変化を把握することができ、所定画素値の変化が最大となる領域を、正確に特定することができる。   By adopting such a configuration, even if the first still image and the second still image have different resolutions, the resolution of the first still image becomes equal to the resolution of the second still image. Thus, the pixels are present at the same position in the first still image and the second still image. Therefore, the area specifying processing unit can grasp the change in the pixel value of each pixel at the same position for all the pixels included in the first still image and the second still image, and the predetermined pixel value It is possible to accurately identify the region where the change is maximum.

また、本発明の画像処理装置において、前記第1の静止画像または前記第2の静止画像から前記特定領域を含む第3の静止画像を生成する特定領域画像生成部をさらに備えると共に、
前記表示処理部は、前記第3の静止画像と、前記第3の静止画像内での前記特定領域の位置を示すマークと、を表示させるようにしてもよい。
The image processing apparatus of the present invention further includes a specific area image generation unit that generates a third still image including the specific area from the first still image or the second still image,
The display processing unit may display the third still image and a mark indicating the position of the specific area in the third still image.

本発明において、仮に、所望の画像処理の効果が最大となる領域のみが拡大されて表示された場合には、その拡大表示された領域が、第1の静止画像および第2の静止画像の画像内で、どの位置にあたるかを確認しづらくなってしまう。しかし、上述のような構成とすることで、第1の静止画像および第2の静止画像の画像内における、上述の拡大表示された領域の位置を明確に示すことができ、第1の静止画像および第2の静止画像において、どの位置の領域が、画像処理の効果が最大であったのかを容易に確認することができる。   In the present invention, if only a region where the desired image processing effect is maximized is displayed in an enlarged manner, the enlarged and displayed regions are images of the first still image and the second still image. This makes it difficult to check which position it is in. However, with the configuration as described above, it is possible to clearly indicate the position of the above-described enlarged display area in the first still image and the second still image. In addition, in the second still image, it is possible to easily confirm which region has the maximum image processing effect.

また、前記領域特定部は、前記第1の静止画像と、前記第2の静止画像と、をそれぞれ同様な複数のブロックに分け、前記第1の静止画像と前記第2の静止画像について、同じ位置にある前記ブロック同士を順次比較して、前記所望の画像処理の前後において、所定画素値の変化が最大となるブロックを導き出し、そのブロックに基づいて、前記所定領域を特定するようにしてもよい。   In addition, the region specifying unit divides the first still image and the second still image into a plurality of similar blocks, and the same for the first still image and the second still image. The blocks at the positions are sequentially compared to derive a block having the maximum change in the predetermined pixel value before and after the desired image processing, and the predetermined area is specified based on the block. Good.

このような構成とすることで、ブロックに含まれる複数の画素の所定画素値の変化に基づいて、所望の画像処理の効果が最大となる領域を特定することになるので、信頼性の高い領域の特定が可能となる。   By adopting such a configuration, a region where the effect of desired image processing is maximized is specified based on a change in a predetermined pixel value of a plurality of pixels included in the block. Can be specified.

なお、前記所望の画像処理は、複数の比較的低解像度な静止画像から1枚の比較的高解像度な静止画像を生成する画像処理であってもよい。   The desired image processing may be image processing for generating one relatively high-resolution still image from a plurality of relatively low-resolution still images.

なお、本発明は、以下に示すような種々の態様で実現することが可能である。
(1) 画像処理方法。
(2) 上述の画像処理装置や画像処理方法を実現するためのコンピュータプログラム。
Note that the present invention can be realized in various modes as described below.
(1) Image processing method.
(2) A computer program for realizing the above-described image processing apparatus and image processing method.

本発明をコンピュータプログラムまたはそのプログラムを記録した記録媒体として構成する場合には、上述の画像処理装置の動作を制御するプログラム全体として構成するものとしてもよいし、本発明の機能を果たす部分のみを構成するものとしてもよい。また、記録媒体としては、フレキシブルディスクやCD−ROM、DVD−ROM/RAM、光磁気ディスク、ICカード、メモリカード、磁気テープ、ROMカートリッジ、パンチカード、バーコードなどの符号が印刷された印刷物、コンピュータの内部記憶装置(RAMやROMなどのメモリ)および外部記憶装置などコンピュータが読み取り可能な種々の媒体を利用できる。   When the present invention is configured as a computer program or a recording medium recording the program, the entire program for controlling the operation of the above-described image processing apparatus may be configured, or only a portion that performs the function of the present invention. It may be configured. In addition, as a recording medium, a printed matter on which a code such as a flexible disk, a CD-ROM, a DVD-ROM / RAM, a magneto-optical disk, an IC card, a memory card, a magnetic tape, a ROM cartridge, a punch card, a barcode is printed, Various computer-readable media such as an internal storage device (a memory such as a RAM or a ROM) and an external storage device can be used.

以下、本発明を実施するための最良の形態を実施例に基づいて以下の順序で説明する。
A.実施例:
A1.装置構成:
A2.具体的な動作:
A3.鮮明化処理の詳細動作:
A4.実施例の効果:
B.変形例
Hereinafter, the best mode for carrying out the present invention will be described in the following order based on examples.
A. Example:
A1. Device configuration:
A2. Specific behavior:
A3. Detailed operation of sharpening process:
A4. Effects of the embodiment:
B. Modified example

A.実施例:
A1.装置構成:
図2は、本発明の実施例における画像処理装置10の概略構成を示す説明図である。画像処理装置10は、コンピュータ20と、コンピュータ20にデータを入力するための装置として、キーボード30、マウス31、ビデオカメラ32、およびDVDドライブ33と、画像等を出力する装置として、ディスプレイ40、およびプリンタ41と、を備えている。なお、ビデオカメラ32は、動画像の撮影の他に、挿入される磁気テープ35に保存されている静止画像データや動画像データを読み出すことができる。またDVDドライブ33は、挿入されるDVD34に保存されている静止画像データや、動画像データを読み出すことができる。
A. Example:
A1. Device configuration:
FIG. 2 is an explanatory diagram showing a schematic configuration of the image processing apparatus 10 according to the embodiment of the present invention. The image processing apparatus 10 includes a computer 20, a keyboard 30, a mouse 31, a video camera 32, and a DVD drive 33 as devices for inputting data to the computer 20, and a display 40 as devices for outputting images and the like. And a printer 41. The video camera 32 can read out still image data and moving image data stored on the magnetic tape 35 to be inserted, in addition to shooting a moving image. The DVD drive 33 can read still image data and moving image data stored in the inserted DVD 34.

コンピュータ20は、CPU21、メモリ22、ハードディスク23、および入出力インタフェース部24を備えており、それぞれ内部バス25によって接続されている。ここで、入出力インタフェース部24は、コンピュータ20に対して、上述のキーボード30、マウス31、ビデオカメラ32、DVDドライブ33、ディスプレイ40、およびプリンタ41を、それぞれ接続するためのインタフェース群からなる機能部である。   The computer 20 includes a CPU 21, a memory 22, a hard disk 23, and an input / output interface unit 24, and each is connected by an internal bus 25. Here, the input / output interface unit 24 includes a group of interfaces for connecting the above-described keyboard 30, mouse 31, video camera 32, DVD drive 33, display 40, and printer 41 to the computer 20. Part.

コンピュータ20では、所定のオペレーティングシステムの下、アプリケーションプログラム100が動作することとなる。なお、このオペレーティングシステムには、各種ドライバが組み込まれ、上述のキーボード30、マウス31、ビデオカメラ32、DVDドライブ33、ディスプレイ40、およびプリンタ41が制御される。このアプリケーションプログラム100が、起動されてメモリ22にロードされると、CPU21は、アプリケーションプログラム100を実行することにより、画像処理部100a,1フレーム高解像度化処理部100b,領域特定処理部100c,拡大処理部100d,および表示処理部100eとして機能することとなる。
なお、1フレーム高解像度化処理部100bは、請求項に記載の解像度調整部、および特定領域画像生成部に該当し、領域特定処理部100cは、請求項に記載の領域特定処理部に該当し、拡大処理部100dは、請求項に記載の拡大処理部に該当し、表示処理部100eは、請求項に記載の表示処理部に該当する。
In the computer 20, the application program 100 operates under a predetermined operating system. Various drivers are incorporated in this operating system, and the above-described keyboard 30, mouse 31, video camera 32, DVD drive 33, display 40, and printer 41 are controlled. When the application program 100 is activated and loaded into the memory 22, the CPU 21 executes the application program 100, thereby causing the image processing unit 100a, the 1-frame high resolution processing unit 100b, the region specifying processing unit 100c, and the enlargement. It functions as the processing unit 100d and the display processing unit 100e.
The one-frame high resolution processing unit 100b corresponds to the resolution adjustment unit and the specific region image generation unit described in the claims, and the region specification processing unit 100c corresponds to the region specification processing unit described in the claims. The enlargement processing unit 100d corresponds to the enlargement processing unit described in the claims, and the display processing unit 100e corresponds to the display processing unit described in the claims.

A2.具体的な動作:
本実施例では、画像に所望の画像処理を施した後、効果明確化処理として、画像処理後の画像において、その画像処理の効果が大きい領域を特定し、その特定した領域を拡大して表示することにより、ユーザが容易にその画像処理の効果を確認できるようにするものである。
なお、画像に施す画像処理としては、動画像から高解像度で高画質な静止画像を生成するための鮮明化処理を行う場合を例として説明する。
また、本実施例では、画像に所望の画像処理を施した場合に、処理後の画像において、その画像処理の効果が大きい部分は、当然に、その部分の画素の画素データ(画素値)が、処理前に比べて大きく変化しているものと仮定して、各画素の処理前後の画素データの変化に求めることにより、処理後の画像における画像処理の効果の大きい領域を特定するようにしている。
なお、画像を構成する各画素の画素データとしては、輝度と色差の情報であるYCrCbデータを用いており、そのYCrCbデータのうち、特に、輝度値Yについて、処理前後の変化を求めて、画像処理の効果が大きい領域を特定するようにしている。
A2. Specific behavior:
In this embodiment, after performing desired image processing on the image, as the effect clarification processing, in the image after image processing, an area where the effect of the image processing is large is specified, and the specified area is enlarged and displayed. By doing so, the user can easily confirm the effect of the image processing.
In addition, as an image process performed on an image, a case where a sharpening process for generating a high-resolution and high-quality still image from a moving image is described as an example.
In the present embodiment, when desired image processing is performed on an image, the portion of the processed image that has a large effect on the image processing naturally has pixel data (pixel value) of the pixel of that portion. Assuming that there is a large change compared to before processing, by determining the change in pixel data before and after processing of each pixel, it is possible to identify a region where the effect of image processing in the processed image is large Yes.
Note that YCrCb data, which is information on luminance and color difference, is used as pixel data of each pixel constituting the image. Among the YCrCb data, in particular, regarding the luminance value Y, a change before and after the processing is obtained, An area where the effect of processing is large is specified.

図1は、本実施例における画像処理装置10のユーザインタフェースを示す説明図である。図1において、(A)は、ディスプレイ40上に表示されるムービ操作ダイアログD1を示す説明図である。また、(B)は、鮮明化処理の結果得られるフレーム画像のブロック分割例を示す説明図である。また、(C)は、ディスプレイ40上に表示される鮮明化ダイアログD2を示す説明図である。   FIG. 1 is an explanatory diagram illustrating a user interface of the image processing apparatus 10 according to the present exemplary embodiment. 1A is an explanatory diagram showing a movie operation dialog D1 displayed on the display 40. FIG. (B) is an explanatory diagram showing an example of block division of a frame image obtained as a result of the sharpening process. Further, (C) is an explanatory diagram showing a sharpening dialog D2 displayed on the display 40. FIG.

図2において、ビデオカメラ32に挿入された、磁気テープ35に保存されている動画像データや、DVDドライブ33に挿入された、DVD34に保存されている動画像データが、キーボード30やマウス31の操作により指定され、読み出されると、図1(A)に示すように、ディスプレイ40上にムービ操作ダイアログD1が表示される。このとき、このムービ操作ダイアログD1内の画像表示枠W11内には、指定された動画像データの先頭のフレーム画像が静止画像として表示される。   In FIG. 2, moving image data stored on the magnetic tape 35 inserted into the video camera 32 and moving image data stored on the DVD 34 inserted into the DVD drive 33 are stored in the keyboard 30 and the mouse 31. When designated and read by the operation, a movie operation dialog D1 is displayed on the display 40 as shown in FIG. At this time, the first frame image of the designated moving image data is displayed as a still image in the image display frame W11 in the movie operation dialog D1.

上述の指定された動画像データがファイルとして存在するのであれば、そのファイル名もムービ操作ダイアログD1内に表示される。例えば、図1(A)では、Movie001.aviという動画像ファイルが指定されたとして、そのファイル名が表示されている。その他に、ムービ操作ダイアログD1内には、図1(A)に示すように、上述の指定された動画像の再生、停止、早送り、戻し、一時停止、のそれぞれの操作ボタンを含む動画像操作メニューM1が表示される。
また、動画像操作メニューM1内の再生操作ボタンm10が、キーボード30やマウス31の操作によって選択されると、動画像の再生が始まり、画像表示枠W11内に動画が表示される。更に、この動画像の再生中に、動画像操作メニューM1内の一時停止操作ボタンm11が選択されると、動画像の再生が停止し、図1(A)に示すように、そのタイミングで画像表示枠W11に表示されていたフレーム画像が、静止画像として表示される。
そして、ムービダイアログD1内には、この表示されたフレーム画像に対して、各種処理を施すための静止画像操作メニューM2も表示されることとなる。この静止画像操作メニューM2には、「鮮明化」操作ボタンm20、「プリント」操作ボタンm21、および「保存」操作ボタンm22が含まれる。
この状態において、「プリント」操作ボタンm21が、図2に示すキーボード30やマウス31の操作によって選択されると、画像表示枠W11に表示されているフレーム画像の画像データが、動画像データの中から抽出され、図2に示すプリンタ41に送られてフレーム画像が印刷される。また、「保存」操作ボタンm22が、キーボード30やマウス31の操作によって選択されると、画像表示枠W11に表示されているフレーム画像の画像データが、動画像データの中から抽出され、図2に示すハードディスク23や、DVD34に保存される。
一方、「鮮明化」操作ボタンm20が、キーボード30やマウス31の操作によって選択されると、ディスプレイ40上に図1(C)に示す鮮明化ダイヤログD2が表示され、鮮明化処理と、その後に、本発明の特徴部分である効果明確化処理と、が実行される。
図1(A)に示す「鮮明化」操作ボタンm20が選択されると、図2に示すCPU21の機能部である画像処理部100aによって、まず、鮮明化処理が実行される。
鮮明化処理では、まず、フレーム画像FAを含む複数枚のフレーム画像の画像データが、動画像データから切り出され、図2に示すメモリ22に格納される。(なお、この動画像データからの切り出しおよびメモリ22への格納を、以下「キャプチャ」と呼ぶ。)そして、このキャプチャされた複数のフレーム画像の中から1つの基準フレーム画像と、それ以外の対象フレーム画像と、が決定され、これら基準フレーム画像および対象フレーム画像の画像データを利用して補間処理が行われ、基準フレーム画像を高解像度化した鮮明化処理画像FBが生成される。そして、この鮮明化処理画像FBの画像データが、メモリ22に格納され、鮮明化処理は終了する。
なお、フレーム画像のキャプチャは、上述のように、鮮明化処理内で実行されても、図1に示す動画像操作メニューM1内の一時停止操作ボタンm11が選択されたタイミングで実行されても構わない。
鮮明化処理の詳細な動作については後述するが、以下、鮮明化処理において、フレーム画像FAが基準フレーム画像として選択されたものとし、また、フレーム画像FAの解像度に対する鮮明化処理画像FBの解像度の倍率が、倍率Aであるものとする。
こうして、鮮明化処理が終了すると、次に、効果明確化処理が実行される。
If the above-described designated moving image data exists as a file, the file name is also displayed in the movie operation dialog D1. For example, in FIG. Assuming that a moving image file “avi” is designated, the file name is displayed. In addition, in the movie operation dialog D1, as shown in FIG. 1A, a moving image operation including the above-mentioned designated moving image playback, stop, fast forward, reverse, and pause operation buttons. Menu M1 is displayed.
When the playback operation button m10 in the moving image operation menu M1 is selected by operating the keyboard 30 or the mouse 31, the playback of the moving image starts and a moving image is displayed in the image display frame W11. Further, when the pause operation button m11 in the moving image operation menu M1 is selected during the reproduction of the moving image, the reproduction of the moving image is stopped, and the image is displayed at the timing as shown in FIG. The frame image displayed in the display frame W11 is displayed as a still image.
In the movie dialog D1, a still image operation menu M2 for performing various processes on the displayed frame image is also displayed. The still image operation menu M2 includes a “clear” operation button m20, a “print” operation button m21, and a “save” operation button m22.
In this state, when the “print” operation button m21 is selected by operating the keyboard 30 or the mouse 31 shown in FIG. 2, the image data of the frame image displayed in the image display frame W11 is included in the moving image data. And is sent to the printer 41 shown in FIG. 2 to print a frame image. When the “save” operation button m22 is selected by operating the keyboard 30 or the mouse 31, the image data of the frame image displayed in the image display frame W11 is extracted from the moving image data. Are stored in the hard disk 23 and the DVD 34 shown in FIG.
On the other hand, when the “sharpening” operation button m20 is selected by operating the keyboard 30 or the mouse 31, the sharpening dialog D2 shown in FIG. 1 (C) is displayed on the display 40. In addition, an effect clarification process that is a characteristic part of the present invention is executed.
When the “sharpening” operation button m20 shown in FIG. 1A is selected, a sharpening process is first executed by the image processing unit 100a which is a functional part of the CPU 21 shown in FIG.
In the sharpening process, first, image data of a plurality of frame images including the frame image FA are cut out from the moving image data and stored in the memory 22 shown in FIG. (Note that the extraction from the moving image data and the storage in the memory 22 are hereinafter referred to as “capture”.) Then, one reference frame image among the plurality of captured frame images and other objects A frame image is determined, and interpolation processing is performed using image data of the reference frame image and the target frame image, and a sharpened image FB in which the resolution of the reference frame image is increased is generated. Then, the image data of the sharpening processed image FB is stored in the memory 22, and the sharpening processing ends.
Note that the capture of the frame image may be executed within the sharpening process as described above, or may be executed when the pause operation button m11 in the moving image operation menu M1 shown in FIG. 1 is selected. Absent.
The detailed operation of the sharpening process will be described later. Hereinafter, in the sharpening process, it is assumed that the frame image FA is selected as the reference frame image, and the resolution of the sharpening process image FB with respect to the resolution of the frame image FA is set. The magnification is assumed to be magnification A.
Thus, when the sharpening process is completed, an effect clarifying process is executed next.

図3は本発明の一実施例としての効果明確化処理の処理手順を示すフローチャートである。
効果明確化処理では、まず、1フレーム高解像度化処理(ステップS3)において、フレーム画像FAを高解像度化して、鮮明化処理画像FBと同じ解像度にする。この1フレーム高解像度化処理(ステップS3)は、図2に示す1フレーム高解像度化処理部100bによって実行される。
FIG. 3 is a flowchart showing the processing procedure of the effect clarification processing as one embodiment of the present invention.
In the effect clarification processing, first, in the one-frame high resolution processing (step S3), the resolution of the frame image FA is increased to the same resolution as that of the sharpened processing image FB. This 1-frame resolution enhancement processing (step S3) is executed by the 1-frame resolution enhancement processing unit 100b shown in FIG.

1フレーム高解像度化処理(ステップS3)では、メモリ22に格納されているフレーム画像FAのみの画像データを用いて、補間処理を行って、鮮明化処理画像FBと同じ解像度の1フレーム高解像度化画像FCを得る。ただし、この補間処理方法としては、バイ・リニア法、バイ・キュービック法、またはニアレストネイバ法等のうち、鮮明化処理における補間処理と同じ補間処理方法を用い、かつ、同じ倍率Aとする。   In the 1-frame high-resolution processing (step S3), interpolation processing is performed using only the image data of the frame image FA stored in the memory 22, and the 1-frame high-resolution having the same resolution as that of the sharpened image FB is obtained. An image FC is obtained. However, as this interpolation processing method, among the bi-linear method, the bi-cubic method, or the nearest neighbor method, the same interpolation processing method as the interpolation processing in the sharpening processing is used, and the same magnification A is used.

例えば、鮮明化処理において、バイ・リニア法を用いて補間処理を行い、フレーム画像FAに対して1.5倍密に高解像度化された、鮮明化処理画像FBを得た場合には、1フレーム高解像度化処理(ステップS3)においても、同様に、バイ・リニア法を用いて補間処理を行い、フレーム画像FAに対して、1.5倍密に高解像度化された、1フレーム高解像度化画像FCを得るものとする。
そして、このようにして得られた1フレーム高解像度化画像FCの画像データは、メモリ22に格納される。
For example, in the sharpening process, when the interpolation process is performed using the bi-linear method to obtain a sharpened processed image FB that is 1.5 times higher in resolution than the frame image FA, 1 Similarly, in the frame high-resolution processing (step S3), interpolation processing is performed using the bi-linear method, and the resolution of the frame image FA is increased to 1.5 times higher resolution. Assume that a converted image FC is obtained.
Then, the image data of the 1-frame high-resolution image FC obtained in this way is stored in the memory 22.

1フレーム高解像度化処理(ステップS3)に引き続き、ブロック輝度差分算出処理(ステップS4)、およびブロック輝度差分最大ブロック特定処理(ステップS5)が、図2に示す領域特定処理部100cによって実行される。
ブロック輝度差分算出処理(ステップS4)では、まず、1フレーム高解像度化画像FCと鮮明化処理画像FBとを比較して、対象ブロックとして同じ位置にあるブロックに着目し、それらブロックに含まれる同じ位置の画素について、それぞれの輝度の差分(以下、「輝度差分」と呼ぶ。)が算出される。そして、対象ブロックに関し、全ての画素についての輝度差分が算出されると、続いて、これら全ての輝度差分の合計値(以下、「ブロック輝度差分」と呼ぶ。)が算出され、その値がメモリ22に格納される。そして、以上の手順が、対象ブロックを順次切り換えて、全てのブロックについて実行される。
続いて実行される、ブロック輝度差分最大ブロック特定処理(ステップS5)では、上述のブロック輝度差分算出処理(ステップS4)で算出された、各ブロック毎のブロック輝度差分が、互いに比較される。そして、ブロック輝度差分が最大となるブロックが特定され、そのブロック番号がメモリ22に格納される。
なお、ブロック輝度差分算出処理(ステップS4)、およびブロック輝度差分最大ブロック特定処理(ステップS5)の詳細な手順については、後述する。
Subsequent to the one-frame resolution enhancement processing (step S3), the block luminance difference calculation processing (step S4) and the block luminance difference maximum block identification processing (step S5) are executed by the region identification processing unit 100c shown in FIG. .
In the block luminance difference calculation process (step S4), first, the 1-frame high-resolution image FC and the sharpening-processed image FB are compared, paying attention to the blocks at the same position as the target block, and the same included in those blocks For each pixel at the position, a difference in luminance (hereinafter referred to as “luminance difference”) is calculated. Then, when the luminance difference for all pixels is calculated for the target block, the total value of all the luminance differences (hereinafter referred to as “block luminance difference”) is calculated, and the value is stored in the memory. 22. The above procedure is executed for all blocks by sequentially switching the target blocks.
Subsequently, in the block luminance difference maximum block specifying process (step S5) to be executed, the block luminance difference for each block calculated in the block luminance difference calculating process (step S4) is compared with each other. Then, the block having the largest block luminance difference is specified, and the block number is stored in the memory 22.
The detailed procedure of the block luminance difference calculation process (step S4) and the block luminance difference maximum block specifying process (step S5) will be described later.

続いて輝度差分最大ブロックの拡大処理(ステップS6)が、図2に示す拡大処理部100dによって実行される。この処理では、まず、ブロック輝度差分最大ブロック特定処理(ステップS5)において、メモリ22に格納されたブロック番号が参照される。続いて、この参照されたブロック番号に基づいて、メモリ22に格納された、鮮明化処理画像FBの画像データおよび1フレーム高解像度化画像FCの画像データの中から、該当するブロックの中心位置を中心とした所定の領域の画像データが、それぞれ抽出される。そして、これら抽出された所定領域の画像データに基づいて、それぞれ拡大処理が施され、領域拡大画像Fbおよび領域拡大画像Fcが生成される。そして、この領域拡大画像Fb,Fcのそれぞれの画像データが、メモリ22に格納される。なお、上述の拡大処理における拡大率を、拡大率Bとする。   Subsequently, the enlargement processing of the maximum luminance difference block (step S6) is executed by the enlargement processing unit 100d shown in FIG. In this process, first, the block number stored in the memory 22 is referred to in the block luminance difference maximum block specifying process (step S5). Subsequently, based on the referenced block number, the center position of the corresponding block is selected from the image data of the sharpened image FB and the image data of the 1-frame high-resolution image FC stored in the memory 22. Image data of a predetermined area at the center is extracted. Then, an enlargement process is performed based on the extracted image data of the predetermined area, and an area enlarged image Fb and an area enlarged image Fc are generated. Then, the image data of the region enlarged images Fb and Fc are stored in the memory 22. Note that an enlargement ratio in the above-described enlargement process is an enlargement ratio B.

なお、この時の拡大処理は、バイ・リニア法、バイ・キュービック法、またはニアレストネイバ法等を用いた補間処理によって行われるが、鮮明化処理画像FBおよび1フレーム高解像度化画像FCのそれぞれの所定領域について、それぞれ同じ補間方法を用い、かつ、同じ拡大率Bとする。   Note that the enlargement processing at this time is performed by interpolation processing using a bi-linear method, a bi-cubic method, a nearest neighbor method, or the like, but each of the sharpening processing image FB and the one-frame high-resolution image FC is performed. For the predetermined regions, the same interpolation method is used, and the same enlargement ratio B is used.

なお、上述の所定領域のサイズは、拡大率Bと、後述の画像表示枠W22,W23のサイズと、によって予め規定されている。   Note that the size of the predetermined area described above is defined in advance by the enlargement ratio B and the sizes of image display frames W22 and W23 described later.

続いて表示処理(ステップS7)が、図2に示す表示処理部100eによって実行される。この処理では、メモリ22に格納された、領域拡大画像Fb,Fcの、それぞれの画像データが読みだされ、図1(C)に示すように、鮮明化ダイアログD2内にある、画像表示枠W22,W23内に、それぞれ並べて表示される。図1(C)では、ブロック輝度差分最大ブロック特定処理(ステップS5)の結果、図1(B)に示す20番目のブロックが決定されたものとして示している。   Subsequently, display processing (step S7) is executed by the display processing unit 100e shown in FIG. In this process, the respective image data of the area enlarged images Fb and Fc stored in the memory 22 are read out, and as shown in FIG. 1C, the image display frame W22 in the sharpening dialog D2 is read. , W23 are displayed side by side. FIG. 1C shows that the 20th block shown in FIG. 1B is determined as a result of the block luminance difference maximum block specifying process (step S5).

また、上述の2つの領域拡大画像Fb,Fcの並列表示の他に、鮮明化ダイアログD2内には、図1(C)に示すように、フレーム画像FAを縮小したフレーム画像(以下、「縮小フレーム画像」と呼ぶ。)Faが、画像表示枠W24内に表示される。
この縮小フレーム画像Faは、図2に示す1フレーム高解像度化処理部100bによって、メモリ22に格納されたフレーム画像FAの画像データに基づいて、バイ・リニア法、バイ・キュービック法、またはニアレストネイバ法等を用いた補間処理が行われて生成される。
更に、この縮小フレーム画像Fa上に十字カーソルCsが表示されるが、この十字カーソルCsは、ブロック輝度差分最大ブロックの特定処理(ステップS5)で決定されたブロックの中心位置に表示されて、並列表示された2つの領域拡大画像Fb,Fcが、どの位置のブロックの所定領域を拡大した画像であるかを示すマークである。
In addition to the parallel display of the two region enlarged images Fb and Fc described above, a frame image obtained by reducing the frame image FA (hereinafter referred to as “reduced”) as shown in FIG. This is referred to as a “frame image.”) Fa is displayed in the image display frame W24.
Based on the image data of the frame image FA stored in the memory 22, the reduced frame image Fa is obtained from the bi-linear method, the bi-cubic method, or the nearest image by the one-frame high resolution processing unit 100b shown in FIG. An interpolation process using a neighbor method or the like is performed and generated.
Further, a crosshair cursor Cs is displayed on the reduced frame image Fa. The crosshair cursor Cs is displayed at the center position of the block determined in the block luminance difference maximum block specifying process (step S5), and is displayed in parallel. The displayed two area enlarged images Fb and Fc are marks indicating which positions of the block are enlarged images of the predetermined area.

なお、縮小フレーム画像Faは、他の画像と比較するための画像ではなく、領域拡大画像Fb、および領域拡大画像Fcが、どの位置のブロックに該当するかを示すためだけの画像であるため、画質は問わず、また、画像表示枠W24内に表示可能な画像サイズであればよい。従って、フレーム画像FAまたは鮮明化処理画像FBが、画像表示枠W24内に表示可能な画像サイズであれば、縮小フレーム画像Faに代えて、これらフレーム画像FAまたは鮮明化処理画像FBを表示しても構わない。   Note that the reduced frame image Fa is not an image for comparison with other images, but is an image only for indicating to which block the region enlarged image Fb and the region enlarged image Fc correspond. The image quality is not limited, and any image size that can be displayed in the image display frame W24 may be used. Therefore, if the frame image FA or the sharpened image FB has an image size that can be displayed in the image display frame W24, the frame image FA or the sharpened image FB is displayed instead of the reduced frame image Fa. It doesn't matter.

ところで、鮮明化ダイアログD2内には、図1(C)に示すように、「プリント」操作ボタンm31、「保存」操作ボタンm32、および「閉じる」操作ボタンm33を含む、操作メニューM3が表示される。ここで、「プリント」操作ボタンm31が、図2に示すキーボード30やマウス31の操作によって選択されると、鮮明化処理画像FBの画像データが、プリンタ41に送られ、鮮明化処理画像FBが印刷される。また、「保存」操作ボタンm32が、キーボード30やマウス31の操作によって選択されると、鮮明化処理画像FBの画像データが、この時点での格納先であるメモリ22から、ハードディスク23やDVD34等の記録媒体にコピーされ、保存される。また、「閉じる」操作ボタンm33が、キーボード30やマウス31の操作によって選択されると、鮮明化ダイヤログD2が閉じて、ムービ操作ダイアログD1がアクティブとなり、かつ、メモリ22に格納されていた、画像データやブロック番号等の全てのデータが、クリアされることとなる。   By the way, as shown in FIG. 1C, an operation menu M3 including a “print” operation button m31, a “save” operation button m32, and a “close” operation button m33 is displayed in the sharpening dialog D2. The Here, when the “print” operation button m31 is selected by operating the keyboard 30 and the mouse 31 shown in FIG. 2, the image data of the sharpened image FB is sent to the printer 41, and the sharpened image FB is displayed. Printed. When the “save” operation button m32 is selected by operating the keyboard 30 or the mouse 31, the image data of the sharpened image FB is transferred from the memory 22 which is the storage destination at this time from the hard disk 23, the DVD 34, or the like. Are copied and stored in a recording medium. When the “close” operation button m33 is selected by operating the keyboard 30 or the mouse 31, the sharpening dialog D2 is closed and the movie operation dialog D1 is activated and stored in the memory 22. All data such as image data and block numbers will be cleared.

以下、ブロック輝度差分算出処理(ステップS4)、およびブロック輝度差分最大ブロック特定処理(ステップS5)について、それぞれ詳細な手順を説明する。   Hereinafter, detailed procedures for the block luminance difference calculation process (step S4) and the block luminance difference maximum block specifying process (step S5) will be described.

図4は、本発明の実施例におけるブロック輝度差分算出処理(ステップS4)の詳細な処理手順を示すフローチャートである。まず、処理対象となるブロックのブロック番号を示す変数jに対して、最初に処理対象となるブロックのブロック番号が代入される(ステップS401)。ここで、鮮明化処理画像FBおよび1フレーム高解像度化画像FCは、ともに同じ数のブロックに分割され、同じ位置のブロックに、同じブロック番号を付すものとする。本実施例では、図1(B)に示すように、鮮明化処理画像FBおよび1フレーム高解像度化画像FCを、左上隅のブロックからブロックB1、B2、B3、...、B36、およびブロックC1、C2、C3、...、C36と、それぞれ同数の36のブロックに分割して、この順番に、1、2、...、36と、それぞれブロック番号を付す。
そして、上述のように定めたブロック番号の順番に処理を行う場合には、ステップS401では、変数jに、ブロックB1およびC1のブロック番号「1」が代入される。
FIG. 4 is a flowchart showing a detailed processing procedure of the block luminance difference calculation process (step S4) in the embodiment of the present invention. First, the block number of the block to be processed is first substituted for the variable j indicating the block number of the block to be processed (step S401). Here, both the sharpened image FB and the one-frame high-resolution image FC are divided into the same number of blocks, and the same block numbers are assigned to the blocks at the same positions. In the present embodiment, as shown in FIG. 1B, the sharpened image FB and the one-frame high-resolution image FC are divided into blocks B1, B2, B3,. C1, C2, C3,..., C36 are divided into the same number of 36 blocks, and block numbers are assigned in this order, 1, 2,.
When the processing is performed in the order of the block numbers determined as described above, the block numbers “1” of the blocks B1 and C1 are substituted into the variable j in step S401.

続いて、変数SV(j)に、初期値の「0」(ゼロ)が代入される(ステップS402)。この変数SV(j)は、j番目のブロックのブロック輝度差分を示すが、今、上述のように、1番目のブロックが選択されている場合には、変数SV(1)=0となる。
続いて、ブロック内の画素番号を示す変数iに対して、最初の処理対象となる画素番号が代入される(ステップS403)。この画素番号は、例えば、図1(B)で示すように定めたブロック番号と同様に、それぞれのブロック内の左上隅の画素を1番目として、右隣りの画素を2番目とするように、順番に定めるようにする。従って、最初の画素番号として、「1」が変数iに代入され、変数i=1となる。
Subsequently, the initial value “0” (zero) is substituted into the variable SV (j) (step S402). The variable SV (j) indicates the block luminance difference of the jth block. As described above, when the first block is selected, the variable SV (1) = 0.
Subsequently, the pixel number to be processed first is substituted for the variable i indicating the pixel number in the block (step S403). This pixel number is, for example, like the block number determined as shown in FIG. 1B, so that the upper left corner pixel in each block is the first, and the right adjacent pixel is the second, Determine in order. Accordingly, “1” is substituted into the variable i as the first pixel number, and the variable i = 1.

続いて、鮮明化処理画像FBおよび1フレーム高解像度化画像FCの、同じ画素番号の画素の、輝度値の差分が算出される(ステップS404)。これは、鮮明化処理画像FBのj番目のブロックのi番目の画素の輝度値VFB(i)と、1フレーム高解像度化画像FCのj番目のブロックのi番目の画素の輝度値VFC(i)と、の差分の絶対値を算出し、変数ΔV(i)に代入するものである。
例えば、上述のように変数j=1、変数i=1となっていた場合には、鮮明化処理画像FBの画像データおよび1フレーム高解像度化画像FCの画像データから、それぞれ、ブロック番号1のブロックにある画素番号1の画素の、輝度値VFB(1)および輝度値VFC(1)が読み出される。そして、輝度値VFB(1)と、輝度値VFC(1)と、の差分の絶対値を算出して、その結果を変数ΔV(1)に代入する。
続いて、変数SV(j)の値に、上述のステップS404で求めた変数ΔV(i)の値を加えて、その結果を変数SV(j)に代入する(ステップS405)。上述のように、ステップS402において変数SV(1)=0(初期値)とし、ステップS403において、i=1としているので、ステップS404、およびステップS405が実行された結果、変数SV(j)=変数ΔV(1)となる。
Subsequently, a difference in luminance value between pixels having the same pixel number in the sharpened image FB and the one-frame high-resolution image FC is calculated (step S404). This is because the luminance value VFB (i) of the i-th pixel of the j-th block of the sharpened image FB and the luminance value VFC (i) of the i-th pixel of the j-th block of the one-frame high-resolution image FC. ) And the absolute value of the difference is calculated and substituted into the variable ΔV (i).
For example, when the variable j = 1 and the variable i = 1 as described above, the block number 1 is obtained from the image data of the sharpened image FB and the image data of the 1-frame high-resolution image FC, respectively. The luminance value VFB (1) and luminance value VFC (1) of the pixel of pixel number 1 in the block are read out. Then, the absolute value of the difference between the luminance value VFB (1) and the luminance value VFC (1) is calculated, and the result is substituted into the variable ΔV (1).
Subsequently, the value of the variable ΔV (i) obtained in step S404 described above is added to the value of the variable SV (j), and the result is substituted into the variable SV (j) (step S405). As described above, variable SV (1) = 0 (initial value) is set in step S402, and i = 1 is set in step S403. Therefore, as a result of execution of steps S404 and S405, variable SV (j) = Variable ΔV (1).

続いて、j番目のブロックに、ステップS404およびステップS405の処理をすべき、次の画素の有無が判定される(ステップS406)。この判定は、1ブロックあたりの画素数と、変数iと、を比較することで行うことができる。なお、鮮明化処理画像FBおよび1フレーム高解像度化画像FCの総画素数は、画像サイズ(縦×横の画素数)から算出でき、1ブロックあたりの画素数は、その総画素数とブロック分割数から算出できる。
上述の判定の結果、次の画素がある場合には、変数iに対して、次の画素番号が代入され(ステップS407)、以下、ステップS404〜ステップS407が実行される。このステップS404〜ステップS407は、ステップS406において、次の画素がないと判断されるまで繰り返し実行されることとなる。この結果、例えば、j=1として、1番目のブロックについて処理を行った場合には、1ブロックあたりの画素数がmとすると、最終的に変数SV(1)=変数ΔV(1)+変数ΔV(2)+...+変数ΔV(m)となる。このように、変数SV(1)として、ブロック番号1のブロックに含まれる、全ての画素についての輝度差分の合計値、すなわち、ブロック輝度差分が求められることとなる。
そして、ステップS406において、ブロック内に次の画素がないと判断されると、この段階でのブロック輝度差分SV(j)の値が、メモリ22に格納される(ステップS408)。
Subsequently, it is determined whether or not the j-th block has the next pixel to be processed in steps S404 and S405 (step S406). This determination can be made by comparing the number of pixels per block with the variable i. Note that the total number of pixels of the sharpened image FB and the one-frame high-resolution image FC can be calculated from the image size (vertical × horizontal number of pixels), and the number of pixels per block is the total number of pixels and block division. It can be calculated from the number.
As a result of the above determination, if there is a next pixel, the next pixel number is substituted for the variable i (step S407), and thereafter, steps S404 to S407 are executed. Steps S404 to S407 are repeatedly executed until it is determined in step S406 that there is no next pixel. As a result, for example, when processing is performed for the first block with j = 1, assuming that the number of pixels per block is m, finally the variable SV (1) = variable ΔV (1) + variable ΔV (2) +... + Variable ΔV (m). Thus, as the variable SV (1), the total value of the luminance differences for all the pixels included in the block of block number 1, that is, the block luminance difference is obtained.
If it is determined in step S406 that there is no next pixel in the block, the value of the block luminance difference SV (j) at this stage is stored in the memory 22 (step S408).

続いて、ブロック輝度差分を算出すべき次のブロックの有無が判断される(ステップS409)。そして、次のブロックがある場合、変数jに次のブロックのブロック番号が代入され(ステップS410)、当該ブロックにつき、ステップS402〜ステップS410が実行される。このステップS402〜ステップS410は、ステップS409において、ブロック輝度差分を算出すべきブロックがなくなったと判断されるまで実行される。
なお、この判定は、ブロック分割数(本実施例では、36)と、変数jの値と、を比較して行うことができる。
Subsequently, it is determined whether or not there is a next block for which a block luminance difference is to be calculated (step S409). If there is a next block, the block number of the next block is substituted into the variable j (step S410), and steps S402 to S410 are executed for the block. Steps S402 to S410 are executed until it is determined in step S409 that there is no longer a block whose block luminance difference is to be calculated.
This determination can be made by comparing the number of block divisions (36 in this embodiment) with the value of the variable j.

そして、ステップS409において、ブロック輝度差分を算出すべきブロックがなくなったと判断されると、ブロック輝度差分算出処理(ステップS4)は終了する。そして、最終的に、このブロック輝度差分算出処理(ステップS4)処理の結果、各ブロックの輝度差分SV(1)〜SV(36)の値が、メモリ22に格納されることとなる。   When it is determined in step S409 that there is no block for which the block luminance difference is to be calculated, the block luminance difference calculation process (step S4) ends. Finally, as a result of the block luminance difference calculation process (step S4), the values of the luminance differences SV (1) to SV (36) of each block are stored in the memory 22.

次に、ブロック輝度差分最大ブロック特定処理(ステップS5)の詳細な手順について、図5を用いて説明する。   Next, a detailed procedure of the block luminance difference maximum block specifying process (step S5) will be described with reference to FIG.

図5は、本実施例におけるブロック輝度差分最大ブロック特定処理(ステップS5)の詳細な処理手順を示すフローチャートである。まず、変数SVmaxに初期値「−1」が代入される(ステップS501)。この変数SVmaxは、最大となるブロック輝度差分を示す変数である。続いて、鮮明化処理画像FBおよび1フレーム高解像度化画像FC内の、同じ位置のブロックのブロック番号を示す変数jに対して、最初に処理対象となるブロック番号が代入される(ステップS502)。そこで、最初のブロック番号として「1」が代入されると、変数SVmax=−1、および変数j=1となる。   FIG. 5 is a flowchart showing a detailed processing procedure of the block luminance difference maximum block specifying process (step S5) in the present embodiment. First, an initial value “−1” is substituted into the variable SVmax (step S501). This variable SVmax is a variable indicating the maximum block luminance difference. Subsequently, the block number to be processed first is substituted for the variable j indicating the block number of the block at the same position in the sharpening processed image FB and the one-frame high-resolution image FC (step S502). . Therefore, when “1” is substituted as the first block number, the variable SVmax = −1 and the variable j = 1.

続いて、ブロック輝度差分算出処理(ステップS4)で算出された、ブロック番号jのブロックのブロック輝度差分SV(j)の値が、メモリ22から読み出され、変数SV(j)に代入される(ステップS503)。続いて、この変数SV(j)の値が、変数SVmaxの値よりも大きいか否かが判定される(ステップS504)。そして、変数SV(j)の値が、変数SVmaxの値よりも大きい場合には、変数Jに変数jの値が代入される(ステップS505)。この変数Jは、最大となるブロック輝度差分を持つブロックのブロック番号を示す変数である。ステップS505に続き、変数SV(j)の値が、変数SVmaxに代入され(ステップS506)、その後、ステップS507に移行することとなる。   Subsequently, the value of the block luminance difference SV (j) of the block with the block number j calculated in the block luminance difference calculation process (step S4) is read from the memory 22 and substituted into the variable SV (j). (Step S503). Subsequently, it is determined whether or not the value of the variable SV (j) is larger than the value of the variable SVmax (step S504). If the value of the variable SV (j) is larger than the value of the variable SVmax, the value of the variable j is substituted for the variable J (step S505). This variable J is a variable indicating the block number of the block having the largest block luminance difference. Subsequent to step S505, the value of the variable SV (j) is substituted into the variable SVmax (step S506), and then the process proceeds to step S507.

ステップS505以降の上述の動作を具体的に示すと、例えば、上述のように、ステップS503終了の段階で、変数SVmax=−1、および変数j=1であったとする。ここで、ブロック番号「1」のブロック輝度差分SV(1)の値は、図4のステップS404に示すように絶対値であり、仮にその値を「3」とすると、この時の変数SVmaxの値(=−1(初期値))よりも大きく、ステップS504の判定において、変数SV(1)の値が、変数SVmaxの値よりも大きいと判定される。そして、ステップS505に移行して、変数Jにブロック番号の「1」が代入され、ステップS506において、変数SVmaxに変数SV(1)の値である「3」が代入される。従って、ステップS506終了の段階で、変数SVmax=3、変数J=1となり、1番目のブロックのブロック輝度差分が、この段階で最大となるブロック輝度差分であり、その値が3となる。   Specifically, the above-described operation after step S505 is assumed to be variable SVmax = −1 and variable j = 1 at the end of step S503 as described above. Here, the value of the block luminance difference SV (1) of the block number “1” is an absolute value as shown in step S404 in FIG. 4. If the value is “3”, the variable SVmax at this time It is determined that the value of the variable SV (1) is greater than the value of the variable SVmax in the determination in step S504. Then, the process proceeds to step S505, where the block number “1” is assigned to the variable J, and in step S506, the value of the variable SV (1) “3” is assigned to the variable SVmax. Therefore, at the end of step S506, the variable SVmax = 3 and the variable J = 1, and the block luminance difference of the first block is the maximum block luminance difference at this stage, and its value is 3.

一方、ステップS504において、変数SV(j)の値が、変数SVmaxの値よりも小さい、または、等しい場合には、ステップS507に移行する。なお、この場合には、変数Jおよび変数SVmaxの値は変化しない。そして、ステップS503〜ステップS506を実行すべき次のブロックの有無が判断される(ステップS507)。そして、次のブロックがある場合、変数jに、次のブロックのブロック番号が代入され(ステップS508)、当該ブロックにつき、ステップS503〜ステップS508が実行される。そして、このステップS503〜ステップS508は、ステップS507において、次のブロックがないと判定されるまで、繰り返し実行される。   On the other hand, if the value of the variable SV (j) is smaller than or equal to the value of the variable SVmax in step S504, the process proceeds to step S507. In this case, the values of the variable J and the variable SVmax do not change. Then, it is determined whether or not there is a next block for executing steps S503 to S506 (step S507). If there is a next block, the block number of the next block is substituted into variable j (step S508), and steps S503 to S508 are executed for the block. Steps S503 to S508 are repeatedly executed until it is determined in step S507 that there is no next block.

そして、ステップS507において、次のブロックがないと判定されると、この時の変数Jの値が、メモリ22に格納される(ステップS509)。このとき、ブロック番号「36」までの全てのブロックのブロック輝度差分SV(1)〜SV(36)が比較されたことになるので、変数Jの値は、これらブロック輝度差分SV(1)〜SV(36)のうち、最大となるブロックのブロック番号となり、その値がメモリ22に格納されることになる。
そして、ステップS509が終了した段階で、ブロック輝度差分最大ブロック特定処理(ステップS5)は終了することとなる。
If it is determined in step S507 that there is no next block, the value of the variable J at this time is stored in the memory 22 (step S509). At this time, since the block luminance differences SV (1) to SV (36) of all the blocks up to the block number “36” are compared, the value of the variable J is set to the block luminance differences SV (1) to SV (1) to SV # 1. Of the SV (36), this is the block number of the largest block, and the value is stored in the memory 22.
Then, when step S509 is completed, the block luminance difference maximum block specifying process (step S5) ends.

A3.鮮明化処理の詳細動作:
上述の画像処理装置において、画像処理の一例とした鮮明化処理について、その詳細な動作を以下に説明する。
A3. Detailed operation of sharpening process:
The detailed operation of the sharpening process as an example of the image processing in the above-described image processing apparatus will be described below.

図6は、本実施例における鮮明化処理の手順を示すフローチャートである。図6において、(A)は、鮮明化処理の全体手順を示し、(B)は、図6(A)における合成処理についての詳細手順を示す。
なお、以下の鮮明化処理は、図2に示す画像処理部100aによって実行され、その処理中において算出されたデータ(後述するずれ量や補正量等)は、図2に示すメモリ22に格納される。
FIG. 6 is a flowchart showing the procedure of the sharpening process in the present embodiment. 6A shows the overall procedure of the sharpening process, and FIG. 6B shows the detailed procedure of the synthesis process in FIG. 6A.
The following sharpening process is executed by the image processing unit 100a shown in FIG. 2, and data (such as a deviation amount and a correction amount described later) calculated during the process is stored in the memory 22 shown in FIG. The

図6(A)に示す鮮明化処理が開始されると、まず、フレーム画像データ取得処理(ステップS11)が実行される。このフレーム画像データ取得処理(ステップS11)では、まず、画像処理装置10によって、ビデオカメラ32に挿入された磁気テープ35や、DVDドライブ33に挿入されたDVD34から動画像データが読み出され、動画像が再生される。そして、この再生されている動画像から、所望の複数枚のフレーム画像がキャプチャされる。本実施例では、4枚のフレーム画像がキャプチャされたものとする。   When the sharpening process shown in FIG. 6A is started, a frame image data acquisition process (step S11) is first executed. In this frame image data acquisition process (step S11), first, moving image data is read out from the magnetic tape 35 inserted into the video camera 32 or the DVD 34 inserted into the DVD drive 33 by the image processing apparatus 10, and a moving image data is read out. The image is reproduced. Then, a desired plurality of frame images are captured from the reproduced moving image. In this embodiment, it is assumed that four frame images have been captured.

フレーム画像データ取得処理(ステップS11)に続いて、補正量推定処理(ステップS12)が実行される。補正量推定処理(ステップS12)では、まず、キャプチャされた4枚のフレーム画像のうち、高画質化および高解像度化の基準となるフレーム画像が選択される。この選択されたフレーム画像を、以下、「基準フレーム画像F0」と呼び、その他のフレームの画像を、「対象フレーム画像F1〜F3」と呼ぶこととする。   Subsequent to the frame image data acquisition process (step S11), a correction amount estimation process (step S12) is executed. In the correction amount estimation process (step S12), first, a frame image serving as a reference for high image quality and high resolution is selected from the captured four frame images. Hereinafter, the selected frame image is referred to as “reference frame image F0”, and the images of other frames are referred to as “target frame images F1 to F3”.

次に、この基準フレーム画像F0に対して、3枚の対象フレーム画像F1〜F3が、それぞれ、どれだけずれているかを示すずれ量を、順次算出する。なお、ここでいう「ずれ」とは、撮影対象物自体の動きやビデオカメラの設置場所の移動に起因するものではなく、いわゆるパンと呼ばれるカメラワークや、手ぶれのように、ビデオカメラの向きの変化のみに起因するものであり、異なるフレーム画像間において、全ての画素が、同じ量だけずれるようなずれを想定している。ずれは、並進(横および縦)のずれと、回転のずれと、の組み合わせで表される。   Next, a shift amount indicating how much each of the three target frame images F1 to F3 is shifted from the reference frame image F0 is sequentially calculated. Note that “displacement” here does not result from the movement of the object to be photographed or the movement of the installation location of the video camera, but the orientation of the video camera, such as camera work called panning or camera shake. This is due to the change only, and it is assumed that all the pixels are shifted by the same amount between different frame images. The deviation is represented by a combination of translational (horizontal and vertical) deviations and rotational deviations.

対象フレーム画像F1〜F3について、上述のずれ量がそれぞれ算出されると、このずれ量を基にして、ずれを補正するための補正量がそれぞれ算出される。補正量も、ずれと同様、並進(横および縦)の補正量と、回転の補正量と、の組み合わせで表される。   When the above-described shift amounts are calculated for the target frame images F1 to F3, correction amounts for correcting the shift are calculated based on the shift amounts. The correction amount is also expressed by a combination of a translational (horizontal and vertical) correction amount and a rotation correction amount, like the shift.

補正量推定処理(ステップS12)に続いて、合成処理(ステップS13)が実行される。この合成処理(ステップS13)は、図6(B)に示すように、画素位置の補正処理(ステップS131)、最近傍画素決定処理(ステップS132)、および画素補間処理(ステップS133)の順に実行される。   Subsequent to the correction amount estimation process (step S12), a synthesis process (step S13) is executed. As shown in FIG. 6B, this combining process (step S13) is executed in the order of pixel position correction process (step S131), nearest neighbor pixel determination process (step S132), and pixel interpolation process (step S133). Is done.

画素位置の補正処理(ステップS131)では、補正量推定処理(ステップS12)で算出された補正量を用いて、対象フレーム画像F1〜F3を補正する。ここで、補正とは、対象フレーム画像F1〜F3の各画素の画素位置を、横の補正量だけ横に移動、縦の補正量だけ縦に移動、および回転の補正量だけ回転をした画素位置に置き換えることを意味する。この補正処理の結果、基準フレーム画像F0、および対象フレーム画像F1〜F3は、重なり部分において一致することになる。   In the pixel position correction process (step S131), the target frame images F1 to F3 are corrected using the correction amount calculated in the correction amount estimation process (step S12). Here, the correction is a pixel position in which the pixel position of each pixel of the target frame images F1 to F3 is moved horizontally by the horizontal correction amount, moved vertically by the vertical correction amount, and rotated by the rotation correction amount. It means to replace with. As a result of this correction processing, the reference frame image F0 and the target frame images F1 to F3 coincide with each other in the overlapping portion.

次に、最近傍画素決定処理(ステップS132)が実行される。図7は、本実施例における最近傍画素決定処理(ステップS132)を説明するための説明図である。図7では、基準フレーム画像F0、および対象フレーム画像F1〜F3の一致した画像の一部を拡大し、各フレーム画像F0〜F3、および、それらフレーム画像F0〜F3から得られる高画質化された鮮明化処理画像FBの、それぞれの画素の位置関係を示している。
また、図7では、鮮明化処理画像FBの各画素が黒丸で示されているとともに、基準フレーム画像F0の各画素が白抜きの四辺形で示され、補正後の対象フレーム画像F1〜F3の各画素が、それぞれ異なるハッチングを施した四辺形で示されている。なお、本実施例では、鮮明化処理画像FBは、基準フレーム画像F0に対して、1.5倍密の画素密度に高解像度化されている。したがって、図7に示すように、鮮明化処理画像FBの各画素間の距離は、基準フレーム画像F0の各画素間の距離の2/3になっており、図7に示す画素G(k)のように、鮮明化処理画像FBの画素のうち、縦横それぞれの方向に2画素おきにある画素は、基準フレーム画像F0の画素と画素位置が一致することになる。
Next, the nearest pixel determination process (step S132) is executed. FIG. 7 is an explanatory diagram for describing the nearest pixel determination process (step S132) in the present embodiment. In FIG. 7, a part of the matched image of the reference frame image F0 and the target frame images F1 to F3 is enlarged, and the image quality obtained from each of the frame images F0 to F3 and the frame images F0 to F3 is improved. The positional relationship of each pixel of the sharpened image FB is shown.
In FIG. 7, each pixel of the sharpened image FB is indicated by a black circle, and each pixel of the reference frame image F0 is indicated by a white quadrilateral, and the corrected target frame images F1 to F3 are displayed. Each pixel is shown as a quadrilateral with different hatching. In the present embodiment, the sharpened image FB is increased in resolution to a pixel density 1.5 times higher than that of the reference frame image F0. Therefore, as shown in FIG. 7, the distance between the pixels of the sharpened image FB is 2/3 of the distance between the pixels of the reference frame image F0, and the pixel G (k) shown in FIG. As described above, among the pixels of the sharpened image FB, the pixels located every two pixels in the vertical and horizontal directions have the same pixel position as the pixel of the reference frame image F0.

今、鮮明化処理画像FB内のj番目の画素G(j)に注目して、まず、この画素(以下、「注目画素」と呼ぶ。)G(j)と、基準フレーム画像F0内の注目画素G(j)に最も近い画素と、の距離L0が算出される。次に、補正後の対象フレーム画像F1,F2,F3内のそれぞれ最も注目画素G(j)に近い画素と、注目画素G(j)と、の距離L1,L2,L3がそれぞれ算出される。   Now, paying attention to the j-th pixel G (j) in the sharpened image FB, first, this pixel (hereinafter referred to as “target pixel”) G (j) and the target frame image F0. A distance L0 from the pixel closest to the pixel G (j) is calculated. Next, distances L1, L2, and L3 between the pixel closest to the target pixel G (j) and the target pixel G (j) in each of the corrected target frame images F1, F2, and F3 are calculated.

続いて、距離L0〜L3の値が互いに比較され、注目画素G(j)に最も近い距離にある画素(以下、「最近傍画素」と呼ぶ。)が決定される。本実施例では、図7に示すように、距離L3にある対象フレームF3の画素が、注目画素G(j)に最も近い画素となっているので、この画素が、注目画素G(j)の最近傍画素として決定されることとなる。なお、この画素G(j)に対する最近傍画素が、補正後の対象フレーム画像F3のi番目の画素であったとして、以下、最近傍画素g(F3,i)と表記する。
そして、以上説明した処理が、鮮明化処理画像FB内の全て画素について順次実行され、それぞれの画素について、最近傍画素が決定される。
Subsequently, the values of the distances L0 to L3 are compared with each other, and the pixel closest to the target pixel G (j) (hereinafter referred to as “nearest neighbor pixel”) is determined. In this embodiment, as shown in FIG. 7, the pixel of the target frame F3 at the distance L3 is the pixel closest to the target pixel G (j). It will be determined as the nearest neighbor pixel. Hereinafter, the nearest pixel to the pixel G (j) is referred to as the nearest pixel g (F3, i), assuming that it is the i-th pixel of the corrected target frame image F3.
Then, the processing described above is sequentially executed for all the pixels in the sharpening processed image FB, and the nearest pixel is determined for each pixel.

次に、画素補間処理(ステップS133)が実行される。画素補間処理(ステップS133)では、鮮明化処理画像FBにおける各画素の画素データを、他の画素の画素データから補間する。
本実施例において、この補間処理で用いる画素データは、最近傍画素決定処理(ステップS132)で決定した最近傍画素の画素データ、および、この最近傍画素が属する補正後のフレーム画像内の画素の画素データを用いる。
Next, pixel interpolation processing (step S133) is executed. In the pixel interpolation process (step S133), pixel data of each pixel in the sharpened image FB is interpolated from pixel data of other pixels.
In this embodiment, the pixel data used in this interpolation processing is the pixel data of the nearest neighbor pixel determined in the nearest neighbor pixel determination processing (step S132) and the pixel in the corrected frame image to which this nearest neighbor pixel belongs. Pixel data is used.

図8は、本実施例におけるバイリニア法を用いた画素補間処理(ステップS133)を説明するための説明図である。
具体的には、仮に、最近傍画素決定処理(ステップS132)によって、注目画素G(j)に対する最近傍画素が、補正後の対象フレーム画像F3のi番目の画素であると決定した場合には、図8に示すように、最近傍画素g(F3,i)の他、この最近傍画素g(F3,i)とともに注目画素G(j)を囲む、画素g(F3,j)、画素g(F3,k)、および画素g(F3,l)の、それぞれの画素データを用いて、バイ・リニア法により、注目画素G(j)の画素データを求める。なお、補間処理方法としては、バイ・リニア法の他にも、バイ・キュービック法、またはニアレストネイバ法等、様々な方法を用いることができる。
FIG. 8 is an explanatory diagram for explaining pixel interpolation processing (step S133) using the bilinear method in the present embodiment.
Specifically, if it is determined by the nearest pixel determination process (step S132) that the nearest pixel for the target pixel G (j) is the i-th pixel of the target frame image F3 after correction. 8, in addition to the nearest pixel g (F3, i), the nearest pixel g (F3, i) and the target pixel G (j) are surrounded by the pixel g (F3, j) and the pixel g. The pixel data of the target pixel G (j) is obtained by the bilinear method using the pixel data of (F3, k) and the pixel g (F3, l). In addition to the bi-linear method, various methods such as a bi-cubic method or a nearest neighbor method can be used as the interpolation processing method.

そして、上述の補間処理の結果、得られた鮮明化処理画像FBの画像データは、メモリ22に格納され、画素補間処理(ステップS133)は終了し、鮮明化処理も終了することとなる。   Then, the image data of the sharpened image FB obtained as a result of the above-described interpolation processing is stored in the memory 22, the pixel interpolation processing (step S133) is ended, and the sharpening processing is also ended.

A4.実施例の効果:
以上説明したように、本実施例によれば、上述の鮮明化処理のように、画像の細部において、画質が変化するような画像処理を行った場合においても、処理後の画像において、その画像処理の効果が最大となるブロックを特定して、その特定したブロック内の所定領域を、図1(C)に示すように、鮮明化ダイヤログD2内において、領域拡大画像Fb,Fcとして、拡大して表示することで、画像処理の効果が確認しやすくなる。また、図1(C)に示すように、処理前の領域拡大画像Fbと処理後の領域拡大画像Fcとを、鮮明化ダイヤログD2内において、並べて表示することで、一見して、処理前後の領域拡大画像Fb,Fcを比較することができ、画像処理の効果が確認しやすくなる。更に、縮小フレーム画像Faおよび十字カーソルCsを、領域拡大画像Fb,Fcとともに、鮮明化ダイヤログD2内に表示することで、処理前後の画像において、どの領域が画像処理の効果が最大であったのかを容易に確認することができる。
A4. Effects of the embodiment:
As described above, according to the present embodiment, even when image processing is performed such that the image quality changes in the details of the image as in the above-described sharpening processing, the image is processed in the processed image. A block having the maximum processing effect is specified, and predetermined areas in the specified block are enlarged as area enlarged images Fb and Fc in the sharpening dialog D2, as shown in FIG. This makes it easier to confirm the effect of image processing. In addition, as shown in FIG. 1C, the pre-processed area enlarged image Fb and the post-processed area enlarged image Fc are displayed side by side in the sharpening dialog D2, and at a glance, before and after the process. The area enlarged images Fb and Fc can be compared, and the effect of the image processing can be easily confirmed. Further, by displaying the reduced frame image Fa and the crosshair cursor Cs together with the enlarged region images Fb and Fc in the sharpening dialog D2, which region has the greatest image processing effect in the images before and after the processing. Can be easily confirmed.

また、1フレーム高解像度化処理(ステップS3)において、鮮明化処理で用いたのと同じ補間処理方法、かつ、同じ倍率Aを用いて、鮮明化処理画像FBと同じ解像度の1フレーム高解像度化画像FCを得ることにより、鮮明化処理画像FBと、1フレーム高解像度化画像FCと、の画質の差が、補間方法の差違や解像度の倍率の差違ではなく、鮮明化処理の効果によってのみ発生することとなり、画像処理効果を精確に確認することができる。   Further, in the one-frame resolution enhancement processing (step S3), the same interpolation processing method used in the sharpening processing and the same magnification A are used to increase the resolution of one frame with the same resolution as the sharpened image FB. By obtaining the image FC, the difference in image quality between the sharpened image FB and the one-frame high-resolution image FC is not caused by a difference in interpolation method or a difference in resolution magnification, but only by the effect of the sharpening process. As a result, the image processing effect can be confirmed accurately.

また、輝度差分最大ブロックの拡大処理(ステップS6)において、拡大処理の対象範囲を、ブロック全体ではなく所定領域に限定することで、輝度差分最大ブロックの拡大処理(ステップS6)を高速化できる。更に、輝度差分最大ブロックの拡大処理(ステップS6)において、鮮明化処理画像FBおよび1フレーム高解像度化画像FCの、それぞれの所定領域に対して拡大処理を施す際に、同じ補間方法と同じ拡大率Bを用いることにより、領域拡大画像Fbと、領域拡大画像Fcと、の画質の差を、この時の拡大率の差違や補間方法の差違によるものではなく、画像処理の効果のみによるものとすることができる。   Further, in the enlargement process of the luminance difference maximum block (step S6), the enlargement process of the maximum luminance difference block (step S6) can be speeded up by limiting the target range of the enlargement process to a predetermined area instead of the entire block. Further, in the enlargement process of the luminance difference maximum block (step S6), the same interpolation method and the same enlargement are performed when the enlargement process is performed on the respective predetermined regions of the sharpened image FB and the one-frame high-resolution image FC. By using the rate B, the difference in image quality between the region enlarged image Fb and the region enlarged image Fc is not due to the difference in the enlargement rate or the difference in the interpolation method at this time, but only due to the effect of the image processing. can do.

B.変形例:
なお、本発明は、上述の実施例や実施形態に限られるものではなく、その要旨を逸脱しない範囲において、種々の態様において実施することが可能であり、例えば以下のような変形も可能である。
B. Variation:
Note that the present invention is not limited to the above-described examples and embodiments, and can be implemented in various modes without departing from the scope of the invention. For example, the following modifications are possible. .

(1)本発明の実施例では、効果明確化処理に用いる画像は、効果明確化処理に先立って画像処理装置10内で実行される鮮明化処理の結果得られる、フレーム画像FAおよび鮮明化処理画像FBであったが、これに限るものではない。予め、別の画像処理装置で鮮明化処理を実行し、その結果得られる鮮明化処理後の画像と、その鮮明化処理が施される前の画像と、を効果明確化処理で用いても構わない。ただし、この場合には、これら鮮明化処理前後の画像を、DVD,磁気テープ,MO,CD−R/RW,またはメモリカード等の記録媒体、もしくは電気通信媒体(図示省略)を介して、図2に示すメモリ22に格納しておく必要がある。 (1) In the embodiment of the present invention, the image used for the effect clarification process is the frame image FA and the sharpening process obtained as a result of the sharpening process executed in the image processing apparatus 10 prior to the effect clarification process. Although it is the image FB, it is not limited to this. The sharpening process may be executed in advance by another image processing apparatus, and the resulting image after the sharpening process and the image before the sharpening process may be used in the effect clarifying process. Absent. However, in this case, the images before and after the sharpening process are displayed on a recording medium such as a DVD, a magnetic tape, an MO, a CD-R / RW, or a memory card, or an electric communication medium (not shown). 2 must be stored in the memory 22 shown in FIG.

(2)本発明の実施例では、画像処理の一例として、鮮明化処理を行う場合について説明したが、画像処理は鮮明化処理に限らない。例えば、ぼかし、またはノイズ軽減等、鮮明化処理以外の画像処理についても、本発明の画像処理装置10を用いることで、その画像処理の効果を容易に確認することができる。鮮明化処理以外の画像処理の場合には、鮮明化処理に代えて、該当する画像処理が、図2に示す画像処理部によって実行されればよい。なお、特に、解像度が変化しないような画像処理の場合には、図3に示す1フレーム高解像度化処理(ステップS3)は、実行する必要はなく、従って、図3に示すブロック輝度差分算出処理(ステップS4)においては、1フレーム高解像度化画像FCに代えて、当該画像処理後の画像(本実施例における鮮明化処理画像FB)を、画像処理前の画像(本実施例におけるフレーム画像FA)と比較し、各ブロック内の各画素の輝度差分を算出すればよい。 (2) In the embodiment of the present invention, the case where the sharpening process is performed is described as an example of the image processing. However, the image processing is not limited to the sharpening process. For example, for image processing other than sharpening processing such as blurring or noise reduction, the effect of the image processing can be easily confirmed by using the image processing apparatus 10 of the present invention. In the case of image processing other than the sharpening processing, the corresponding image processing may be executed by the image processing unit shown in FIG. 2 instead of the sharpening processing. In particular, in the case of image processing in which the resolution does not change, it is not necessary to execute the one-frame high resolution processing (step S3) shown in FIG. 3, and accordingly, the block luminance difference calculation processing shown in FIG. In (Step S4), instead of the one-frame high-resolution image FC, the image-processed image (the sharpening-processed image FB in this embodiment) is replaced with the image before the image processing (the frame image FA in this embodiment). ) And the luminance difference of each pixel in each block may be calculated.

(3)本発明の実施例では、鮮明化処理画像FBおよび1フレーム高解像度化画像FCを、36という、適当に定めた数でブロックに分割しているが、これに代えて、各ブロックのサイズが、輝度差分最大ブロックの拡大処理(ステップS6)における所定領域のサイズと一致するように、ブロック分割数を定めて分割してもよい。
本実施例では、拡大率Bの値によっては、ブロック輝度差分が最大となるブロックの画像全体が、表示処理(ステップS7)において、画像表示枠W22,W23内に表示されない場合がある。この場合には、表示されない領域の画素の輝度差分が非常に大きいために、当該ブロックが、ブロック輝度差分が最大のブロックと決定されたとしても、表示処理(ステップS7)において、その輝度差分の非常に大きい領域の画像は表示されないため、輝度差分、つまり、画像処理の効果が確認しづらくなるという課題が生じる場合がある。
しかし、上述のように、各ブロックのサイズが、所定領域のサイズと一致するようなブロック分割方法を採用することにより、ブロック輝度差分が最大として決定したブロックに含まれる、全ての画素に対応する拡大画像が表示されるので、上述の課題が生じることはなく、画像処理の効果を明確に表示することが可能となる。
(3) In the embodiment of the present invention, the sharpened processed image FB and the one-frame high-resolution image FC are divided into blocks by an appropriately determined number of 36, but instead of this, The size may be divided by determining the number of block divisions so that the size matches the size of a predetermined area in the luminance difference maximum block enlargement process (step S6).
In the present embodiment, depending on the value of the enlargement factor B, the entire image of the block with the largest block luminance difference may not be displayed in the image display frames W22 and W23 in the display process (step S7). In this case, since the luminance difference between the pixels in the non-display area is very large, even if the block is determined to be the block with the largest block luminance difference, the luminance difference of the luminance difference is displayed in the display process (step S7). Since an image of a very large area is not displayed, there may be a problem that it is difficult to confirm the luminance difference, that is, the effect of image processing.
However, as described above, by adopting a block division method in which the size of each block matches the size of the predetermined area, it corresponds to all the pixels included in the block determined to have the largest block luminance difference. Since the enlarged image is displayed, the above-described problem does not occur, and the effect of the image processing can be clearly displayed.

さらに、上述のようにブロックに分割し、ブロック毎のブロック輝度差分を比較することに代えて、ブロックに分割せず、画素毎の輝度差分を比較することによって画像処理の効果が大きい領域を特定するようにしてもよい。具体的には、例えば、鮮明化処理画像FBおよび1フレーム高解像度化画像FCの、それぞれ同じ位置の画素の輝度値の差分を求め、その差分を比較することで、輝度差分が最大となる画素を特定し、その画素位置を中心として、上述の所定領域を定めるようにしてもよい。   Furthermore, instead of dividing into blocks and comparing the block luminance differences for each block as described above, areas with high image processing effects are identified by comparing the luminance differences for each pixel instead of dividing into blocks. You may make it do. Specifically, for example, the difference between the luminance values of the pixels at the same position in the sharpening-processed image FB and the one-frame high-resolution image FC is obtained, and the pixel having the largest luminance difference is compared. And the above-mentioned predetermined area may be determined centering on the pixel position.

(4)本発明の実施例において、ハードウェアによって実現されていた構成の一部を、ソフトウェアに置き換えるようにしてもよく、逆に、ソフトウェアによって実現されていた構成の一部をハードウェアによって置き換えるようにしてもよい。例えば、図3に示すブロック輝度差分算出処理(ステップS4)をソフトウェア(アプリケーションプログラム100)ではなく、ハードウェア回路で行うこととしてもよい。 (4) In the embodiment of the present invention, a part of the configuration realized by hardware may be replaced by software, and conversely, a part of the configuration realized by software is replaced by hardware. You may do it. For example, the block luminance difference calculation process (step S4) shown in FIG. 3 may be performed by a hardware circuit instead of software (application program 100).

(5)本発明の実施例では、図1(C)に示す、縮小フレーム画像Fa上の十字カーソルCsは、領域拡大画像Fb,Fcが、どの位置のブロックに該当するかを示すものであるが、更に、効果明確化処理を施したいブロックを指定するために用いてもよい。
具体的には、図3に示す効果明確化処理を実行後、引き続き、図1(C)に示す十字カーソルCsを、縮小フレーム画像Fa上の、所望のブロックの中心位置に、キーボード30やマウス31の操作によって移動させ、この状態で、マウス31のクリックや、キーボード30におけるエンターキー等のキー押下の操作によって、所望のブロックのブロック番号を決定する。そして、このように決定したブロック番号を、図3に示すブロック輝度差分最大ブロック特定処理(ステップS5)で特定されるブロック番号に代えて用い、輝度差分最大ブロックの拡大処理(ステップS6)、および表示処理(ステップS7)を行ってもよい。
このようにすることで、フレーム画像FA内で、関心のある領域が決まっている場合には、その領域についての画像処理の効果を容易に確認することができる。
(5) In the embodiment of the present invention, the crosshair cursor Cs on the reduced frame image Fa shown in FIG. 1C indicates to which block the area enlarged images Fb and Fc correspond. However, it may be used to designate a block for which an effect clarification process is desired.
Specifically, after the effect clarification process shown in FIG. 3 is executed, the cross cursor Cs shown in FIG. 1C is continuously placed at the center position of a desired block on the reduced frame image Fa and the keyboard 30 and the mouse. In this state, the block number of a desired block is determined by clicking the mouse 31 or pressing a key such as an enter key on the keyboard 30. Then, the block number determined in this way is used in place of the block number specified in the block luminance difference maximum block specifying process (step S5) shown in FIG. 3, and the luminance difference maximum block enlarging process (step S6), and Display processing (step S7) may be performed.
In this way, when a region of interest is determined in the frame image FA, the effect of image processing on that region can be easily confirmed.

(6)本発明の実施例において、並列表示された2つの領域拡大画像Fb,Fcが、どの位置のブロックに該当するかを示す方法として、縮小フレーム画像Faを表示し、該当するブロックの中心位置を、十字カーソルを用いて示しているが、これに限らない。十字カーソル以外にも、矢印等のカーソルを用いて、該当するブロックの中心位置を示しても構わない。更に、該当するブロックを赤い枠等で、縁取りして表示ことで、該当するブロックを示しても構わない。本発明では、並列表示された領域拡大画像Fb、および領域拡大画像Fcが、どの位置のブロックの所定領域を拡大した画像であるかを示すことができるマークを用いればよい。 (6) In the embodiment of the present invention, the reduced frame image Fa is displayed as a method of indicating which block the two region enlarged images Fb and Fc displayed in parallel correspond to, and the center of the corresponding block. The position is shown using a cross cursor, but the present invention is not limited to this. In addition to the cross cursor, a cursor such as an arrow may be used to indicate the center position of the corresponding block. Further, the corresponding block may be indicated by bordering and displaying the corresponding block with a red frame or the like. In the present invention, it is sufficient to use a mark that can indicate which position of the block of the enlarged region Fc and the enlarged region Fc displayed in parallel is an image obtained by enlarging a predetermined region of the block.

(7)本発明の実施例において、図1(C)に示すように領域拡大画像Fb,Fcは、横に並べて表示しているが、これに限らない。例えば、縦に並べて表示したり、別ダイアログにそれぞれ表示するといった方法を用いても構わない。本発明において、領域拡大画像Fb,Fcは、少なくとも同一画面上に表示されればよい。 (7) In the embodiment of the present invention, as shown in FIG. 1C, the enlarged region images Fb and Fc are displayed side by side, but this is not restrictive. For example, a method of displaying them side by side or displaying them in separate dialogs may be used. In the present invention, the region enlarged images Fb and Fc may be displayed on at least the same screen.

(8)本発明の実施例では、ブロック輝度差分最大ブロック特定処理(ステップS5)において、ブロック輝度差分を、鮮明化処理画像FBおよび1フレーム高解像度化画像FCの、それぞれ同じ位置のブロックの同じ位置の画素の画素データの差分を求め、これらを全て足し合わせて算出しているが、これに代えて、鮮明化処理画像FBおよび1フレーム高解像度化画像FCの、それぞれ同じ位置のブロックの同じ位置の画素の画素データの差分の平均値をブロック毎に算出して、その値をブロック輝度差分としても構わない。 (8) In the embodiment of the present invention, in the block luminance difference maximum block specifying process (step S5), the block luminance difference is the same for the blocks at the same position in the sharpened image FB and the one-frame high-resolution image FC. The difference between the pixel data of the pixels at the position is obtained and all of them are calculated, but instead, the same in the blocks at the same position in the sharpened image FB and the one-frame high-resolution image FC. The average value of the pixel data difference of the pixel at the position may be calculated for each block, and the value may be used as the block luminance difference.

(9)本発明の実施例では、ブロック分割数を36としていたが、この数に限るものではない。また、ブロック番号および画素番号はともに、左上隅を1として、順番に2,3,4,...と自然数を付していたが、これに限らない。各々のブロックおよび各々の画素が一意に定まるような番号を、任意の順番で付してあればよく、また、鮮明化処理画像FBおよび1フレーム高解像度化画像FCにおける、同じ位置のブロックおよび同じ位置の画素に対して、同じ番号を付してあればよい。 (9) In the embodiment of the present invention, the number of block divisions is 36, but the number is not limited to this. Further, both the block number and the pixel number are given natural numbers of 2, 3, 4,... In order with the upper left corner being 1, but this is not restrictive. Each block and each pixel may be assigned numbers that are uniquely determined in any order, and the same position block and the same in the sharpened image FB and the one-frame high-resolution image FC It suffices if the same number is assigned to the pixel at the position.

(10)本発明の実施例では、処理前後の変化を求める画素データとして輝度値Yを用いていたが、輝度値Yに代えて、Cr(赤と輝度の色差値)またはCb(青と輝度との色差値)を用いても構わない。また、画素データとしてYCrCbデータを用いているが、YCrCbデータを所定の換算式を用いて、R(赤)、G(緑)、B(青)の各階調値からなるRGBデータに変換しこれを用いても良く、またその他の表色系デ−タであったも構わない。 (10) In the embodiment of the present invention, the luminance value Y is used as the pixel data for obtaining the change before and after the processing. Instead of the luminance value Y, Cr (color difference value between red and luminance) or Cb (blue and luminance). Color difference value) may be used. Also, YCrCb data is used as the pixel data. The YCrCb data is converted into RGB data composed of gradation values of R (red), G (green), and B (blue) using a predetermined conversion formula. Alternatively, other color system data may be used.

(11)本発明の実施例では、画像処理装置10は、静止画像データや動画像データの記録媒体として、ビデオカメラ32に挿入された磁気テープ35、またはDVDドライブ33に挿入されたDVD34を用いているが、これらに限らない。MO,CD−R/RW,またはメモリカード等、他の記録媒体を用いることも可能である。 (11) In the embodiment of the present invention, the image processing apparatus 10 uses the magnetic tape 35 inserted into the video camera 32 or the DVD 34 inserted into the DVD drive 33 as a recording medium for still image data or moving image data. However, it is not limited to these. Other recording media such as MO, CD-R / RW, or memory card can also be used.

(12)本発明の実施例では、画像処理の効果が最も大きいブロックの所定領域を、拡大表示しているが、これに代えて、画像処理の効果が最も小さいブロックの所定領域を、拡大表示することも可能である。この場合、図5に示すステップS504において、変数SVmaxの値に代えて、最小となるブロック輝度差分を示す、変数SVminの値と、変数SV(j)の値と、を比較するようにすればよい。そして、ステップS504において、変数SV(j)の値が、変数SVminの値よりも小さい場合には、ステップS505に移行し、一方、変数SV(j)の値が、変数SVminの値よりも大きい、または、等しい場合に、ステップS507に移行するようにすればよい。更に、ステップS506において、変数SV(j)の値を、変数SVminに代入するようにすればよい。
このようにすることで、画像処理効果の最も小さい領域を容易に確認することができ、当該領域について、追加して画像処理を行う、等の判断を行うことができる。
(13)本発明の実施例では、上述の鮮明化処理において、動画像データから複数枚のフレーム画像の画像データを切り出していたが、例えば、単に、時系列に並んだ複数の画像データから切り出すようにしてもよい。そのような時系列に並んだ複数の画像データとしては、デジタルカメラなどによって連写して撮影された複数の画像データなどが考えられる。
(12) In the embodiment of the present invention, the predetermined area of the block having the largest image processing effect is enlarged and displayed. Instead, the predetermined area of the block having the smallest image processing effect is enlarged and displayed. It is also possible to do. In this case, in step S504 shown in FIG. 5, instead of the value of variable SVmax, the value of variable SVmin indicating the minimum block luminance difference is compared with the value of variable SV (j). Good. In step S504, when the value of the variable SV (j) is smaller than the value of the variable SVmin, the process proceeds to step S505. On the other hand, the value of the variable SV (j) is larger than the value of the variable SVmin. Or if they are equal, the process may proceed to step S507. Furthermore, in step S506, the value of the variable SV (j) may be substituted for the variable SVmin.
By doing in this way, it is possible to easily confirm the region having the smallest image processing effect, and it is possible to make a determination such that additional image processing is performed for the region.
(13) In the embodiment of the present invention, the image data of a plurality of frame images is cut out from the moving image data in the above-described sharpening process. For example, the image data is simply cut out from a plurality of image data arranged in time series. You may do it. As such a plurality of image data arranged in chronological order, a plurality of image data taken continuously by a digital camera or the like can be considered.

本実施例における画像処理装置10のユーザインタフェースを示す説明図。Explanatory drawing which shows the user interface of the image processing apparatus 10 in a present Example. 本発明の実施例における画像処理装置10の概略構成を示す説明図。1 is an explanatory diagram illustrating a schematic configuration of an image processing apparatus 10 according to an embodiment of the present invention. 本発明の一実施例としての効果明確化処理の処理手順を示すフローチャート。The flowchart which shows the process sequence of the effect clarification process as one Example of this invention. 本発明の実施例におけるブロック輝度差分算出処理(ステップS4)の詳細な処理手順を示すフローチャート。The flowchart which shows the detailed process sequence of the block brightness | luminance difference calculation process (step S4) in the Example of this invention. 本実施例におけるブロック輝度差分最大ブロック特定処理(ステップS5)の詳細な処理手順を示すフローチャート。The flowchart which shows the detailed process sequence of the block brightness | luminance difference largest block specific process (step S5) in a present Example. 本実施例における鮮明化処理の手順を示すフローチャート。The flowchart which shows the procedure of the sharpening process in a present Example. 本実施例における最近傍画素決定処理(ステップS132)を説明するための説明図。Explanatory drawing for demonstrating the nearest pixel determination process (step S132) in a present Example. 本実施例におけるバイリニア法を用いた画素補間処理(ステップS133)を説明するための説明図。Explanatory drawing for demonstrating the pixel interpolation process (step S133) using the bilinear method in a present Example.

符号の説明Explanation of symbols

10...画像処理装置
20...コンピュータ
21...CPU
22...メモリ
23...ハードディスク
24...入出力インタフェース部
25...内部バス
30...キーボード
31...マウス
32...ビデオカメラ
33...DVDドライブ
34...DVD
35...磁気テープ
40...ディスプレイ
41...プリンタ
D1...ムービ操作ダイアログ
D2...鮮明化ダイアログ
M1...動画像操作メニュー
M2...静止画像操作メニュー
M3...操作メニュー
m10...再生操作ボタン
m11...一時停止操作ボタン
m20...「鮮明化」操作ボタン
m21、m31...「プリント」操作ボタン
m22、m32...「保存」操作ボタン
m33...「閉じる」操作ボタン
W11、W22、W23、W24...画像表示枠
Cs...十字カーソル
10 ... Image processing device 20 ... Computer 21 ... CPU
22 ... Memory 23 ... Hard disk 24 ... Input / output interface 25 ... Internal bus 30 ... Keyboard 31 ... Mouse 32 ... Video camera 33 ... DVD drive 34 ... DVD
35 ... Magnetic tape 40 ... Display 41 ... Printer D1 ... Movie operation dialog D2 ... Sharpening dialog M1 ... Moving image operation menu M2 ... Still image operation menu M3 ... Operation menu m10 ... Playback operation button m11 ... Pause operation button m20 ... "Clear" operation button m21, m31 ... "Print" operation button m22, m32 ... "Save" operation button m33 ... "Close" operation button W11, W22, W23, W24 ... Image display frame Cs ... Crosshair cursor

Claims (16)

第1の静止画像と、前記第1の静止画像に対して所望の画像処理を施した結果得られる第2の静止画像と、を表示することが可能な画像処理装置であって、
前記第1の静止画像と、前記第2の静止画像と、を比較して、前記所望の画像処理の前後において、所定画素値の変化が最大となる領域を特定する領域特定処理部と、
前記第1の静止画像における前記特定領域を拡大して第1の領域拡大画像を得ると共に、前記第2の静止画像における前記特定領域を拡大して第2の領域拡大画像を得る拡大処理部と、
前記第1の領域拡大画像と、前記第2の領域拡大画像と、を並列して表示させる表示処理部と、
を備える画像処理装置。
An image processing apparatus capable of displaying a first still image and a second still image obtained as a result of performing desired image processing on the first still image,
An area specifying processor that compares the first still image with the second still image and specifies an area in which a change in a predetermined pixel value is maximum before and after the desired image processing;
An enlargement processing unit that obtains a first region enlarged image by enlarging the specific region in the first still image and obtains a second region enlarged image by enlarging the specific region in the second still image; ,
A display processing unit that displays the first region enlarged image and the second region enlarged image in parallel;
An image processing apparatus comprising:
請求項1に記載の画像処理装置において、
前記第1の静止画像と、前記第2の静止画像と、で解像度が異なる場合には、前記第1の静止画像の解像度を調整して前記第2の静止画像の解像度と等しくする解像度調整部をさらに備えると共に、
前記領域特定処理部は、解像度を調整された前記第1の静止画像と、前記第2の静止画像と、を比較することを特徴とする画像処理装置。
The image processing apparatus according to claim 1.
When the resolutions of the first still image and the second still image are different, a resolution adjustment unit that adjusts the resolution of the first still image to be equal to the resolution of the second still image And further comprising
The area specifying processing unit compares the first still image whose resolution has been adjusted with the second still image, and an image processing apparatus characterized in that the region specifying processing unit compares the second still image with the resolution.
請求項1または請求項2のいずれかに記載の画像処理装置において、
前記第1の静止画像または前記第2の静止画像から前記特定領域を含む第3の静止画像を生成する特定領域画像生成部をさらに備えると共に、
前記表示処理部は、前記第3の静止画像と、前記第3の静止画像内での前記特定領域の位置を示すマークと、を表示させることを特徴とする画像処理装置。
The image processing apparatus according to claim 1, wherein:
A specific area image generating unit that generates a third still image including the specific area from the first still image or the second still image;
The display processing unit displays the third still image and a mark indicating the position of the specific region in the third still image.
請求項1ないし請求項3のいずれかに記載の画像処理装置において、
前記領域特定部は、前記第1の静止画像と、前記第2の静止画像と、をそれぞれ同様な複数のブロックに分け、前記第1の静止画像と前記第2の静止画像について、同じ位置にある前記ブロック同士を順次比較して、前記所望の画像処理の前後において、所定画素値の変化が最大となるブロックを導き出し、そのブロックに基づいて、前記所定領域を特定することを特徴とする画像処理装置。
The image processing apparatus according to any one of claims 1 to 3,
The region specifying unit divides the first still image and the second still image into a plurality of similar blocks, and the first still image and the second still image are at the same position. An image characterized by sequentially comparing the certain blocks, deriving a block having a maximum change in a predetermined pixel value before and after the desired image processing, and specifying the predetermined region based on the block Processing equipment.
請求項1ないし請求項4のいずれかに記載の画像処理装置であって、
前記所望の画像処理は、複数の比較的低解像度な静止画像から1枚の比較的高解像度な静止画像を生成する画像処理であることを特徴とする画像処理装置。
An image processing apparatus according to any one of claims 1 to 4,
The desired image processing is image processing for generating one relatively high-resolution still image from a plurality of relatively low-resolution still images.
第1の静止画像と、前記第1の静止画像に対して所望の画像処理を施した結果得られる第2の静止画像と、を表示するための画像処理方法であって、
(a)前記第1の静止画像と、前記第2の静止画像と、を比較して、前記所望の画像処理の前後において、所定画素値の変化が最大となる領域を特定する工程と、
(b)前記第1の静止画像における前記特定領域を拡大して第1の領域拡大画像を得ると共に、前記第2の静止画像における前記特定領域を拡大して第2の領域拡大画像を得る工程と、
(c)前記第1の領域拡大画像と、前記第2の領域拡大画像と、を並列して表示する工程と、
を備える画像処理方法。
An image processing method for displaying a first still image and a second still image obtained as a result of performing desired image processing on the first still image,
(A) comparing the first still image with the second still image and identifying a region where the change in the predetermined pixel value is maximum before and after the desired image processing;
(B) a step of enlarging the specific area in the first still image to obtain a first area enlarged image, and enlarging the specific area in the second still image to obtain a second area enlarged image When,
(C) displaying the first region enlarged image and the second region enlarged image in parallel;
An image processing method comprising:
請求項6に記載の画像処理方法において、
前記第1の静止画像と、前記第2の静止画像と、で解像度が異なる場合には、
(d)前記第1の静止画像の解像度を調整して前記第2の静止画像の解像度と等しくする工程をさらに備えると共に、
前記工程(a)では、解像度を調整された前記第1の静止画像と、前記第2の画像と、を比較することを特徴とする画像処理方法。
The image processing method according to claim 6,
When the resolution is different between the first still image and the second still image,
(D) further comprising adjusting the resolution of the first still image to be equal to the resolution of the second still image;
In the step (a), the first still image whose resolution has been adjusted and the second image are compared.
請求項6または請求項7のいずれかに記載の画像処理方法において、
(e)前記第1の静止画像または前記第2の静止画像から前記特定領域を含む第3の静止画像を生成する工程と、
(f)前記第3の静止画像と、前記第3の静止画像内での前記特定領域の位置を示すマークと、を表示する工程と、
をさらに備えることを特徴とする画像処理方法。
The image processing method according to claim 6, wherein:
(E) generating a third still image including the specific region from the first still image or the second still image;
(F) displaying the third still image and a mark indicating the position of the specific region in the third still image;
An image processing method, further comprising:
請求項6ないし請求項8のいずれかに記載の画像処理装置において、
前記工程(a)では、前記第1の静止画像と、前記第2の静止画像と、をそれぞれ同様な複数のブロックに分け、前記第1の静止画像と前記第2の静止画像について、同じ位置にある前記ブロック同士を順次比較して、前記所望の画像処理の前後において、所定画素値の変化が最大となるブロックを導き出し、そのブロックに基づいて、前記所定領域を特定することを特徴とする画像処理方法。
The image processing apparatus according to any one of claims 6 to 8,
In the step (a), the first still image and the second still image are each divided into a plurality of similar blocks, and the same position is set for the first still image and the second still image. The blocks are sequentially compared with each other, the block having the largest change in the predetermined pixel value before and after the desired image processing is derived, and the predetermined region is specified based on the block. Image processing method.
請求項6ないし請求項9のいずれかに記載の画像処理方法において、
前記所望の画像処理は、複数の比較的低解像度な静止画像から1枚の比較的高解像度な静止画像を生成する画像処理であることを特徴とする画像処理方法。
The image processing method according to any one of claims 6 to 9,
The desired image processing is image processing for generating one relatively high-resolution still image from a plurality of relatively low-resolution still images.
第1の静止画像と、前記第1の静止画像に対して所望の画像処理を施した結果得られる第2の静止画像と、を表示させるためのプログラムであって、
前記第1の静止画像と、前記第2の静止画像と、を比較して、前記所望の画像処理の前後において、所定画素値の変化が最大となる領域を特定する第1の機能と、
前記第1の静止画像における前記特定領域を拡大して第1の領域拡大画像を得ると共に、前記第2の静止画像における前記特定領域を拡大して第2の領域拡大画像を得る第2の機能と、
前記第1の領域拡大画像と、前記第2の領域拡大画像と、を並列して表示させる第3の機能と、
をコンピュータに実現させるためのプログラム。
A program for displaying a first still image and a second still image obtained as a result of performing desired image processing on the first still image,
A first function that compares the first still image with the second still image and identifies a region in which a change in a predetermined pixel value is maximum before and after the desired image processing;
Second function of obtaining a first region enlarged image by enlarging the specific region in the first still image and obtaining a second region enlarged image by enlarging the specific region in the second still image When,
A third function for displaying the first region enlarged image and the second region enlarged image in parallel;
A program to make a computer realize.
請求項11に記載のプログラムにおいて、
前記第1の静止画像と、前記第2の静止画像と、で解像度が異なる場合には、
前記第1の静止画像の解像度を調整して前記第2の静止画像の解像度と等しくする第4の機能を、さらにコンピュータに実現させると共に
前記第1の機能として、解像度を調整された前記第1の静止画像と、前記第2の静止画像と、を比較することを特徴とするプログラム。
The program according to claim 11,
When the resolution is different between the first still image and the second still image,
A fourth function for adjusting the resolution of the first still image to be equal to the resolution of the second still image is further realized by a computer, and the first function whose resolution is adjusted is used as the first function. A program for comparing the still image with the second still image.
請求項11または請求項12のいずれかに記載のプログラムにおいて、
前記第1の静止画像または前記第2の静止画像から前記特定領域を含む第3の静止画像を生成する第5の機能と、
前記第3の静止画像と、前記第3の静止画像内での前記特定領域の位置を示すマークと、を表示させる第6の機能と、
をさらにコンピュータに実現させるためのプログラム。
In the program according to claim 11 or 12,
A fifth function for generating a third still image including the specific area from the first still image or the second still image;
A sixth function for displaying the third still image and a mark indicating the position of the specific region in the third still image;
A program that allows a computer to realize this.
請求項11ないし請求項13のいずれかに記載のプログラムにおいて、
前記第1の機能は、前記第1の静止画像と、前記第2の静止画像と、をそれぞれ同様な複数のブロックに分け、前記第1の静止画像と前記第2の静止画像について、同じ位置にある前記ブロック同士を順次比較して、前記所望の画像処理の前後において、所定画素値の変化が最大となるブロックを導き出し、そのブロックに基づいて、前記所定領域を特定する機能を含むことを特徴とするプログラム。
The program according to any one of claims 11 to 13,
The first function divides the first still image and the second still image into a plurality of similar blocks, and the same position for the first still image and the second still image. Including a function of sequentially comparing the blocks in order to derive a block having a maximum change in a predetermined pixel value before and after the desired image processing and specifying the predetermined area based on the block. A featured program.
請求項11ないし請求項14のいずれかに記載のプログラムにおいて、
前記所望の画像処理は、複数の比較的低解像度な静止画像から1枚の比較的高解像度な静止画像を生成する画像処理であることを特徴とするプログラム。
The program according to any one of claims 11 to 14,
The desired image processing is an image processing for generating one relatively high resolution still image from a plurality of relatively low resolution still images.
請求項11ないし請求項15のいずれかに記載のプログラムを記録したコンピュータ読み取り可能な記録媒体。   A computer-readable recording medium on which the program according to claim 11 is recorded.
JP2003359036A 2003-10-20 2003-10-20 Image processing apparatus, image processing method and image processing program Pending JP2005122601A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003359036A JP2005122601A (en) 2003-10-20 2003-10-20 Image processing apparatus, image processing method and image processing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003359036A JP2005122601A (en) 2003-10-20 2003-10-20 Image processing apparatus, image processing method and image processing program

Publications (1)

Publication Number Publication Date
JP2005122601A true JP2005122601A (en) 2005-05-12

Family

ID=34615387

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003359036A Pending JP2005122601A (en) 2003-10-20 2003-10-20 Image processing apparatus, image processing method and image processing program

Country Status (1)

Country Link
JP (1) JP2005122601A (en)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1764739A1 (en) * 2005-09-14 2007-03-21 Ricoh Company, Ltd. Image processing apparatus and computer program product
JP2009031979A (en) * 2007-07-26 2009-02-12 Ricoh Co Ltd Image processing device and digital camera
JP2009116192A (en) * 2007-11-08 2009-05-28 Canon Inc Image display device and control method thereof
JP2010161760A (en) * 2008-12-09 2010-07-22 Sanyo Electric Co Ltd Image processing apparatus, and electronic appliance
JP2010268389A (en) * 2009-05-18 2010-11-25 Sharp Corp Apparatus and method for generation of zoom image
JP2011109351A (en) * 2009-11-17 2011-06-02 Canon It Solutions Inc Moving picture editing system, control method and program
JP2014033317A (en) * 2012-08-02 2014-02-20 Konica Minolta Inc Image processing apparatus, image output method, and computer program
JP2019103007A (en) * 2017-12-04 2019-06-24 キヤノン株式会社 Program, information processing apparatus, and information processing method

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1764739A1 (en) * 2005-09-14 2007-03-21 Ricoh Company, Ltd. Image processing apparatus and computer program product
JP2007110678A (en) * 2005-09-14 2007-04-26 Ricoh Co Ltd Image processing apparatus and computer program product
US7773810B2 (en) 2005-09-14 2010-08-10 Ricoh Company, Ltd. Image processing apparatus and computer program product
JP2009031979A (en) * 2007-07-26 2009-02-12 Ricoh Co Ltd Image processing device and digital camera
JP2009116192A (en) * 2007-11-08 2009-05-28 Canon Inc Image display device and control method thereof
JP2010161760A (en) * 2008-12-09 2010-07-22 Sanyo Electric Co Ltd Image processing apparatus, and electronic appliance
JP2010268389A (en) * 2009-05-18 2010-11-25 Sharp Corp Apparatus and method for generation of zoom image
JP2011109351A (en) * 2009-11-17 2011-06-02 Canon It Solutions Inc Moving picture editing system, control method and program
JP2014033317A (en) * 2012-08-02 2014-02-20 Konica Minolta Inc Image processing apparatus, image output method, and computer program
JP2019103007A (en) * 2017-12-04 2019-06-24 キヤノン株式会社 Program, information processing apparatus, and information processing method
JP7023688B2 (en) 2017-12-04 2022-02-22 キヤノン株式会社 Programs, information processing equipment, and information processing methods

Similar Documents

Publication Publication Date Title
JP4461937B2 (en) Generation of high-resolution images based on multiple low-resolution images
US20050174590A1 (en) Image correction method, image correction apparatus, and image correction program
US20050157949A1 (en) Generation of still image
EP1571825B1 (en) Generation, starting from a time sequence of source still image data, of a still image file including additional information for subsequent processing
JP2005275977A (en) Image display method, image display device, and image display program
WO2013080920A1 (en) Image processing apparatus, image processing method, and image processing program
US20020141005A1 (en) Image processing program and image processing apparatus
JP2012244337A (en) Image processing apparatus, image processing method, program, and imaging apparatus
JP2007151080A (en) Image processor and image processing method
US8237774B2 (en) Method and apparatus for obtaining improved panoramic images
US20050212923A1 (en) Image data generation suited for output device used in image output
US20040196376A1 (en) Still image generating apparatus and still image generating method
JP5212046B2 (en) Digital camera, image processing apparatus, and image processing program
US20080143742A1 (en) Method and apparatus for editing image, generating editing image, and storing edited image in portable display device
JP4646735B2 (en) Image processing apparatus and image processing method
JP2005122601A (en) Image processing apparatus, image processing method and image processing program
JP4292995B2 (en) Generation of still images of specific scenes in movies
US8774603B2 (en) Information processing apparatus, information processing method, program, and recording medium
US8497889B2 (en) Display apparatus
JP2005141614A (en) Shortening of processing time for generation image of high resolution based on a plurality of images of low resolution
JP2005275765A (en) Image processor, image processing method, image processing program and recording medium recording the program
JP4689243B2 (en) Image processing apparatus, image processing method, and digital camera
JP2005129996A (en) Efficiency enhancement for generation of high-resolution image from a plurality of low resolution images
JP2005348221A (en) Image generating apparatus, still image generating apparatus, image deviation quantity detecting apparatus, image aligning apparatus, image generating method, image generating program and recording medium with image generating program recorded thereon
JP2007028548A (en) Apparatus and program for editing image