JP2004355654A - Image processing device and image processing method - Google Patents

Image processing device and image processing method Download PDF

Info

Publication number
JP2004355654A
JP2004355654A JP2004227485A JP2004227485A JP2004355654A JP 2004355654 A JP2004355654 A JP 2004355654A JP 2004227485 A JP2004227485 A JP 2004227485A JP 2004227485 A JP2004227485 A JP 2004227485A JP 2004355654 A JP2004355654 A JP 2004355654A
Authority
JP
Japan
Prior art keywords
image
block
similar
size
similarity
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2004227485A
Other languages
Japanese (ja)
Other versions
JP4590973B2 (en
JP2004355654A5 (en
Inventor
Masatoshi Matsudaira
正年 松平
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Priority to JP2004227485A priority Critical patent/JP4590973B2/en
Publication of JP2004355654A publication Critical patent/JP2004355654A/en
Publication of JP2004355654A5 publication Critical patent/JP2004355654A5/ja
Application granted granted Critical
Publication of JP4590973B2 publication Critical patent/JP4590973B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformation in the plane of the image
    • G06T3/40Scaling the whole image or part thereof
    • G06T3/403Edge-driven scaling

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Image Processing (AREA)
  • Editing Of Facsimile Originals (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To convert a low-quality original image into a high-quality image in a relatively short time. <P>SOLUTION: A local area image is obtained for every pixel of the original image at a block size according to edge intensity. An image similar to the obtained local area image is detected by applying affine transformation to a peripheral image of the local area image. The detected affine transformation image is reduced to a size equal to that of the local area image to obtain a distance (similarity) to the local area image. The affine conversion image most similar to the local area image is substituted for the local area image. A part where the respective affine transformation images are superimposed on one another is processed by averaging them. By reducing the block size of the local area image as the degree of fractal similarity is intensified, a calculation time necessary for similarity determination or the like can be reduced. <P>COPYRIGHT: (C)2005,JPO&NCIPI

Description

本発明は、例えば低品質の画像を補間して高品質の画像に変換可能な画像処理装置及び画像処理方法に関する。   The present invention relates to an image processing apparatus and an image processing method capable of interpolating a low-quality image into a high-quality image, for example.

例えば、低品質のデジタル画像を高品質の画像に変換したり、低解像度の画像を高解像度に変換したり、画像を拡大したりする場合には、オリジナルの画素と画素との間に新たな画素を挿入する等の画像補間が行われる。デジタル画像の補間方法としては、例えば、最近傍補間法(最近隣接補間法、零次ホールド法、Nearest-Neighbor法とも呼ばれる)、線形補間法(直線補間法、共一次補間法、Bi-Linear法とも呼ばれる)、3次たたみ込み補間法(立体コンボリューション法、Bi-Cubic法、Cubic Convolution法と呼ばれる)が知られている。   For example, when converting a low-quality digital image to a high-quality image, converting a low-resolution image to a high-resolution image, or enlarging an image, a new pixel is placed between the original pixels. Image interpolation such as inserting a pixel is performed. As a method for interpolating a digital image, for example, a nearest neighbor interpolation method (also referred to as a nearest neighbor interpolation method, a zero-order hold method, a Nearest-Neighbor method), a linear interpolation method (linear interpolation method, bilinear interpolation method, Bi-Linear method) The third-order convolution interpolation method (also called a three-dimensional convolution method, a Bi-Cubic method, or a Cubic Convolution method) is known.

上述した各補間法は、サンプリング定理に基づくsinc関数による補間を基本概念としているため、原画像がナイキスト周波数の半分以下の周波数成分から構成されている場合にのみ、理論的に正しい。しかし、実際の原画像に含まれる周波数成分は無限に大きいため、前記各補間法では、原画像中に含まれる高周波成分を復元することができない。   Each of the above-described interpolation methods has a basic concept of interpolation using a sinc function based on the sampling theorem, and is theoretically correct only when the original image is composed of frequency components equal to or less than half the Nyquist frequency. However, since the frequency components contained in the actual original image are infinitely large, the above-described interpolation methods cannot restore the high-frequency components contained in the original image.

そこで、このようなサンプリングの過程で失われた高周波成分を補間するための手法として、周波数変換法が提案されている。周波数変換法としては、周波数領域において帯域制限された周波数成分を実空間に射影し、全実空間成分のうちの制限範囲のみを周波数空間に射影し、全周波数成分のうちの帯域制限された部分を既知である元周波数成分に置き換えた上で、再び実空間に射影するという操作を無限に繰り返すゲルヒベルグ−パポリスの反復法(GP法)がよく知られている。一般的には、周波数変換にDCT演算を用いることで演算上の負担を軽減している(IM−GPDCT法)。   Therefore, a frequency conversion method has been proposed as a method for interpolating the high-frequency components lost in the sampling process. As the frequency conversion method, the frequency components band-limited in the frequency domain are projected to the real space, only the restricted range of all the real space components is projected to the frequency space, and the band-limited portion of the total frequency components is Is replaced with a known original frequency component, and the operation of projecting again to the real space is infinitely repeated, and the Gerchberg-Papolis iterative method (GP method) is well known. In general, the computational burden is reduced by using DCT computation for frequency conversion (IM-GPDCT method).

しかし、適当な高周波成分が得られるまで、DCT演算や逆DCT演算を繰り返す必要があるため、処理時間が長くなる。また、ノイズが強調されたり、リンギングが発生したりして、画質が低下するおそれもある。   However, it is necessary to repeat the DCT operation and the inverse DCT operation until an appropriate high-frequency component is obtained, so that the processing time becomes long. In addition, noise may be emphasized, ringing may occur, and image quality may be degraded.

本発明は、上記のような課題に鑑みなされたもので、その目的は、高品質の画像をより高速に得ることができる画像処理装置及び画像処理方法を提供することにある。   SUMMARY An advantage of some aspects of the invention is to provide an image processing apparatus and an image processing method that can obtain a high-quality image at higher speed.

上記目的達成のため、本発明では、例えば、フラクタル相似性の度合に応じて画像ブロックの取得サイズを設定し、近接するブロック同士が重なり合うようにして各画像ブロックを取得すると共に、該各画像ブロックに相似する画像を検出し、置換する。   In order to achieve the above object, in the present invention, for example, an acquisition size of an image block is set in accordance with the degree of fractal similarity, and each image block is acquired so that adjacent blocks overlap each other. An image similar to is detected and replaced.

本発明に係る画像処理装置では、相似性判定手段により、原画像の所定の画素毎に、該画素周辺の画像の相似性の度合を判定させる。ブロックサイズ設定手段は、判定された相似性の度合に応じて、原画像から取得すべき画像ブロックのサイズを設定する。画像ブロック取得手段は、ブロックサイズ設定手段により設定されたサイズの画像ブロックを、近接する各画像ブロックが所定量だけ重なり合うようにして、原画像からそれぞれ取得する。相似画像検出手段は、取得された各画像ブロックのそれぞれについて、所定の探索領域内から該各画像ブロックに相似する相似画像ブロックを検出する。画像置換手段は、検出された各相似画像ブロックを、対応する前記各画像ブロックにそれぞれ置換させる。画像加算手段が前記置換された各相似画像ブロックを重ね合わせると、画像調整手段は、加算されたブロックの重複部分の画像を調整する。   In the image processing device according to the present invention, the degree of similarity of the image around the pixel is determined for each predetermined pixel of the original image by the similarity determination unit. The block size setting means sets the size of the image block to be acquired from the original image according to the determined degree of similarity. The image block acquisition unit acquires the image blocks of the size set by the block size setting unit from the original image such that adjacent image blocks overlap by a predetermined amount. The similar image detecting means detects, for each of the acquired image blocks, a similar image block similar to each image block from a predetermined search area. The image replacement means replaces each detected similar image block with the corresponding image block. When the image adding means superimposes the replaced similar image blocks, the image adjusting means adjusts the image of the overlapped portion of the added blocks.

原画像のディジタルデータは、例えば、メモリ等の原画像保持手段により保持されている。画像ブロック取得手段は、保持された原画像から所定サイズ(n×m画素、n=mでもよい)の画像ブロックを取得する。   The digital data of the original image is held by an original image holding unit such as a memory, for example. The image block acquisition unit acquires an image block of a predetermined size (n × m pixels, n = m may be used) from the held original image.

ここで、ある画素に係る画像ブロックの取得サイズは、該画素周辺の画像が有する相似性の度合に基づいて設定される。例えば、注目する画素を略中心とする所定サイズ(x×y)の画像が有するエッジ強度を、相似性の度合として使用することができる。フラクタル自己相似性の度合が高いほど、エッジ強度も高くなる性質を有する。フラクタル自己相似性の度合が高い場合は、画像ブロックのサイズを小さくすることができる。画像ブロックのサイズを小さくするほど、相似画像ブロックとの相似性判定等に要する処理時間を短縮できる。   Here, the acquisition size of the image block related to a certain pixel is set based on the degree of similarity of the image around the pixel. For example, the edge strength of an image of a predetermined size (x × y) having the pixel of interest substantially at the center can be used as the degree of similarity. The higher the degree of fractal self-similarity, the higher the edge strength. If the degree of fractal self-similarity is high, the size of the image block can be reduced. As the size of the image block is reduced, the processing time required for determining similarity with a similar image block can be reduced.

近接する画像ブロックがそれぞれ所定量ずつ重なり合うようにして、相似性の度合に応じて定まる所定サイズの各画像ブロックが取得される。例えば、原画像の一画素毎に当該画素を略中心とする所定サイズの画像ブロックを取得することにより、隣接する各画像ブロックは、所定量ずつ重なり合うことになる。   Each image block of a predetermined size determined according to the degree of similarity is obtained such that adjacent image blocks overlap by a predetermined amount. For example, by acquiring, for each pixel of the original image, an image block of a predetermined size substantially at the center of the pixel, adjacent image blocks overlap by a predetermined amount.

相似画像検出手段は、所定の探索領域内から各画像ブロックに相似する相似画像ブロックを検出する。画像のある一部は、周囲のより大きな画像の縮小形となっている性質、即ち、フラクタル相似性を利用して、原画像の中から画像ブロックに相似する相似画像ブロックを検出することができる。   The similar image detecting means detects a similar image block similar to each image block from within a predetermined search area. A part of the image is a reduced form of the surrounding larger image, that is, a fractal similarity can be used to detect a similar image block similar to the image block from the original image. .

具体的には、例えば、相似画像検出手段は、探索領域内の画像を、平行移動、拡大、縮小及び回転させる等のアフィン変換を行うことにより、取得された画像ブロックに相似する複数の候補画像ブロックを検出することができる。これら各候補画像ブロックと元の画像ブロックとの距離(相似性)を算出することにより、画像ブロックに最も相似する相似画像ブロックを得ることができる。   More specifically, for example, the similar image detecting unit performs affine transformation such as parallel movement, enlargement, reduction, and rotation of the image in the search area, thereby obtaining a plurality of candidate images similar to the acquired image block. Blocks can be detected. By calculating the distance (similarity) between each of these candidate image blocks and the original image block, a similar image block most similar to the image block can be obtained.

相似画像検出手段は、相似性の度合が高くなるほど探索領域が小さくなるように設定することができる。なお、探索領域は、最大でも原画像よりも小さく設定するのが好ましい。相似性の度合が高いほど、画像ブロックに相似する画像は、該画像ブロックの周辺に存在する可能性が高い。相似性の度合に応じて探索領域を可変に設定することにより、相似画像ブロックを検出する時間を短縮することができる。相似性の度合に応じて、画像ブロックの取得サイズ及び相似画像ブロックの探索領域を設定することにより、処理時間を短縮することができる。   The similarity image detecting means can be set so that the search area becomes smaller as the degree of similarity becomes higher. It is preferable that the search area is set to be smaller than the original image at the maximum. The higher the degree of similarity, the higher the possibility that an image similar to an image block exists around the image block. By setting the search area variably according to the degree of similarity, the time for detecting similar image blocks can be reduced. The processing time can be reduced by setting the acquisition size of the image block and the search area for the similar image block according to the degree of similarity.

ここで、相似性の度合が所定の基準値を上回る各画像ブロックについてのみ相似画像ブロックをそれぞれ検出し、前記基準値以下の各画像ブロックについては、相似画像ブロックの検出は行わないようにすることもできる。   Here, a similar image block is detected only for each image block whose degree of similarity exceeds a predetermined reference value, and similar image blocks are not detected for each image block that is equal to or less than the reference value. You can also.

検出された各相似画像ブロックは、画像置換手段によって、それぞれ対応する画像ブロックに置き換えられる。置換された各相似画像ブロックは、所定量ずつ重なり合って加算される。近接する各画像ブロックは互いに所定量ずつ重なり合うようにして取得されているので、加算される各ブロックも近接するブロック同士が所定量ずつ重なり合う。そこで、画像調整手段は、ブロックの重なり合った部分の値を調整する。例えば、重なり合った画素の値を加算して平均化することにより画像を調整することができる。これに限らず、例えば、重み付けをして平均をとってもよい。   Each of the detected similar image blocks is replaced by a corresponding image block by the image replacement means. The replaced similar image blocks are overlapped by a predetermined amount and added. Since the adjacent image blocks are acquired so as to overlap each other by a predetermined amount, the blocks to be added also overlap the adjacent blocks by a predetermined amount. Therefore, the image adjusting means adjusts the value of the overlapping portion of the block. For example, the image can be adjusted by adding and averaging the values of the overlapping pixels. However, the present invention is not limited to this. For example, an average may be obtained by weighting.

相似性の度合が所定の基準値以下の各画像ブロックは、そのまま使用することができる。この場合、大別するなら、相似画像ブロック同士が重なり合う箇所、相似画像ブロックと画像ブロックとが重なり合う箇所、画像ブロック同士が重なり合う箇所の3種類の重なりを生じうる。   Each image block whose degree of similarity is equal to or less than a predetermined reference value can be used as it is. In this case, if roughly classified, three types of overlaps may occur: a place where similar image blocks overlap, a place where similar image blocks and image blocks overlap, and a place where image blocks overlap.

相似画像検出手段は、画像ブロックのサイズよりも大きいサイズで相似画像ブロックを検出し、該相似画像ブロックのサイズを前記画像ブロックのサイズと等しくなるように縮小させるものであってもよい。   The similar image detecting means may detect the similar image block with a size larger than the size of the image block, and reduce the size of the similar image block to be equal to the size of the image block.

例えば、画像ブロックのサイズをn×m、相似画像ブロックのサイズを(k・n)×(k・m)とすれば、相似画像ブロックをk分の一に縮小することにより、画像ブロックと相似画像ブロックのサイズを一致させることができる。   For example, assuming that the size of an image block is n × m and the size of a similar image block is (kn) × (km), the similar image block is reduced by a factor of k to obtain a similar image block. The size of the image blocks can be matched.

または、相似画像検出手段は、画像ブロックのサイズよりも大きいサイズで原画像中に設定される所定領域の中から、画素を間引きすることにより、前記画像ブロックと同一サイズの相似画像ブロックを検出するものであってもよい。   Alternatively, the similar image detecting means detects a similar image block having the same size as the image block by thinning out pixels from a predetermined area set in the original image with a size larger than the size of the image block. It may be something.

前記の例で言えば、(k・n)×(k・m)の画素を有する相似画像ブロックから1/k2の画素を抽出し、残りの画素を捨てることにより、n×m個の画素を有する画像ブロックと同一サイズの相似画像ブロックを得ることができる。 In the above example, 1 / k 2 pixels are extracted from a similar image block having (k · n) × (k · m) pixels, and the remaining pixels are discarded to obtain n × m pixels. And a similar image block having the same size as the image block having

原画像がカラー画像の場合は、原画像の各表色系成分のうち画像の明るさに関連する表色系成分とそれ以外の表色系成分とのいずれか一方を指定させることにより、この指定された表色系成分についてのみ本発明に係る画像処理を適用してもよい。即ち、指定された表色系成分についてのみ、各画像ブロックを相似画像ブロック置換して重複部分を調整することができる。   When the original image is a color image, by specifying one of the color system components related to the brightness of the image and the other color system components among the color system components of the original image, The image processing according to the present invention may be applied only to the designated color system components. In other words, for only the designated color system component, each image block can be replaced with a similar image block to adjust the overlapping portion.

例えば、RGB表色系を例に挙げると、R(赤)、G(緑)、B(青)の各色成分のうち、G成分は画像の明るさに最も大きく関与し、R成分及びB成分は色味に関与する。また、例えば、YUV表色系、YIQ表色系、YCbCr表色系及びLab表色系では、Y成分又はL成分が画像の明るさに最も関与する成分であり、その他の成分(U,V,I,Q等)は、色味に関与する。そこで、例えば、画像処理装置が適用される製品の種類(ディジタルカメラ、プリンタ、スキャナ等々)や原画像の特性(自然画像か否か)、ユーザーの好み等に応じて、明るさに関連する表色系成分とそれ以外の表色系成分とのいずれに、本画像処理を適用するかを選択可能とする。   For example, taking the RGB color system as an example, of the R (red), G (green), and B (blue) color components, the G component has the greatest influence on the brightness of the image, and the R component and the B component Is involved in color. Further, for example, in the YUV color system, the YIQ color system, the YCbCr color system, and the Lab color system, the Y component or the L component is the component that is most involved in the brightness of an image, and the other components (U, V , I, Q, etc.) contribute to the color. Therefore, for example, a table related to brightness is set according to the type of product to which the image processing apparatus is applied (digital camera, printer, scanner, etc.), the characteristics of the original image (whether or not the image is a natural image), and user preferences. It is possible to select which of the color components and the other color components the image processing is applied to.

本発明は、コンピュータプログラムを記録した記録媒体として把握することもできる。プログラムは、例えば、ハードディスクやフロッピーディスク、メモリ等の種々の有形的な記録媒体に固定することができる。また、これに限らず、例えば、ネットワーク上のサーバから所定のプログラムをダウンロードする等のように、通信媒体を用いることもできる。   The present invention can be understood as a recording medium on which a computer program is recorded. The program can be fixed to various tangible recording media such as a hard disk, a floppy disk, and a memory. The present invention is not limited to this, and a communication medium may be used, such as downloading a predetermined program from a server on a network.

以上説明した通り、本発明に係る画像処理装置及び画像処理方法によれば、低品質の画像を高品質の画像に比較的短時間で変換することが可能となる。   As described above, according to the image processing apparatus and the image processing method according to the present invention, a low-quality image can be converted into a high-quality image in a relatively short time.

以下、図1〜図12に基づき、本発明の実施の形態を説明する。   Hereinafter, an embodiment of the present invention will be described with reference to FIGS.

図1〜図7は本発明の第1の実施の形態に係る画像処理装置の構成を示すブロック図である。   FIGS. 1 to 7 are block diagrams showing the configuration of the image processing apparatus according to the first embodiment of the present invention.

本画像処理装置1は、原画像保持部2から入力される原画像に所定の画像処理を加えて、出力画像保持部13に処理済みの画像を出力するものである。原画像保持部2及び出力画像保持部13は、メモリ等から構成される。原画像保持部2及び出力画像保持部13は、画像処理装置1の構成として取り込んでも良いし、画像処理装置1とはそれぞれ別体の構成としてもよい。例えば、原画像が記録されたPCカードから原画像データを読み出し、処理済みの画像を当該PCカードの空き領域に書き戻す場合は、PCカードが原画像保持部2及び出力画像保持部13となる。   The image processing apparatus 1 performs predetermined image processing on an original image input from the original image holding unit 2, and outputs a processed image to the output image holding unit 13. The original image holding unit 2 and the output image holding unit 13 are configured by a memory or the like. The original image holding unit 2 and the output image holding unit 13 may be incorporated as a configuration of the image processing device 1 or may be configured separately from the image processing device 1. For example, when the original image data is read from the PC card on which the original image is recorded, and the processed image is written back to the empty area of the PC card, the PC card becomes the original image holding unit 2 and the output image holding unit 13. .

「画像ブロック取得手段」としての局所領域画像取得部3は、原画像の各画素毎に所定サイズの局所領域画像をそれぞれ取得するものである。局所領域画像が「画像ブロック」に該当する。図2と共に後述するように、各画素毎にそれぞれ局所領域画像を取得するため、近接する各局所領域画像は所定量ずつ重なり合うことになる。局所領域画像取得部3は、パラメータ設定部4から設定される局所領域画像取得用のパラメータに基づいて、エッジ強度に応じた所定サイズの局所領域画像を取得する。即ち、パラメータ設定部4は、エッジ強度判定部14から入力されたエッジ強度に基づいてブロックサイズ管理テーブル15を参照し、注目画素周辺の画像のエッジ強度に応じたブロックサイズを局所領域画像取得部3に設定する。ブロックサイズ管理テーブル15には、例えば、「低」、「中」及び「高」の各エッジ強度の段階毎に、局所領域画像の取得サイズがそれぞれ対応付けられている。   The local area image obtaining section 3 as “image block obtaining means” obtains a local area image of a predetermined size for each pixel of the original image. The local area image corresponds to the “image block”. As will be described later with reference to FIG. 2, since a local region image is obtained for each pixel, adjacent local region images overlap by a predetermined amount. The local area image obtaining section 3 obtains a local area image of a predetermined size according to the edge strength based on the local area image obtaining parameters set by the parameter setting section 4. That is, the parameter setting unit 4 refers to the block size management table 15 based on the edge strength input from the edge strength determination unit 14, and calculates the block size according to the edge strength of the image around the pixel of interest in the local area image acquisition unit. Set to 3. In the block size management table 15, for example, the acquisition size of the local area image is associated with each of the low, medium, and high edge strength stages.

アフィン変換画像取得部6は、局所領域画像取得部3により取得された各局所領域画像に相似する画像を、原画像中から検出して取得するものである。アフィン変換画像取得部6は、アフィン変換パラメータ設定部7で設定されたアフィン変換用パラメータに基づいて、局所領域画像の周辺に存在する画像を操作し、局所領域画像に相似するアフィン変換画像を検出するようになっている。局所領域画像に相似するアフィン変換画像が「相似画像ブロック」に該当する。   The affine transformed image acquisition unit 6 detects and acquires an image similar to each local region image acquired by the local region image acquisition unit 3 from the original image. The affine transformation image acquisition unit 6 operates an image existing around the local region image based on the affine transformation parameters set by the affine transformation parameter setting unit 7 to detect an affine transformation image similar to the local region image. It is supposed to. An affine transformed image similar to the local region image corresponds to a “similar image block”.

ここで、アフィン変換画像取得部6は、エッジ強度判定部14からの判定結果に基づいて、注目画素周辺の画像のエッジ強度が所定の基準値を上回る場合にのみ、該注目画素に係る局所領域画像と相似するアフィン変換画像を検出するようになっている。   Here, based on the determination result from the edge intensity determination unit 14, the affine transformed image acquisition unit 6 determines whether the local area related to the pixel of interest is present only when the edge intensity of the image around the pixel of interest exceeds a predetermined reference value. An affine transformed image similar to the image is detected.

アフィン変換画像取得部6は、局所領域画像よりも大きいサイズ、例えば縦横2倍のサイズのアフィン変換画像を取得する。この取得されたアフィン変換画像は、縮小部8により局所領域画像と同サイズになるように縮小される。相似性算出部9は、局所領域画像取得部3が取得した局所領域画像とアフィン変換画像取得部6により取得され縮小部8により縮小されたアフィン変換画像との距離を算出し、両者の相似性、類似度を算出するものである。距離計算は、固有ベクトル距離を計算してもよいし、簡易的に二乗平均を取ってもよい。ここで、アフィン変換画像取得部6,縮小部8及び相似性算出部9が「相似画像検出手段」に該当する。   The affine-transformed image acquisition unit 6 acquires an affine-transformed image having a size larger than the local region image, for example, a size that is twice as long in the vertical and horizontal directions. The obtained affine transformed image is reduced by the reducing unit 8 so as to have the same size as the local region image. The similarity calculating unit 9 calculates the distance between the local region image acquired by the local region image acquiring unit 3 and the affine transformed image acquired by the affine transformed image acquiring unit 6 and reduced by the reducing unit 8, and the similarity between the two is calculated. , To calculate the similarity. In the distance calculation, an eigenvector distance may be calculated, or a square mean may be simply taken. Here, the affine transformed image acquisition unit 6, the reduction unit 8, and the similarity calculation unit 9 correspond to “similar image detection means”.

そして、相似性算出部9によって最も相似すると判定されたアフィン変換画像は、「画像置換手段」としての置換部10によって、対応する局所領域画像と置き換えられる。   Then, the affine transformed image determined to be most similar by the similarity calculating unit 9 is replaced with a corresponding local area image by the replacing unit 10 as “image replacing means”.

「画像加算手段」としての加算部11は、置換されたアフィン変換画像と置換されなかった局所領域画像とを加算する。即ち、原画像から取得された全局所領域画像は、自己に相似するアフィン変換画像に置換されて加算されるか、又は、元の局所領域画像のままで加算される。近接する局所領域画像同士が重なり合うようにして局所領域画像が取得されるため、置換されたアフィン変換画像及び元の局所領域画像は、近接する画像同士が所定量ずつ重なり合うようにして、加算部11により加算される。「画像調整手段」としての平均化処理部12は、各画像が重なり合った部分の値を平均化することにより調整する。重なり合った部分の画像調整方法としては、単純平均をとってもよいし、または、重み付けして平均をとってもよい。このようにして調整された画像は、出力画像保持部13に保持される。なお、画像調整後に、拡大処理、縮小処理、回転処理、色変換処理等を行っても良い。   The adding unit 11 as an “image adding unit” adds the replaced affine transformed image and the non-replaced local region image. That is, the entire local region image acquired from the original image is replaced with an affine transformed image similar to the self image and added, or the original local region image is added as it is. Since the local region images are acquired such that the adjacent local region images overlap each other, the replaced affine transformed image and the original local region image are added so that the adjacent images overlap by a predetermined amount, and the adding unit 11 Is added by The averaging processing unit 12 as “image adjusting means” adjusts by averaging the values of the portion where each image overlaps. As an image adjustment method of the overlapping portion, a simple average may be taken, or a weighted average may be taken. The image adjusted in this way is held in the output image holding unit 13. After image adjustment, enlargement processing, reduction processing, rotation processing, color conversion processing, and the like may be performed.

注目画素ポインタ5は、現在処理中の画素(注目画素)の位置を検出する。   The target pixel pointer 5 detects the position of the pixel currently being processed (target pixel).

「相似性判定手段」としてのエッジ強度判定部14は、注目画素周辺の画像が有するフラクタル性の度合を判定するものである。フラクタル性の度合として、本実施の形態では「エッジ強度」を用いる。エッジ強度については、図5と共に後述する。判定されたエッジ強度は、パラメータ設定部4に入力される。   The edge strength determination unit 14 as “similarity determination means” is for determining the degree of fractal property of the image around the target pixel. In the present embodiment, “edge strength” is used as the degree of fractal property. The edge strength will be described later with reference to FIG. The determined edge strength is input to the parameter setting unit 4.

図2は、画像処理装置による画像処理方法の大略を示す説明図である。図2(a)に示すように、原画像の各画素毎に所定サイズの局所領域画像が設定され、各局所領域画像毎にアフィン変換画像がそれぞれ取得される。   FIG. 2 is an explanatory diagram illustrating an outline of an image processing method by the image processing apparatus. As shown in FIG. 2A, a local area image having a predetermined size is set for each pixel of the original image, and an affine transformed image is obtained for each local area image.

現在の処理に係る注目画像を略中心に、所定のブロックサイズとして、例えば、n×nサイズの局所領域画像が取得される。図中では、n=4の場合を例示している。アフィン変換画像は、局所領域画像サイズよりも大きくなるように、具体的には例えば縦横2倍の大きさで取得される(2n×2n)。実施の形態では、特に明示しない限り、局所領域画像及びアフィン変換画像を正方形として説明するが、本発明はこれに限定されない。各画像は長方形、平行四辺形等の他の多角形に設定することも可能である。   A local area image of, for example, an n × n size is acquired as a predetermined block size around the target image of the current process. The figure illustrates a case where n = 4. The affine transformed image is acquired so as to be larger than the local area image size, specifically, for example, twice as large in the vertical and horizontal directions (2n × 2n). In the embodiments, the local region image and the affine transformed image are described as squares unless otherwise specified, but the present invention is not limited to this. Each image can be set to another polygon such as a rectangle or a parallelogram.

ここで、局所領域画像に相似するアフィン変換画像は、原画像の全体から探索することも可能である。しかし、探索領域を広げるほど処理時間が長くなる。また、画像ブロック(局所領域画像)のサイズや原画像の特性等にもよるが、相似画像ブロック(アフィン変換画像)は画像ブロックの周辺で発見される可能性が高い場合がある。特に、本発明は、原画像全体を互いに重複しない複数の画像ブロックに分割して、各画像ブロックに相似する画像ブロックを求めるものではなく、隣接する各画像ブロックの一部が重複するように設定するため、画像ブロック数が多くなり、相似画像ブロックを検出する回数が増大する。従って、相似画像ブロックの探索領域(探索範囲)を原画像全体に広げると、処理時間がより長くなる可能性がある。   Here, an affine transformed image similar to the local region image can be searched for from the entire original image. However, the processing time becomes longer as the search area is expanded. Further, depending on the size of the image block (local region image), the characteristics of the original image, and the like, a similar image block (affine transformed image) may be more likely to be found around the image block. In particular, the present invention does not divide the entire original image into a plurality of image blocks that do not overlap each other, and obtain image blocks similar to each image block, but set so that a part of each adjacent image block overlaps. Therefore, the number of image blocks increases, and the number of times of detecting similar image blocks increases. Therefore, if the search area (search range) of the similar image block is extended to the entire original image, the processing time may be longer.

そこで、本実施の形態では、原画像の全体を探索するのではなく、原画像の一部に設定される探索領域内で、相似画像ブロックを探索するようにしている。探索領域のサイズは、原画像の性質等に応じて動的に変更することができる。画像ブロックのサイズをn×m、原画像のサイズをXmax,Ymax、探索領域のサイズをαn×βmとした場合、下記の関係が成立する。   Therefore, in the present embodiment, a similar image block is searched for in a search area set in a part of the original image, instead of searching the entire original image. The size of the search area can be dynamically changed according to the properties of the original image and the like. When the size of the image block is n × m, the size of the original image is Xmax and Ymax, and the size of the search area is αn × βm, the following relationship is established.

1<α<Xmax/n・・・(数式1)
1<β<Ymax/m・・・(数式2)
1 <α <Xmax / n (Equation 1)
1 <β <Ymax / m (Equation 2)

探索領域のサイズを決定する係数α,βの値は、上記数式1,2を満たす範囲で任意に設定することができる。但し、本発明はこれに限らず、原画像全体を探索してもよい。   The values of the coefficients α and β that determine the size of the search area can be set arbitrarily within a range that satisfies Equations 1 and 2. However, the present invention is not limited to this, and the entire original image may be searched.

図2(b)に示すように、局所領域画像よりも縦横2倍サイズで取得されたアフィン変換画像(「候補画像ブロック」)は、局所領域画像と同一サイズになるように縮小される。そして、縮小されたアフィン変換画像と局所領域画像との距離が算出され、相似性、類似度が判定される。ある局所領域画像について複数個取得されたアフィン変換画像の中から最も相似性の高いアフィン変換画像が、当該局所領域画像と置換される。   As shown in FIG. 2B, an affine transformed image (“candidate image block”) acquired at a size twice as large as the local region image is reduced to have the same size as the local region image. Then, the distance between the reduced affine transformed image and the local region image is calculated, and the similarity and the similarity are determined. An affine transformed image having the highest similarity is replaced with the local region image from among the affine transformed images obtained for a certain local region image.

図2(c)に示すように、近接する画像同士が互いに重複するようにして局所領域画像が取得されているため、該各局所領域画像に置換されるアフィン変換画像もそれぞれ隣接する画像同士が重複する。図中に示すように、4画素×4画素の局所領域画像を一画素ずつずらして取得する場合、x方向だけに着目すると、最大4枚の画像が重複することになる。y方向でも同様に最大で4枚の局所領域画像が重複する。そこで、重複した部分は、各画素の値の単純平均を取ることで調整する。   As shown in FIG. 2C, since the local region images are acquired such that the adjacent images overlap each other, the affine transformed images replaced with the respective local region images also have adjacent images. Duplicate. As shown in the figure, when acquiring a local area image of 4 pixels × 4 pixels by shifting one pixel at a time, focusing only on the x direction, a maximum of four images are overlapped. Similarly, a maximum of four local region images overlap in the y direction. Therefore, the overlapping part is adjusted by taking a simple average of the values of each pixel.

なお、本実施の形態では、全局所領域画像についてアフィン変換画像を取得するのではなく、エッジ強度(フラクタル性)が所定の基準値を上回る局所領域画像についてのみアフィン変換画像を取得している。従って、図2(c)に示す4枚の画像が全てアフィン変換画像になるとは限らない。アフィン変換画像同士、元の局所領域画像同士、アフィン変換画像と局所領域画像とが重なり合う場合がある。   In the present embodiment, an affine transformed image is acquired only for a local region image whose edge strength (fractal property) exceeds a predetermined reference value, instead of acquiring an affine transformed image for the entire local region image. Therefore, all four images shown in FIG. 2C are not always affine transformed images. The affine transformed images, the original local region images, and the affine transformed image and the local region image may overlap each other.

図3は、アフィン変換画像を取得する際の画像操作方法及びパラメータを示す説明図である。図3(a)に示すように、画像をSx,Syだけ平行移動させることができる。また、図3(b)に示すように、画像を角度θだけ回転させることもできる。さらに、図3(c),(d)に示すように、画像をx方向にEx倍拡大又は縮小したり、y方向にEy倍拡大又は縮小することもできる。   FIG. 3 is an explanatory diagram showing an image operation method and parameters when acquiring an affine transformed image. As shown in FIG. 3A, the image can be translated by Sx and Sy. Further, as shown in FIG. 3B, the image can be rotated by the angle θ. Further, as shown in FIGS. 3C and 3D, the image can be enlarged or reduced Ex times in the x direction, or enlarged or reduced Ey times in the y direction.

次に、図4〜図6に基づいて本実施の形態の作用を説明する。以下、ステップを「S」と略記する。   Next, the operation of the present embodiment will be described with reference to FIGS. Hereinafter, steps are abbreviated as “S”.

まず、図4は、画像処理の全体の流れを示すフローチャートである。S1では、注目画素の座標(x,y)に(0,0)をセットし、原画像の最初の画素から変換を開始させる。次に、注目画素の周辺の画像についてエッジ強度を計算する(S2)。S2では、局所領域画像の取得サイズを決定すべく、注目画素周辺の画像が有するエッジ強度を算出する。   First, FIG. 4 is a flowchart showing the overall flow of the image processing. In S1, (0, 0) is set to the coordinates (x, y) of the target pixel, and conversion is started from the first pixel of the original image. Next, the edge intensity is calculated for the image around the target pixel (S2). In S2, the edge strength of the image around the target pixel is calculated in order to determine the acquisition size of the local region image.

図5に示すように、注目画素Px5を中心とする3画素×3画素の画像を例に挙げると、注目画素の上下に位置する列のレベル差(|Px1+Px2+Px3|−|Px7+Px8+Px9|)と、注目画素の左右に位置する列のレベル差(|Px1+Px4+Px7|−|Px3+Px6+Px9|)とを検出し、これによりエッジ強度を算出する(S2)。即ち、注目画素周辺のエッジ強度をもってフラクタル性の度合の強さを判定している。   As shown in FIG. 5, in the case of an image of 3 pixels × 3 pixels centered on the target pixel Px5, the level difference (| Px1 + Px2 + Px3 | − | Px7 + Px8 + Px9 |) of the columns located above and below the target pixel is taken as an example. The level difference (| Px1 + Px4 + Px7 |-| Px3 + Px6 + Px9 |) between the columns located on the left and right of the pixel is detected, and the edge strength is calculated based on the difference (S2). That is, the strength of the fractal property is determined based on the edge strength around the target pixel.

なお、エッジ強度判定のための画像領域のサイズと局所領域画像のサイズとは必ずしも一致しない。局所領域画像のサイズは、エッジ強度に応じて変化するからである。なお、図5に示す例は一例に過ぎず、4画素×4画素や5画素×5画素の大きさでエッジ強度を算出してもよい。   Note that the size of the image region for edge strength determination does not always match the size of the local region image. This is because the size of the local area image changes according to the edge strength. Note that the example shown in FIG. 5 is merely an example, and the edge strength may be calculated with a size of 4 pixels × 4 pixels or 5 pixels × 5 pixels.

次に、算出されたエッジ強度がいずれの段階に相当するかランク分けを行う(S3,S6,S8)。即ち、エッジ強度が「所定の基準値」としてのレベルth1以下であるか否か(S3)、エッジ強度がレベルth1を上回るが次のレベルth2以下であるか否か(S6)、エッジ強度がレベルth2を上回るが最高レベルth3以下であるか否か(S8)をそれぞれ判定する。   Next, ranking is performed according to which stage the calculated edge strength corresponds to (S3, S6, S8). That is, whether the edge strength is equal to or lower than the level th1 as the “predetermined reference value” (S3), whether the edge strength is higher than the level th1, but equal to or lower than the next level th2 (S6), It is determined whether the level is higher than the level th2 but equal to or lower than the maximum level th3 (S8).

そして、図6に示すように、検出されたエッジ強度の強さに応じて、局所領域画像のブロックサイズ及びアフィン変換画像を取得するか否かを決定する。   Then, as shown in FIG. 6, it is determined whether or not to acquire the block size of the local area image and the affine transformation image according to the detected edge strength.

(1)エッジ強度≦th1の場合
エッジ強度がレベルth1以下の場合は(S3:NO)、図6(a)に示すように、予め設定された初期ブロックサイズnsで局所領域画像が取得され(S4)、この取得された局所領域画像がそのまま加算される(S5)。
(1) In the case of edge strength ≦ th1 When the edge strength is equal to or lower than the level th1 (S3: NO), as shown in FIG. 6A, a local region image is acquired with a preset initial block size ns ( S4), the acquired local region images are added as they are (S5).

(2)th1<エッジ強度≦th2の場合
エッジ強度がレベルth1を上回り、かつレベルth2(th2>th1)以下である場合は(S6:NO)、図6(b)に示すように、「低」エッジ強度用の第1のブロックサイズn1で局所領域画像が取得される(S7)。なお、図6中、初期ブロックサイズns及び第1のブロックサイズn1は、ともに4画素の値に設定されているが、両サイズが一致する必要はない。初期ブロックサイズnsを第1のブロックサイズn1よりも大きく設定してもよい。
(2) In the case of th1 <edge strength ≦ th2 When the edge strength exceeds the level th1 and is equal to or lower than the level th2 (th2> th1) (S6: NO), as shown in FIG. "A local region image is acquired with a first block size n1 for edge strength (S7). In FIG. 6, the initial block size ns and the first block size n1 are both set to values of four pixels, but the two sizes do not need to match. The initial block size ns may be set larger than the first block size n1.

(3)th2<エッジ強度≦th3
エッジ強度がth2を上回り、かつレベルth3(th3>th2)以下である場合は(S8:NO)、図6(c)に示すように、「中」エッジ強度用の第2のブロックサイズn2で局所領域画像が取得される(S9)。
(3) th2 <edge strength ≦ th3
When the edge strength exceeds th2 and is equal to or lower than the level th3 (th3> th2) (S8: NO), as shown in FIG. 6C, the second block size n2 for the "medium" edge strength is used. A local region image is obtained (S9).

(4)th3<エッジ強度
算出されたエッジ強度がレベルth3を上回る場合は(S8:YES)、図6(d)に示すように、「高」エッジ強度用の第3のブロックサイズn3で局所領域画像が取得される(S10)。
(4) th3 <Edge Intensity When the calculated edge intensity exceeds the level th3 (S8: YES), as shown in FIG. 6D, a local area having a third block size n3 for “high” edge intensity is used. An area image is obtained (S10).

以上のように、エッジ強度に応じたブロックサイズがセットされると、このブロックサイズで局所領域画像が取得され、取得された局所領域画像についてフラクタル補間が行われる(S11)。フラクタル補間については、図7と共に後述する。   As described above, when the block size according to the edge strength is set, a local region image is acquired with this block size, and fractal interpolation is performed on the acquired local region image (S11). The fractal interpolation will be described later with reference to FIG.

そして、注目する画素を次の画素に移し(S12)、原画像の全画素について、アフィン変換画像又は局所領域画像のいずれかを取得したか否かを判定する(S13)。原画像全体の処理が終了していない場合は、再びS2に戻って上述の各処理を繰り返す。   Then, the pixel of interest is moved to the next pixel (S12), and it is determined whether or not either an affine transformed image or a local region image has been acquired for all pixels of the original image (S13). If the processing of the entire original image has not been completed, the process returns to S2 and the above-described processing is repeated.

原画像の全画素について、それぞれに対応する局所領域画像又は局所領域画像に相似するアフィン変換画像を取得して加算した場合は(S13:YES)、各画像の重複部分について平均化し、出力画像とする(S14)。なお、このようにして変換された画像を拡大等する場合は、さらに、線形補間等の従来の補間処理を行うことができる。   For all pixels of the original image, when a local area image or an affine transformed image similar to the local area image is obtained and added (S13: YES), the overlapping part of each image is averaged, and the output image and (S14). When the image converted in this way is enlarged or the like, conventional interpolation processing such as linear interpolation can be further performed.

次に、図7は、図4中にS11として示されるフラクタル補間処理の流れを示すフローチャートである。   Next, FIG. 7 is a flowchart showing the flow of the fractal interpolation process shown as S11 in FIG.

まず、局所領域画像とアフィン変換画像との相似性を判定するための「最小距離」に最大値をセットする(S21)。そして、先にセットされたブロックサイズにより、注目画素を略中心とする局所領域画像を取得し(S22)、アフィン変換用の各パラメータ(Sx,Sy,Ex,Ey,θ)にそれぞれ初期値(下限値)をセットする(S23)。なお、後述する他のステップでも同様だが、処理に影響がない限り、ステップの処理順序を変更可能である。即ち、S21〜S23の処理順序は問わない。   First, the maximum value is set to the "minimum distance" for determining the similarity between the local area image and the affine transformed image (S21). Then, based on the block size set previously, a local region image having the pixel of interest substantially at the center is acquired (S22), and the parameters (Sx, Sy, Ex, Ey, θ) for affine transformation are respectively initialized to the initial values ( Is set (S23). The same applies to other steps described later, but the processing order of the steps can be changed as long as the processing is not affected. That is, the processing order of S21 to S23 does not matter.

設定されたパラメータに基づいてアフィン変換画像を取得すると(S24)、この取得したアフィン変換画像が局所領域画像と同一サイズになるように縮小する(S25)。そして、局所領域画像と該局所領域画像に対応する同一サイズのアフィン変換画像との距離を算出し(S26)、この算出された距離が相似性判定のパラメータ「最小距離」に設定された値よりも小さいか否か、即ち、より相似しているかを判定する(S27)。もしも、最新の距離の算出結果が「最小距離」よりも小さい場合は、この最新のアフィン変換パラメータ及び距離の値を保持しておく(S28)。最新の距離が「最小距離」よりも小さくない場合は、取得されたアフィン変換画像が局所領域画像に似ていない場合のため、各パラメータ及び距離の値を保持しない。   When an affine transformed image is acquired based on the set parameters (S24), the acquired affine transformed image is reduced so as to have the same size as the local region image (S25). Then, the distance between the local region image and the affine transformed image of the same size corresponding to the local region image is calculated (S26), and the calculated distance is calculated based on the value set in the similarity determination parameter “minimum distance”. Is smaller or not, that is, whether or not they are more similar (S27). If the latest distance calculation result is smaller than the "minimum distance", the latest affine transformation parameters and the distance values are held (S28). If the latest distance is not smaller than the “minimum distance”, the acquired affine transformed image does not resemble the local region image, and thus does not hold the value of each parameter and distance.

そして、各パラメータを所定量だけ変化させ(S29)、各パラメータの可変範囲を超えたか否かを判定する(S30)。つまり、各パラメータを初期値から上限値まで変化させながらアフィン変換画像をそれぞれ取得し、局所領域画像との距離を算出する(S24〜S30)。従って、S28では、各パラメータの可変範囲内で得られるアフィン変換画像のうち、現在の注目画素に係る局所領域画像と最も相似するアフィン変換画像のアフィン変換パラメータ及びその距離が保持されることになる。   Then, each parameter is changed by a predetermined amount (S29), and it is determined whether or not each parameter has exceeded the variable range (S30). That is, an affine transformation image is acquired while changing each parameter from the initial value to the upper limit value, and the distance to the local region image is calculated (S24 to S30). Therefore, in S28, the affine transformation parameters of the affine transformation image most similar to the local region image related to the current pixel of interest among the affine transformation images obtained within the variable range of each parameter and the distance thereof are held. .

各パラメータを上限まで変化させた場合には、S28で保持された各パラメータに基づいて、局所領域画像に最も相似するアフィン変換画像を取得する(S31)。そして、取得したアフィン変換画像を局所領域画像と同一サイズまで縮小し(S32)、先に取得されたアフィン変換画像に加算する(S33)。加算とは、メモリ領域の所定位置にアフィン変換画像のディジタルデータを格納することである。   When each parameter is changed to the upper limit, an affine transformed image most similar to the local region image is obtained based on each parameter held in S28 (S31). Then, the acquired affine transformed image is reduced to the same size as the local region image (S32), and added to the previously acquired affine transformed image (S33). The addition means storing the digital data of the affine transformed image at a predetermined position in the memory area.

これにより、原画像から取得される全局所領域画像のうち、フラクタル相似性の度合が基準値th1より高い局所領域画像については、該局所領域画像に相似するアフィン変換画像が原画像中の所定の探索領域内から検出されて置換され、加算される。一方、フラクタル相似性の度合が基準値th1以下の局所領域画像については、アフィン変換画像の取得は行われず、元の局所領域画像がそのまま加算される。   Thus, of all the local region images acquired from the original image, for a local region image having a degree of fractal similarity higher than the reference value th1, an affine transformed image similar to the local region image is determined by a predetermined value in the original image. Detected from within the search area, replaced, and added. On the other hand, for a local region image whose fractal similarity is equal to or smaller than the reference value th1, the affine transformed image is not obtained, and the original local region image is added as it is.

このように構成される本実施の形態では、以下の効果を奏する。   The present embodiment configured as above has the following effects.

第1に、近接する画像同士が所定量ずつ重なり合うようにして局所領域画像を取得し、フラクタル相似性が所定の基準値th1よりも高い各局所領域画像については、該各局所領域画像に相似するアフィン変換画像を原画像中から検出して置換するため、低品質の画像を高品質の画像に変換可能となる。   First, a local region image is acquired such that adjacent images overlap by a predetermined amount, and each local region image having a fractal similarity higher than a predetermined reference value th1 is similar to each local region image. Since the affine-transformed image is detected and replaced from the original image, a low-quality image can be converted into a high-quality image.

第2に、エッジ強度に応じて局所領域画像のブロックサイズを設定するため、相似性判定等に要する時間を短縮することができる。即ち、エッジ強度が高いほど局所領域画像のサイズが小さくなり、画素数を減らして演算量を少なくすることができる。特に、局所領域画像同士が所定量ずつ重なり合うようにして取得する本発明では、原画像を単純に分割して相似画像と置換させる場合に比べて、多数の局所領域画像が取得されるが、エッジ強度に応じて局所領域画像のブロックサイズを可変に設定することにより、処理時間を短縮することができる。   Second, since the block size of the local area image is set according to the edge strength, the time required for similarity determination and the like can be reduced. That is, the higher the edge strength, the smaller the size of the local area image, and the number of pixels can be reduced to reduce the amount of calculation. In particular, in the present invention in which the local area images are acquired so as to overlap each other by a predetermined amount, a large number of local area images are acquired as compared with a case where the original image is simply divided and replaced with a similar image, but the edge image is acquired. The processing time can be reduced by variably setting the block size of the local region image according to the intensity.

第3に、フラクタル性の度合が所定の基準値th1よりも高い場合にのみアフィン変換画像を取得するため、全ての局所領域画像についてアフィン変換画像を取得する場合に比較して、処理時間を短縮することができる。従って、前記局所領域画像のブロックサイズを可変に設定する構成と結合して、より一層の高速処理を実現できる。   Third, since the affine transformation image is acquired only when the degree of the fractal property is higher than the predetermined reference value th1, the processing time is reduced as compared with the case where the affine transformation images are acquired for all the local region images. can do. Therefore, in combination with the configuration in which the block size of the local area image is variably set, further high-speed processing can be realized.

第4に、各画像を所定量ずつ重複せしめ、重なり合った部分を平均化等により処理するため、画像を重複させない場合に比べて、画像間のつなぎ目に違和感が生じるのを防止できる。従って、例えば、原画像が自然画像の場合等に、自然な階調変化を保ちつつ品質を高めることができる。   Fourth, since the respective images are overlapped by a predetermined amount and the overlapped portions are processed by averaging or the like, it is possible to prevent a sense of incongruity at the joint between the images as compared with a case where the images are not overlapped. Therefore, for example, when the original image is a natural image, the quality can be improved while maintaining a natural gradation change.

第5に、アフィン変換画像と局所領域画像との相似性を判断しながら、局所領域画像に最も相似するアフィン変換パラメータを保持し、探索領域の探索が終了した後で、保持したアフィン変換パラメータによりアフィン変換画像を取得するため、少ないメモリ資源で局所領域画像に相似するアフィン変換画像を得ることができる。   Fifth, while judging the similarity between the affine transformation image and the local region image, the affine transformation parameters most similar to the local region image are held, and after the search of the search region is completed, the stored affine transformation parameters are used. Since an affine transformed image is obtained, an affine transformed image similar to a local region image can be obtained with a small amount of memory resources.

次に、図8に基づき、本発明の第2の実施の形態を説明する。なお、以下の各実施の形態では、上述した構成要素と同一の構成要素に同一の符号を付し、その説明を省略するものとする。本実施の形態の特徴は、画素を間引きしてアフィン変換画像を取得することにより、局所領域画像と同一サイズのアフィン変換画像を得るようにした点にある。   Next, a second embodiment of the present invention will be described with reference to FIG. In the following embodiments, the same components as those described above are denoted by the same reference numerals, and description thereof will be omitted. The feature of the present embodiment is that an affine transformed image having the same size as the local region image is obtained by thinning out the pixels and acquiring an affine transformed image.

図8(a)に示すように、所定の探索領域内から2n×2nのサイズでアフィン変換画像を取得し、この取得したアフィン変換画像を縦横1/2に縮小することにより、n×nサイズの局所領域画像と同一サイズのアフィン変換画像を得ることができる。逆に言えば、局所領域画像のブロックサイズの2倍のサイズでアフィン変換画像を取得し、このアフィン変換画像を縦横1/2に縮小することにより、元の局所領域画像と同一サイズのアフィン変換画像を得られる。   As shown in FIG. 8A, an affine transformed image is acquired from a predetermined search area at a size of 2n × 2n, and the acquired affine transformed image is reduced in length and width by 、 to obtain an n × n size. Affine transformed image of the same size as the local region image of Conversely, an affine transformation image having a size twice as large as the block size of the local region image is obtained, and this affine transformation image is reduced in length and width by 、, so that the affine transformation image having the same size as the original local region image is obtained. Images can be obtained.

これに対し、図8(b)に示すように、2n×2nのサイズでアフィン変換画像を取得するものの、該サイズ中の全画素を取得するのではなく、1個置きに画素を間引いて取得することにより、縮小処理を行わずに局所領域画像と同一サイズのアフィン変換画像を得ることができる。   On the other hand, as shown in FIG. 8B, although the affine transformed image is acquired in the size of 2n × 2n, not all pixels in the size are acquired, but pixels are acquired every other pixel. By doing so, an affine transformed image having the same size as the local area image can be obtained without performing the reduction processing.

次に、図9〜図11に基づいて、本発明の第3の実施の形態を説明する。本実施の形態の特徴は、エッジ強度に応じて、局所領域画像のブロックサイズ及びアフィン変換画像の探索領域を設定する点にある。   Next, a third embodiment of the present invention will be described with reference to FIGS. The feature of this embodiment lies in that the block size of the local area image and the search area of the affine transformation image are set according to the edge strength.

図9に示すように、本実施の形態による画像処理装置1は、パラメータ管理テーブル16をさらに備えている。パラメータ管理テーブル16は、アフィン変換パラメータ7と共に「探索領域設定手段」として表現可能である。パラメータ管理テーブル16は、各エッジ強度毎にアフィン変換用のパラメータ群を対応付けて管理している。パラメータ管理テーブル16には、図3と共に上述した各種パラメータSx,SY,θ,Ex,Eyの上限値及び下限値が一群のものとして登録されている。即ち、各パラメータ群は、Sxmax,Sxmin,SYmax,Symin,θmax,θmin,Exmax,Exmin,Eymax,Eyminから構成されている。   As shown in FIG. 9, the image processing device 1 according to the present embodiment further includes a parameter management table 16. The parameter management table 16 can be expressed as “search area setting means” together with the affine transformation parameters 7. The parameter management table 16 manages an affine transformation parameter group in association with each edge strength. In the parameter management table 16, the upper limit value and the lower limit value of the various parameters Sx, SY, θ, Ex, and Ey described above with reference to FIG. 3 are registered as a group. That is, each parameter group includes Sxmax, Sxmin, SYmax, Symin, θmax, θmin, Exmax, Exmin, Eymax, and Eymin.

図10は、本実施の形態による処理の流れを示すフローチャートである。本画像処理では、S7,S9及びS10の次にそれぞれ新規なステップが追加されている。即ち、エッジ強度に応じて局所領域画像のブロックサイズが設定された後(S7,S9,S10)、エッジ強度に応じてアフィン変換用のパラメータがそれぞれ設定される。   FIG. 10 is a flowchart showing the flow of processing according to the present embodiment. In this image processing, new steps are added after S7, S9, and S10. That is, after the block size of the local area image is set according to the edge strength (S7, S9, S10), parameters for the affine transformation are set according to the edge strength.

従って、図11(a)に示すように、注目画素周辺の画像のエッジ強度がth1以下の場合は、初期ブロックサイズnsで局所領域画像が取得され、この取得された局所領域画像がそのまま加算される。th1<エッジ強度≦th2の場合は、ブロックサイズn1で局所領域画像が取得され、この取得された局所領域画像に相似するアフィン変換画像が比較的広い探索領域内から検出される。また、th2<エッジ強度≦th3の場合は、ブロックサイズn2で局所領域画像が取得され、中程度の探索領域内からこの局所領域画像に相似するアフィン変換画像が検出される。同様に、th3<エッジ強度の場合は、ブロックサイズn3で局所領域画像が取得され、アフィン変換画像は比較的小さい探索領域内から検出される。図11に示すように、エッジ強度が強くなるほど、取得される局所領域画像のブロックサイズ及びアフィン変換画像の探索領域が小さくなる。   Therefore, as shown in FIG. 11A, when the edge strength of the image around the pixel of interest is equal to or less than th1, a local area image is acquired with the initial block size ns, and the acquired local area image is added as it is. You. If th1 <edge strength ≦ th2, a local area image is acquired with a block size n1, and an affine transformation image similar to the acquired local area image is detected from a relatively large search area. If th2 <edge strength ≦ th3, a local area image is acquired with a block size n2, and an affine transformed image similar to this local area image is detected from a medium search area. Similarly, when th3 <edge strength, a local area image is acquired with a block size n3, and an affine transformed image is detected from a relatively small search area. As shown in FIG. 11, as the edge strength increases, the block size of the acquired local area image and the search area of the affine transformation image decrease.

本実施の形態によれば、局所領域画像のブロックサイズのみならず、アフィン変換画像の探索領域をもエッジ強度に応じて可変に設定するため、演算処理の時間を短縮することができる。   According to the present embodiment, not only the block size of the local area image but also the search area of the affine transformed image is variably set according to the edge strength, so that the time for the arithmetic processing can be reduced.

次に、図12に基づいて本発明の第4の実施の形態を説明する。本実施の形態の特徴は、原画像の特性等に基づいて、局所領域画像のブロックサイズ及びアフィン変換パラメータの値を各色成分毎に設定可能とした点にある。   Next, a fourth embodiment of the present invention will be described with reference to FIG. The feature of the present embodiment is that the block size of the local area image and the value of the affine transformation parameter can be set for each color component based on the characteristics of the original image and the like.

まず、ユーザーは、画像処理装置による画像改質を行うに際し、色にじみ防止モードかシャープモードかを排他的に選択することができる(S51)。色にじみ防止モードでは、色のにじみを抑えるべく、RGB表色系で表現された原画像のうちR成分及びB成分に本発明によるフラクタル補間を適用する。一方、シャープモードでは、画像の輪郭等を鮮明にするべく、G成分のみフラクタル補間を適用する。例えば、各1個ずつのR成分用画素及びB成分用画素と2個のG成分用画素とで一つの単位を形成しているようなディジタルカメラ等において、色にじみ防止モードは自然画像に、シャープモードは文字や線図等の画像に、それぞれ好適に用いられる。   First, when performing image modification by the image processing apparatus, the user can exclusively select the color blur prevention mode or the sharp mode (S51). In the color fringing prevention mode, the fractal interpolation according to the present invention is applied to the R component and the B component of the original image expressed in the RGB color system in order to suppress color fringing. On the other hand, in the sharp mode, fractal interpolation is applied only to the G component in order to sharpen the outline and the like of the image. For example, in a digital camera or the like in which one R component pixel and one B component pixel and two G component pixels form one unit, the color fringing prevention mode is applied to a natural image. The sharp mode is suitably used for images such as characters and diagrams.

色にじみ防止モードが選択された場合は、フラクタル補間対象となる色プレーンにRプレーン及びBプレーンをセットする(S52)。一方、シャープモードが選択された場合は、フラクタル補間対象プレーンとしてGプレーンをセットする(S53)。   If the color blur prevention mode is selected, the R plane and the B plane are set as the color planes to be subjected to fractal interpolation (S52). On the other hand, when the sharp mode is selected, the G plane is set as the fractal interpolation target plane (S53).

そして、前記同様に、注目画素の初期値をセットした後(S54)、注目画素周辺の画像のエッジ強度を算出する(S55,S56)。算出されたエッジ強度が所定の基準値th1を上回る場合は(S56:YES)、エッジ強度に応じて、局所領域画像のブロックサイズ及びアフィン変換パラメータをセットし、フラクタル補間を行う(S57,S58)。エッジ強度が基準値th1以下の場合は(S56:NO)、取得した局所領域画像をそのまま加算する(S59,S60)。原画像の全画素について処理を終了するまで上記各処理を繰り返す(S61,S62)。   Then, similarly to the above, after setting the initial value of the target pixel (S54), the edge strength of the image around the target pixel is calculated (S55, S56). If the calculated edge strength exceeds the predetermined reference value th1 (S56: YES), the fractal interpolation is performed by setting the block size of the local area image and the affine transformation parameter according to the edge strength (S57, S58). . If the edge strength is equal to or smaller than the reference value th1 (S56: NO), the obtained local region image is added as it is (S59, S60). The above processes are repeated until the process is completed for all pixels of the original image (S61, S62).

原画像の全画素についてアフィン変換画像又は局所領域画像を取得した場合は(S62:YES)、各画像を加算して平均化する(S63)。これにより、一枚のプレーンの処理が終了する。そこで、次に処理すべきプレーンがあるか否かを判定し(S64)、処理すべきプレーンが残っている場合は、該プレーンに切り替えて上述の各処理を行わせる(S65)。フラクタル補間の実行を指定された全プレーンについて処理を終了した場合は、他のプレーンと合成し、出力画像を得る(S66)。   When the affine transformation image or the local area image has been acquired for all the pixels of the original image (S62: YES), the respective images are added and averaged (S63). Thus, processing of one plane is completed. Therefore, it is determined whether there is a plane to be processed next (S64). If there is a plane to be processed, the plane is switched to the plane and the above-described processing is performed (S65). When the processing has been completed for all the planes for which the execution of the fractal interpolation has been designated, the image is synthesized with another plane to obtain an output image (S66).

即ち、色にじみ防止モードの場合は、Rプレーン及びBプレーンの画像データについて本発明によるフラクタル補間が行われ、Gプレーンと合成されて出力画像が得られる。この場合、Gプレーンについては、線形補間等の他の補間処理を行ってから合成してもよいし、補間処理を行わずに合成してもよい。同様に、シャープモードの場合は、Gプレーンの画像データについてのみ本発明によるフラクタル補間が行われ、Rプレーン及びBプレーンと合成される。   That is, in the color fringing prevention mode, the fractal interpolation according to the present invention is performed on the image data of the R plane and the B plane, and the image data is synthesized with the G plane to obtain an output image. In this case, the G plane may be combined after performing other interpolation processing such as linear interpolation, or may be combined without performing the interpolation processing. Similarly, in the case of the sharp mode, the fractal interpolation according to the present invention is performed only on the image data of the G plane, and is combined with the R plane and the B plane.

これにより、原画像の特性やユーザーの希望等に応じて、画像処理を行うことができる。   Thus, image processing can be performed according to the characteristics of the original image, the user's request, and the like.

なお、当業者であれば、前記各実施の形態に記載された本発明の要旨の範囲内で種々の追加、変更、組合せ等が可能である。例えば、前記各実施の形態では、原画像の各画素毎に局所領域画像を取得する場合を例示したが、これに限らず、例えば、1画素おき、2画素おき等のように、近接する局所領域画像が所定量ずつ重なり合う範囲内において、所定間隔で画素を選定してもよい。   It should be noted that those skilled in the art can make various additions, modifications, combinations, and the like within the scope of the present invention described in each of the above embodiments. For example, in each of the above embodiments, the case where a local region image is obtained for each pixel of the original image is exemplified. However, the present invention is not limited to this. For example, local local images are obtained every other pixel, such as every other pixel. Pixels may be selected at predetermined intervals within a range in which the area images overlap by a predetermined amount.

本発明の第1の実施の形態に係る画像処理装置のブロック図である。FIG. 1 is a block diagram of an image processing device according to a first embodiment of the present invention. 画像処理の概要を示す説明図である。FIG. 4 is an explanatory diagram illustrating an outline of image processing. アフィン変換の概要を示す説明図である。FIG. 4 is an explanatory diagram illustrating an outline of an affine transformation. 画像処理方法を示すフローチャートである。5 is a flowchart illustrating an image processing method. エッジ強度の算出方法を示す説明図である。FIG. 4 is an explanatory diagram illustrating a method for calculating edge strength. エッジ強度のレベルに応じて局所領域画像のブロックサイズが変化する様子を示す説明図である。FIG. 9 is an explanatory diagram showing a state in which the block size of a local area image changes according to the level of edge strength. 図4中に示されるフラクタル補間の具体的処理の流れを示すフローチャートである。5 is a flowchart illustrating a flow of specific processing of fractal interpolation illustrated in FIG. 4. 本発明の第2の実施の形態に係る画像処理方法の説明図である。FIG. 9 is an explanatory diagram of an image processing method according to a second embodiment of the present invention. 本発明の第3の実施の形態に係る画像処理装置のブロック図である。It is a block diagram of an image processing device concerning a 3rd embodiment of the present invention. 画像処理方法を示すフローチャートである。5 is a flowchart illustrating an image processing method. エッジ強度に応じて局所領域画像のブロックサイズ及びアフィン変換画像の探索領域サイズが変化する様子を示す説明図である。FIG. 7 is an explanatory diagram showing a state in which the block size of a local area image and the search area size of an affine transformation image change according to the edge strength. 本発明の第4の実施の形態に係る画像処理方法のフローチャートである。13 is a flowchart of an image processing method according to a fourth embodiment of the present invention.

符号の説明Explanation of reference numerals

1 画像処理装置
2 原画像保持部
3 局所領域画像取得部
4 パラメータ設定部
5 画素ポインタ
6 アフィン変換画像取得部
7 アフィン変換パラメータ設定部
8 縮小部
9 相似性算出部
10 置換部
11 加算部
12 平均化処理部
13 出力画像保持部
14 エッジ強度判定部
15 ブロックサイズ管理テーブル
16 パラメータ管理テーブル
DESCRIPTION OF SYMBOLS 1 Image processing apparatus 2 Original image holding part 3 Local area image acquisition part 4 Parameter setting part 5 Pixel pointer 6 Affine transformation image acquisition part 7 Affine transformation parameter setting part 8 Reduction part 9 Similarity calculation part 10 Substitution part 11 Addition part 12 Average Processing unit 13 output image holding unit 14 edge strength determination unit 15 block size management table 16 parameter management table

Claims (12)

原画像を保持するための原画像保持手段と、
所定の画素毎に、該画素周辺の画像の相似性の度合を判定する相似性判定手段と、
前記判定された相似性の度合に応じて、前記原画像から取得すべき画像ブロックのサイズを設定するブロックサイズ設定手段と、
前記ブロックサイズ設定手段により設定されたサイズの画像ブロックを、近接する各画像ブロックが所定量だけ重なり合うようにして、前記保持された原画像からそれぞれ取得する画像ブロック取得手段と、
前記各画像ブロックのそれぞれについて、所定の探索領域内から該各画像ブロックに相似する相似画像ブロックを検出する相似画像検出手段と、
前記検出された各相似画像ブロックを、対応する前記各画像ブロックにそれぞれ置換する画像置換手段と、
前記置換された各相似画像ブロックを重ね合わせる画像加算手段と、
前記画像加算手段により加算されたブロックの重複部分の画像を調整する画像調整手段と、
を備えたことを特徴とする画像処理装置。
An original image holding unit for holding an original image;
For each predetermined pixel, similarity determination means for determining the degree of similarity of the image around the pixel,
Block size setting means for setting the size of an image block to be obtained from the original image, according to the degree of similarity determined,
Image block acquisition means for acquiring the image blocks of the size set by the block size setting means, so that each adjacent image block overlaps by a predetermined amount, from the held original image,
For each of the image blocks, similar image detection means for detecting a similar image block similar to each image block from within a predetermined search area,
An image replacement unit that replaces each of the detected similar image blocks with a corresponding one of the image blocks,
Image adding means for superimposing the replaced similar image blocks,
Image adjustment means for adjusting the image of the overlapping portion of the block added by the image addition means,
An image processing apparatus comprising:
前記ブロックサイズ設定手段は、前記相似性の度合が高くなるほど、取得すべき画像ブロックのサイズが小さくなるように設定するものである請求項1に記載の画像処理装置。 The image processing apparatus according to claim 1, wherein the block size setting unit sets the size of the image block to be acquired as the degree of the similarity increases. 前記相似画像検出手段は、前記各画像ブロックのうち、前記相似性判定手段により相似性の度合が所定の基準値を上回ると判定された画素に係る画像ブロックについてのみ前記相似画像ブロックを検出するものであり、
前記画像加算手段は、前記画像置換手段により置換された相似画像ブロックと前記相似性の度合が前記所定の基準値以下であると判定された画素に係る画像ブロックとを重ね合わせるものである、請求項1又は請求項2のいずれかに記載の画像処理装置。
The similarity image detecting means detects the similarity image block only for an image block of a pixel for which the degree of similarity is determined to be higher than a predetermined reference value by the similarity determination means among the image blocks. And
The image adding unit is configured to overlap a similar image block replaced by the image replacing unit and an image block related to a pixel whose degree of similarity is determined to be equal to or less than the predetermined reference value. The image processing device according to claim 1 or 2.
前記相似画像検出手段は、前記相似性の度合が高くなるほど、前記探索領域を小さく設定する請求項1〜請求項3のいずれかに記載の画像処理装置。 The image processing apparatus according to claim 1, wherein the similarity image detection unit sets the search area to be smaller as the degree of the similarity increases. 前記相似性の度合として、前記画像ブロックのエッジの強度を用いる請求項1〜請求項4のいずれかに記載の画像処理装置。 The image processing apparatus according to claim 1, wherein an intensity of an edge of the image block is used as the degree of similarity. 前記画像調整手段は、前記重複部分の画像を平均化するものである請求項1〜請求項5のいずれかに記載の画像処理装置。 The image processing apparatus according to claim 1, wherein the image adjustment unit averages an image of the overlapping portion. 前記画像ブロック取得手段は、前記原画像の1画素毎に、当該画素を略中心とする所定サイズの画像ブロックを取得するものである請求項1〜請求項6のいずれかに記載の画像処理装置。 The image processing apparatus according to any one of claims 1 to 6, wherein the image block obtaining unit obtains, for each pixel of the original image, an image block of a predetermined size centered on the pixel. . 前記相似画像検出手段は、前記画像ブロックのサイズよりも大きいサイズで前記相似画像ブロックを検出し、該相似画像ブロックのサイズを前記画像ブロックのサイズと等しくなるように縮小させるものである請求項1〜請求項7のいずれかに記載の画像処理装置。 2. The similar image detecting means detects the similar image block with a size larger than the size of the image block, and reduces the size of the similar image block so as to be equal to the size of the image block. The image processing apparatus according to claim 7. 前記相似画像検出手段は、前記画像ブロックのサイズよりも大きいサイズで前記原画像中に設定される所定領域の中から、画素を間引きすることにより、前記画像ブロックと同一サイズの相似画像ブロックを検出するものである請求項1〜請求項7のいずれかに記載の画像処理装置。 The similar image detecting means detects a similar image block having the same size as the image block by thinning out pixels from a predetermined area set in the original image with a size larger than the size of the image block. The image processing apparatus according to any one of claims 1 to 7, which performs the processing. カラー原画像を保持するための原画像保持手段と、
前記原画像の各表色系成分のうち画像の明るさに関連する表色系成分とそれ以外の表色系成分とのいずれか一方を指定する指定手段と、
前記指定された表色系成分の所定の画素毎に、該画素周辺の画像の相似性の度合を判定する相似性判定手段と、
前記判定された相似性の度合に応じて、前記原画像から取得すべき画像ブロックのサイズを設定するブロックサイズ設定手段と、
前記ブロックサイズ設定手段により設定されたサイズの画像ブロックを、近接する各画像ブロックが所定量だけ重なり合うようにして、前記保持された原画像からそれぞれ取得する画像ブロック取得手段と、
前記各画像ブロックのそれぞれについて、所定の探索領域内から該各画像ブロックに相似する相似画像ブロックを検出する相似画像検出手段と、
前記検出された各相似画像ブロックを、対応する前記各画像ブロックにそれぞれ置換する画像置換手段と、
前記置換された各相似画像ブロックを重ね合わせる画像加算手段と、
前記画像加算手段により加算されたブロックの重複部分の画像を調整する画像調整手段と、
前記指定手段により指定された表色系成分以外の原画像と前記調整手段により調整された画像とを合成する合成手段と、
を備えたことを特徴とする画像処理装置。
An original image holding means for holding a color original image,
Designation means for designating one of the color system components related to the brightness of the image and the other color system components among the respective color system components of the original image,
For each predetermined pixel of the specified color system component, similarity determining means for determining the degree of similarity of the image around the pixel,
Block size setting means for setting the size of an image block to be obtained from the original image, according to the degree of similarity determined,
Image block acquisition means for acquiring the image blocks of the size set by the block size setting means, so that each adjacent image block overlaps by a predetermined amount, from the held original image,
For each of the image blocks, similar image detection means for detecting a similar image block similar to each image block from within a predetermined search area,
An image replacement unit that replaces each of the detected similar image blocks with the corresponding one of the image blocks,
Image adding means for superimposing each of the replaced similar image blocks,
Image adjustment means for adjusting the image of the overlapping portion of the block added by the image addition means,
Combining means for combining an original image other than the color system component specified by the specifying means and the image adjusted by the adjusting means,
An image processing apparatus comprising:
原画像の所定画素毎に、該画素周辺の画像が有する相似性の度合に基づいて、取得すべき画像ブロックのサイズをそれぞれ設定し、
近接する画像ブロック同士が所定量だけ重なり合うようにして、前記設定されたサイズで原画像から各画像ブロックを順次取得し、
前記原画像から前記各取得された画像ブロックに相似する相似画像ブロックをそれぞれ検出し、
前記各検出された相似画像ブロックを対応する前記各画像ブロックにそれぞれ置換せしめ、
前記置換された各相似画像ブロックを重ね合わせ、
前記加算されたブロックの重複部分の画像を調整して出力させる、
ことを特徴とする画像処理方法。
For each predetermined pixel of the original image, based on the degree of similarity of the image around the pixel, set the size of the image block to be acquired, respectively,
In such a manner that adjacent image blocks overlap by a predetermined amount, each image block is sequentially acquired from the original image at the set size,
Detecting similar image blocks similar to the respective obtained image blocks from the original image,
Each of the detected similar image blocks is replaced with a corresponding one of the image blocks,
Superimposing each of the replaced similar image blocks,
Adjusting and outputting the image of the overlapping portion of the added block,
An image processing method comprising:
コンピュータに画像処理を実行させるための画像処理プログラムを記録した記録媒体において、
保持された原画像の所定の画素毎に、該画素周辺の画像の相似性の度合を判定させる機能と、
前記判定された相似性の度合に応じて、前記原画像から取得すべき画像ブロックのサイズを設定させる機能と、
前記設定されたサイズの画像ブロックを、近接する各画像ブロックが所定量だけ重なり合うようにして、前記原画像からそれぞれ取得させる機能と、
前記各画像ブロックのそれぞれについて、所定の探索領域内から該各画像ブロックに相似する相似画像ブロックを検出する相似画像検出手段と、
前記検出された各相似画像ブロックを、対応する前記各画像ブロックにそれぞれ置換する画像置換手段と、
前記置換された各相似画像ブロックを重ね合わせる画像加算手段と、
前記画像加算手段により加算されたブロックの重複部分の画像を調整する画像調整手段と、
を備えたことを特徴とする画像処理装置。
In a recording medium recording an image processing program for causing a computer to execute image processing,
For each predetermined pixel of the held original image, a function of determining the degree of similarity of the image around the pixel,
A function of setting a size of an image block to be obtained from the original image, according to the degree of similarity determined;
A function of causing the image blocks of the set size to be obtained from the original image, such that adjacent image blocks overlap by a predetermined amount,
For each of the image blocks, similar image detection means for detecting a similar image block similar to each image block from within a predetermined search area,
An image replacement unit that replaces each of the detected similar image blocks with a corresponding one of the image blocks,
Image adding means for superimposing the replaced similar image blocks,
Image adjustment means for adjusting the image of the overlapping portion of the block added by the image addition means,
An image processing apparatus comprising:
JP2004227485A 2004-08-04 2004-08-04 Image processing apparatus and image processing method Expired - Fee Related JP4590973B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004227485A JP4590973B2 (en) 2004-08-04 2004-08-04 Image processing apparatus and image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004227485A JP4590973B2 (en) 2004-08-04 2004-08-04 Image processing apparatus and image processing method

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2000398418A Division JP3601448B2 (en) 2000-11-15 2000-12-27 Image processing apparatus and image processing method

Publications (3)

Publication Number Publication Date
JP2004355654A true JP2004355654A (en) 2004-12-16
JP2004355654A5 JP2004355654A5 (en) 2007-09-06
JP4590973B2 JP4590973B2 (en) 2010-12-01

Family

ID=34056440

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004227485A Expired - Fee Related JP4590973B2 (en) 2004-08-04 2004-08-04 Image processing apparatus and image processing method

Country Status (1)

Country Link
JP (1) JP4590973B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009020704A (en) * 2007-07-12 2009-01-29 Seiko Epson Corp Image processing apparatus, image processing method, and printing apparatus
WO2011036777A1 (en) * 2009-09-25 2011-03-31 株式会社 東芝 Image processing device

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08315129A (en) * 1995-05-15 1996-11-29 Sharp Corp Image enlargement system
JPH0918877A (en) * 1995-06-30 1997-01-17 Minolta Co Ltd Fractal image compression device
JPH11252356A (en) * 1998-03-03 1999-09-17 Dainippon Screen Mfg Co Ltd Image variable magnifying method and its apparatus
JPH11331595A (en) * 1998-05-11 1999-11-30 Oki Data Corp Resolution conversion method and device therefor
JP2000312294A (en) * 1999-02-24 2000-11-07 Oki Data Corp Image processor

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08315129A (en) * 1995-05-15 1996-11-29 Sharp Corp Image enlargement system
JPH0918877A (en) * 1995-06-30 1997-01-17 Minolta Co Ltd Fractal image compression device
JPH11252356A (en) * 1998-03-03 1999-09-17 Dainippon Screen Mfg Co Ltd Image variable magnifying method and its apparatus
JPH11331595A (en) * 1998-05-11 1999-11-30 Oki Data Corp Resolution conversion method and device therefor
JP2000312294A (en) * 1999-02-24 2000-11-07 Oki Data Corp Image processor

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009020704A (en) * 2007-07-12 2009-01-29 Seiko Epson Corp Image processing apparatus, image processing method, and printing apparatus
WO2011036777A1 (en) * 2009-09-25 2011-03-31 株式会社 東芝 Image processing device

Also Published As

Publication number Publication date
JP4590973B2 (en) 2010-12-01

Similar Documents

Publication Publication Date Title
JP3882585B2 (en) Image processing apparatus and program
JP3882651B2 (en) Image processing apparatus and program
JP3915563B2 (en) Image processing apparatus and image processing program
JP5461416B2 (en) Adaptive filtering for image transformation processing.
JP4847591B2 (en) Image processing apparatus, image processing method, and image processing program
TWI538506B (en) Image processing apparatus, information processing method and computer-readble storage medium
Wee et al. A novel fast fractal super resolution technique
US20020067864A1 (en) Image processing device and image processing method
JP3601448B2 (en) Image processing apparatus and image processing method
US8743419B2 (en) Image processing apparatus and method converting low-resolution image to high-resolution using signal value patterns
JP2006350562A (en) Image processor and image processing program
JP3491829B2 (en) Image processing apparatus and image processing method
JP4590973B2 (en) Image processing apparatus and image processing method
JP5980081B2 (en) Imaging apparatus and image processing method
JP3491830B2 (en) Image processing apparatus and image processing method
JP3573085B2 (en) Image processing apparatus and image processing method
JP6135937B2 (en) Image processing method and image processing apparatus
WO2014034242A1 (en) Image processing device, and method and program for image processing
JP2015106318A (en) Image processor and image processing method
KR101332030B1 (en) Method of magnifying image and computer readable medium storing the program thereof
WO2016035568A1 (en) Signal processing device and signal processing method, solid-state imaging element, imaging device, electronic instrument, and program
JP5085589B2 (en) Image processing apparatus and method
JP4265362B2 (en) Image processing device
JP3972625B2 (en) Image processing apparatus and image processing method
JP6891014B2 (en) Image processing device, image processing method, and program

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070720

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070720

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20070720

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20090619

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20090706

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100514

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100601

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100722

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100817

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100830

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130924

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees