JP3491830B2 - Image processing apparatus and image processing method - Google Patents

Image processing apparatus and image processing method

Info

Publication number
JP3491830B2
JP3491830B2 JP2000380490A JP2000380490A JP3491830B2 JP 3491830 B2 JP3491830 B2 JP 3491830B2 JP 2000380490 A JP2000380490 A JP 2000380490A JP 2000380490 A JP2000380490 A JP 2000380490A JP 3491830 B2 JP3491830 B2 JP 3491830B2
Authority
JP
Japan
Prior art keywords
image
similar
block
blocks
similarity
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2000380490A
Other languages
Japanese (ja)
Other versions
JP2002185770A (en
Inventor
正年 松平
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Priority to JP2000380490A priority Critical patent/JP3491830B2/en
Priority to US09/987,440 priority patent/US6898332B2/en
Publication of JP2002185770A publication Critical patent/JP2002185770A/en
Application granted granted Critical
Publication of JP3491830B2 publication Critical patent/JP3491830B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Image Processing (AREA)
  • Editing Of Facsimile Originals (AREA)
  • Color Image Communication Systems (AREA)

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【発明の属する技術分野】本発明は、例えば低品質の画
像を補間して高品質の画像に変換可能な画像処理装置及
び画像処理方法に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image processing apparatus and an image processing method capable of, for example, interpolating a low quality image and converting it into a high quality image.

【0002】[0002]

【従来の技術】例えば、低品質のデジタル画像を高品質
の画像に変換したり、低解像度の画像を高解像度に変換
したり、画像を拡大したりする場合には、オリジナルの
画素と画素との間に新たな画素を挿入する等の画像補間
が行われる。デジタル画像の補間方法としては、例え
ば、最近傍補間法(最近隣接補間法、零次ホールド法、
Nearest-Neighbor法とも呼ばれる)、線形補間法(直線
補間法、共一次補間法、Bi-Linear法とも呼ばれる)、
3次たたみ込み補間法(立体コンボリューション法、Bi
-Cubic法、Cubic Convolution法と呼ばれる)が知られ
ている。
2. Description of the Related Art For example, when converting a low-quality digital image into a high-quality image, converting a low-resolution image into a high-resolution image, or enlarging an image, the original pixel and pixel Image interpolation such as inserting a new pixel between the two is performed. As an interpolation method of a digital image, for example, a nearest neighbor interpolation method (nearest neighbor interpolation method, zero-order hold method,
Nearest-Neighbor method), linear interpolation method (linear interpolation method, bilinear interpolation method, also called Bi-Linear method),
Cubic convolutional interpolation method (three-dimensional convolution method, Bi
-Cubic method, called Cubic Convolution method) is known.

【0003】[0003]

【発明が解決しようとする課題】上述した各補間法は、
サンプリング定理に基づくsinc関数による補間を基本概
念としているため、原画像がナイキスト周波数の半分以
下の周波数成分から構成されている場合にのみ、理論的
に正しい。しかし、実際の原画像に含まれる周波数成分
は無限に大きいため、前記各補間法では、原画像中に含
まれる高周波成分を復元することができない。
The above-mentioned interpolation methods are as follows.
Since the basic concept is interpolation by the sinc function based on the sampling theorem, it is theoretically correct only when the original image is composed of frequency components equal to or lower than half the Nyquist frequency. However, since the frequency components contained in the actual original image are infinitely large, the high frequency components contained in the original image cannot be restored by each of the interpolation methods.

【0004】そこで、このようなサンプリングの過程で
失われた高周波成分を補間するための手法として、周波
数変換法が提案されている。周波数変換法としては、周
波数領域において帯域制限された周波数成分を実空間に
射影し、全実空間成分のうちの制限範囲のみを周波数空
間に射影し、全周波数成分のうちの帯域制限された部分
を既知である元周波数成分に置き換えた上で、再び実空
間に射影するという操作を無限に繰り返すゲルヒベルグ
−パポリスの反復法(GP法)がよく知られている。一
般的には、周波数変換にDCT演算を用いることで演算
上の負担を軽減している(IM−GPDCT法)。
Therefore, a frequency conversion method has been proposed as a method for interpolating the high-frequency component lost in such a sampling process. As the frequency conversion method, the frequency component whose band is limited in the frequency domain is projected to the real space, only the limited range of all the real space components is projected to the frequency space, and the band limited part of all the frequency components is projected. A well-known Gerchberg-Papolis iterative method (GP method) in which the operation of substituting a known original frequency component and projecting it again in real space is infinitely repeated. Generally, the DCT calculation is used for frequency conversion to reduce the calculation load (IM-GPDCT method).

【0005】しかし、適当な高周波成分が得られるま
で、DCT演算や逆DCT演算を繰り返す必要があるた
め、処理時間が長くなる。また、ノイズが強調された
り、リンギングが発生したりして、画質が低下するおそ
れもある。
However, since it is necessary to repeat the DCT calculation and the inverse DCT calculation until an appropriate high frequency component is obtained, the processing time becomes long. In addition, noise may be emphasized or ringing may occur, resulting in deterioration of image quality.

【0006】本発明は、上記のような課題に鑑みなされ
たもので、その目的は、高品質の画像をより高速に得る
ことができる画像処理装置及び画像処理方法を提供する
ことにある。
The present invention has been made in view of the above problems, and an object thereof is to provide an image processing apparatus and an image processing method capable of obtaining a high quality image at a higher speed.

【0007】[0007]

【課題を解決するための手段】上記目的達成のため、本
発明では、近接するブロック同士が重なり合うようにし
て各画像ブロックを取得すると共に、各画像ブロックの
フラクタル相似性の度合に応じて設定される探索領域内
から、該各画像ブロックに相似する画像を検出し、置換
する。
In order to achieve the above object, according to the present invention, each image block is acquired such that adjacent blocks overlap each other, and is set according to the degree of fractal similarity of each image block. An image similar to each of the image blocks is detected and replaced in the search area.

【0008】本発明に係る画像処理装置では、画像ブロ
ック取得手段により、原画像保持手段に保持された原画
像から所定サイズの画像ブロックを、近接する各画像ブ
ロックが所定量だけ重なり合うようにして、それぞれ取
得させる。相似性判定手段は、取得された各画像ブロッ
クについて、相似性の度合を判定する。相似画像検出手
段は、前記各画像ブロックのそれぞれについて、前記判
定された相似性の度合に基づいて探索領域を設定し、該
探索領域内から該各画像ブロックに相似する相似画像ブ
ロックを検出する。画像置換手段は、検出された各相似
画像ブロックを、対応する前記各画像ブロックにそれぞ
れ置換させる。画像加算手段が前記置換された各相似画
像ブロックを重ね合わせると、画像調整手段は、加算さ
れたブロックの重複部分の画像を調整する。
In the image processing apparatus according to the present invention, the image block acquisition means causes the image blocks of a predetermined size to be overlapped with each other by a predetermined amount from the original image held in the original image holding means. Get each. The similarity determination means determines the degree of similarity for each of the acquired image blocks. The similar image detecting means sets a search area for each of the image blocks based on the determined degree of similarity, and detects a similar image block similar to the image blocks from within the search area. The image replacement means replaces each detected similar image block with each corresponding image block. When the image adding means superimposes the replaced similar image blocks, the image adjusting means adjusts the image of the overlapping portion of the added blocks.

【0009】原画像のディジタルデータは、例えば、メ
モリ等の原画像保持手段により保持されている。画像ブ
ロック取得手段は、保持された原画像から所定サイズ
(n×m画素、n=mでもよい)の画像ブロックを取得
する。ここで、近接する画像ブロックがそれぞれ所定量
ずつ重なり合うようにして、各画像ブロックが取得され
る。例えば、原画像の一画素毎に当該画素を略中心とす
る所定サイズの画像ブロックを取得することにより、隣
接する各画像ブロックは、所定量ずつ重なり合うことに
なる。
The digital data of the original image is held by an original image holding means such as a memory. The image block acquisition means acquires an image block of a predetermined size (n × m pixels, n = m may be used) from the held original image. Here, the image blocks are acquired such that adjacent image blocks overlap each other by a predetermined amount. For example, by acquiring an image block of a predetermined size with the pixel substantially centered for each pixel of the original image, adjacent image blocks are overlapped by a predetermined amount.

【0010】相似性判定手段は、各画像ブロックについ
て相似性の度合を判定する。相似画像ブロックとしてフ
ラクタル相似画像ブロックを用いる場合は、「フラクタ
ル性の度合」と表現することもできる。相似性の度合と
しては、画像ブロックのエッジの強度を用いることがで
きる。フラクタル自己相似性の高い画像ほど、エッジ強
度が高くなる性質を有するためである。あるいは、画像
ブロックと該画像ブロックの周囲の画像(例えば、画像
ブロックの大きさを4倍した領域の画像)との距離を
「相似性の度合」として用いることもできる。
The similarity determining means determines the degree of similarity for each image block. When a fractal similar image block is used as the similar image block, it can be expressed as “degree of fractalness”. As the degree of similarity, the edge strength of the image block can be used. This is because an image having a higher fractal self-similarity has a property of higher edge strength. Alternatively, the distance between an image block and an image around the image block (for example, an image of a region obtained by multiplying the size of the image block by four) can be used as the “degree of similarity”.

【0011】相似画像検出手段は、相似性の度合に応じ
て、各画像ブロック毎に探索領域を設定する。相似画像
検出手段は、この探索領域内から画像ブロックに相似す
る相似画像ブロックを検出する。相似画像検出手段は、
相似性の度合が高くなるほど探索領域が小さくなるよう
に設定することができる。なお、探索領域は、最大でも
原画像よりも小さく設定するのが好ましい。
The similar image detecting means sets a search area for each image block according to the degree of similarity. The similar image detecting means detects a similar image block similar to the image block from within the search area. The similar image detection means is
The search area can be set smaller as the degree of similarity becomes higher. The search area is preferably set to be smaller than the original image even at the maximum.

【0012】画像のある一部は、周囲のより大きな画像
の縮小形となっている性質、即ち、フラクタル相似性を
利用して、原画像の中から画像ブロックに相似する相似
画像ブロックを探索領域内でそれぞれ検出することがで
きる。相似性の度合が高いほど、画像ブロックに相似す
る画像は、該画像ブロックの周辺に存在する可能性が高
い。相似性の度合に応じて探索領域を可変に設定するこ
とにより、相似画像ブロックを検出する時間を短縮する
ことができる。
A part of the image is a reduced image of a larger image in the surroundings, that is, the fractal similarity is used to search for a similar image block similar to the image block in the original image. Each can be detected in. The higher the degree of similarity is, the more likely an image that is similar to an image block is around the image block. By variably setting the search area according to the degree of similarity, it is possible to shorten the time required to detect the similar image block.

【0013】ここで、相似性の度合が所定の基準値を上
回る各画像ブロックについてのみ相似画像ブロックをそ
れぞれ検出し、前記基準値以下の各画像ブロックについ
ては、相似画像ブロックの検出は行わないようにするこ
とができる。
Here, the similar image block is detected only for each image block whose degree of similarity exceeds a predetermined reference value, and the similar image block is not detected for each image block below the reference value. Can be

【0014】検出された各相似画像ブロックは、画像置
換手段によって、それぞれ対応する画像ブロックに置き
換えられる。置換された各相似画像ブロックは、所定量
ずつ重なり合って加算される。近接する各画像ブロック
は互いに所定量ずつ重なり合うようにして取得されてい
るので、加算される各ブロックも近接するブロック同士
が所定量ずつ重なり合う。そこで、画像調整手段は、ブ
ロックの重なり合った部分の値を調整する。例えば、重
なり合った画素の値を加算して平均化することにより画
像を調整することができる。これに限らず、例えば、重
み付けをして平均をとってもよい。
Each of the detected similar image blocks is replaced by the corresponding image block by the image replacing means. The replaced similar image blocks are overlapped by a predetermined amount and added. Since the adjacent image blocks are acquired such that they overlap each other by a predetermined amount, the blocks to be added also overlap each other by a predetermined amount. Therefore, the image adjusting means adjusts the value of the overlapping portion of the blocks. For example, the image can be adjusted by adding the values of overlapping pixels and averaging them. Not limited to this, for example, weighting may be performed and an average may be taken.

【0015】相似性の度合が所定の基準値以下の各画像
ブロックは、そのまま使用することができる。この場
合、大別するなら、相似画像ブロック同士が重なり合う
箇所、相似画像ブロックと画像ブロックとが重なり合う
箇所、画像ブロック同士が重なり合う箇所の3種類の重
なりが生じうる。
Each image block whose degree of similarity is equal to or less than a predetermined reference value can be used as it is. In this case, if roughly classified, three types of overlap may occur: a place where similar image blocks overlap with each other, a place where similar image blocks overlap with each other, and a place where image blocks overlap with each other.

【0016】相似画像検出手段は、画像ブロックのサイ
ズよりも大きいサイズで相似画像ブロックを検出し、該
相似画像ブロックのサイズを前記画像ブロックのサイズ
と等しくなるように縮小させるものであってもよい。
The similar image detecting means may detect the similar image block with a size larger than the size of the image block and reduce the size of the similar image block to be equal to the size of the image block. .

【0017】例えば、画像ブロックのサイズをn×m、
相似画像ブロックのサイズを(k・n)×(k・m)と
すれば、相似画像ブロックをk分の一に縮小することに
より、画像ブロックと相似画像ブロックのサイズを一致
させることができる。
For example, if the size of the image block is n × m,
If the size of the similar image block is (k · n) × (k · m), the size of the similar image block can be reduced to 1 / k so that the sizes of the image block and the similar image block can be matched.

【0018】または、相似画像検出手段は、画像ブロッ
クのサイズよりも大きいサイズで原画像中に設定される
所定領域の中から、画素を間引きすることにより、前記
画像ブロックと同一サイズの相似画像ブロックを検出す
るものであってもよい。
Alternatively, the similar image detecting means thins out pixels from a predetermined area set in the original image with a size larger than the size of the image block, so that the similar image block having the same size as the image block. May be detected.

【0019】前記の例で言えば、(k・n)×(k・
m)の画素を有する相似画像ブロックから1/k2の画
素を抽出し、残りの画素を捨てることにより、n×m個
の画素を有する画像ブロックと同一サイズの相似画像ブ
ロックを得ることができる。
In the above example, (k · n) × (k · n
By extracting 1 / k2 pixels from the similar image block having m) pixels and discarding the remaining pixels, a similar image block having the same size as the image block having n × m pixels can be obtained.

【0020】相似画像検出手段は、予め設定された所定
の条件下で、原画像の中から各画像ブロックに相似する
相似画像ブロックをそれぞれ検出することができる。
The similar image detecting means can detect similar image blocks similar to each image block in the original image under predetermined conditions.

【0021】所定の条件としては、相似画像ブロックを
検出するための探索領域の設定条件を挙げることができ
る。そして、相似画像検出手段は、原画像よりも小さく
設定される探索領域内で、該画像ブロックに相似する相
似画像ブロックを検出するように構成してもよい。
The predetermined condition may be a search region setting condition for detecting a similar image block. Then, the similar image detecting means may be configured to detect a similar image block similar to the image block in the search area set smaller than the original image.

【0022】相似画像検出手段は、画像操作のパラメー
タを変えながら各候補画像ブロックの相似性を判定し、
最も画像ブロックに相似する候補画像ブロックの取得に
用いたパラメータのみを保持して、該保持されたパラメ
ータにより相似画像ブロックを検出するようにしてもよ
い。
The similar image detecting means determines the similarity of each candidate image block while changing the image operation parameter,
You may make it hold | maintain only the parameter used for acquisition of the candidate image block which is most similar to an image block, and detect a similar image block by this held parameter.

【0023】「画像操作」としては、例えば、画像の平
行移動、拡大、縮小、回転を行うアフィン変換を挙げる
ことができる。「画像操作のパラメータ」とは、例え
ば、並行移動の量、拡大率、縮小率、回転角度を挙げる
ことができる。相似画像検出手段は、所定の探索領域内
で、画像操作のパラメータを変化させながら、複数の候
補画像ブロックを取得する。そして、これら複数の候補
画像ブロックの中から最も画像ブロックに相似するもの
を相似画像ブロックとして検出する。
The "image manipulation" may include, for example, affine transformation for performing parallel movement, enlargement, reduction, and rotation of an image. The “parameter of image operation” can include, for example, the amount of parallel movement, the enlargement ratio, the reduction ratio, and the rotation angle. The similar image detecting unit acquires a plurality of candidate image blocks in a predetermined search area while changing the image operation parameter. Then, among the plurality of candidate image blocks, the one most similar to the image block is detected as a similar image block.

【0024】各候補画像ブロックをそれぞれ保持してお
く場合は、各候補画像ブロックを記憶させるためのメモ
リ領域が大きくなるが、最小距離の候補画像ブロックを
得るのに必要なパラメータのみを保持することにより、
少ないメモリ領域で相似画像ブロックを検出することが
できる。
When each candidate image block is held, the memory area for storing each candidate image block becomes large, but only the parameters necessary to obtain the candidate image block with the minimum distance should be held. Due to
Similar image blocks can be detected with a small memory area.

【0025】原画像がカラー画像の場合は、原画像の各
表色系成分のうち画像の明るさに関連する表色系成分と
それ以外の表色系成分とのいずれか一方を指定させるこ
とにより、この指定された表色系成分についてのみ本発
明に係る画像処理を適用してもよい。即ち、指定された
表色系成分についてのみ、各画像ブロックを相似画像ブ
ロック置換して重複部分を調整することができる。
When the original image is a color image, one of the color system components relating to the brightness of the image and the other color system components among the color system components of the original image should be designated. Therefore, the image processing according to the present invention may be applied only to the designated color system component. That is, it is possible to replace the image blocks with similar image blocks only for the designated color system component to adjust the overlapping portion.

【0026】例えば、RGB表色系を例に挙げると、R
(赤)、G(緑)、B(青)の各色成分のうち、G成分
は画像の明るさに最も大きく関与し、R成分及びB成分
は色味に関与する。また、例えば、YUV表色系、YI
Q表色系、YCbCr表色系及びLab表色系では、Y
成分又はL成分が画像の明るさに最も関与する成分であ
り、その他の成分(U,V,I,Q等)は、色味に関与
する。そこで、例えば、画像処理装置が適用される製品
の種類(ディジタルカメラ、プリンタ、スキャナ等々)
や原画像の特性(自然画像か否か)、ユーザーの好み等
に応じて、明るさに関連する表色系成分とそれ以外の表
色系成分とのいずれに、本画像処理を適用するかを選択
可能とする。
For example, taking the RGB color system as an example, R
Among the color components of (red), G (green), and B (blue), the G component has the largest contribution to the brightness of the image, and the R component and the B component contribute to the tint. Also, for example, YUV color system, YI
In the Q color system, the YCbCr color system and the Lab color system, Y
The component or the L component is the component most related to the brightness of the image, and the other components (U, V, I, Q, etc.) are related to the tint. Therefore, for example, the type of product to which the image processing apparatus is applied (digital camera, printer, scanner, etc.)
Whether this image processing is applied to the color system components related to brightness or other color system components according to the characteristics of the original image (whether it is a natural image or not), user preference, etc. Can be selected.

【0027】本発明は、コンピュータプログラムを記録
した記録媒体として把握することもできる。プログラム
は、例えば、ハードディスクやフロッピー(登録商標)
ディスク、メモリ等の種々の有形的な記録媒体に固定す
ることができる。また、これに限らず、例えば、ネット
ワーク上のサーバから所定のプログラムをダウンロード
する等のように、通信媒体を用いることもできる。
The present invention can also be understood as a recording medium recording a computer program. The program is, for example, a hard disk or floppy (registered trademark)
It can be fixed to various tangible recording media such as disks and memories. Further, the communication medium can be used, not limited to this, such as downloading a predetermined program from a server on the network.

【0028】[0028]

【発明の実施の形態】以下、図1〜図9に基づき、本発
明の実施の形態を説明する。
BEST MODE FOR CARRYING OUT THE INVENTION Embodiments of the present invention will be described below with reference to FIGS.

【0029】1.第1の実施の形態 図1〜図7は本発明の第1の実施の形態に係る画像処理
装置の構成を示すブロック図である。
1. First Embodiment FIGS. 1 to 7 are block diagrams showing the configuration of an image processing apparatus according to a first embodiment of the present invention.

【0030】本画像処理装置1は、原画像保持部2から
入力される原画像に所定の画像処理を加えて、出力画像
保持部13に処理済みの画像を出力するものである。原
画像保持部2及び出力画像保持部13は、メモリ等から
構成される。原画像保持部2及び出力画像保持部13
は、画像処理装置1の構成として取り込んでも良いし、
画像処理装置1とはそれぞれ別体の構成としてもよい。
例えば、原画像が記録されたPCカードから原画像デー
タを読み出し、処理済みの画像を当該PCカードの空き
領域に書き戻す場合は、PCカードが原画像保持部2及
び出力画像保持部13となる。
The image processing apparatus 1 is for applying a predetermined image processing to the original image input from the original image holding unit 2 and outputting the processed image to the output image holding unit 13. The original image holding unit 2 and the output image holding unit 13 are composed of a memory and the like. Original image holding unit 2 and output image holding unit 13
May be incorporated as a configuration of the image processing apparatus 1,
The image processing device 1 may be configured separately.
For example, when the original image data is read from the PC card on which the original image is recorded and the processed image is written back to the empty area of the PC card, the PC card serves as the original image holding unit 2 and the output image holding unit 13. .

【0031】「画像ブロック取得手段」としての局所領
域画像取得部3は、原画像の各画素毎に所定サイズの局
所領域画像をそれぞれ取得するものである。局所領域画
像が「画像ブロック」に該当する。図2と共に後述する
ように、各画素毎にそれぞれ局所領域画像を取得するた
め、近接する各局所領域画像は所定量ずつ重なり合うこ
とになる。局所領域画像取得部3は、パラメータ設定部
4から設定される局所領域画像取得用のパラメータに基
づいて、局所領域画像を取得する。このパラメータとし
ては、例えば、局所領域画像のサイズ等を挙げることが
できる。注目画素ポインタ5は、現在処理中の画素(注
目画素)の位置を検出する。
The local area image acquisition unit 3 as "image block acquisition means" acquires a local area image of a predetermined size for each pixel of the original image. The local area image corresponds to the “image block”. As will be described later with reference to FIG. 2, since local area images are acquired for each pixel, adjacent local area images are overlapped by a predetermined amount. The local area image acquisition unit 3 acquires a local area image based on the local area image acquisition parameters set by the parameter setting unit 4. Examples of this parameter include the size of the local area image. The pixel-of-interest pointer 5 detects the position of the pixel currently being processed (pixel of interest).

【0032】アフィン変換画像取得部6は、エッジ強度
判定部14からの判定結果に基づいて、各局所領域画像
のエッジ強度に応じた探索領域内から該各局所領域画像
に相似する画像を、原画像中から検出して取得するもの
である。アフィン変換画像取得部6は、アフィン変換パ
ラメータ設定部7で設定されたアフィン変換用パラメー
タに基づいて、局所領域画像の周辺に存在する画像を操
作し、局所領域画像に相似するアフィン変換画像を検出
するようになっている。局所領域画像に相似するアフィ
ン変換画像が「相似画像ブロック」に該当する。
The affine-transformed image acquisition unit 6 determines, based on the determination result from the edge intensity determination unit 14, an image similar to each local region image from within the search region corresponding to the edge intensity of each local region image. It is detected and acquired from the image. The affine transformation image acquisition unit 6 operates an image existing around the local region image based on the affine transformation parameter set by the affine transformation parameter setting unit 7, and detects an affine transformation image similar to the local region image. It is supposed to do. The affine-transformed image similar to the local area image corresponds to the “similar image block”.

【0033】パラメータ管理テーブル15は、「相似性
の度合」の一例としてのエッジ強度とアフィン変換パラ
メータとを対応付けて管理するものである。パラメータ
管理テーブル15には、例えば、「低」、「中」及び
「高」の各エッジ強度の段階毎に、アフィン変換パラメ
ータ群がそれぞれ対応付けられている。アフィン変換パ
ラメータ設定部7は、エッジ強度判定部14から入力さ
れたエッジ強度に基づいて、パラメータ管理テーブル1
5から所定のアフィン変換パラメータ群を取得し、この
取得したアフィン変換パラメータ群をアフィン変換画像
取得部6に設定するものである。これにより、アフィン
変換画像取得部6は、各局所領域画像のエッジ強度に応
じた探索領域内で、該各局所領域画像に最も相似するア
フィン変換画像を取得する。また、局所領域画像のエッ
ジ強度が所定の基準値以下である場合は、アフィン変換
画像取得部6は、該局所領域画像についてアフィン変換
画像を取得しない。
The parameter management table 15 manages the edge strength and the affine transformation parameter as an example of the “degree of similarity” in association with each other. In the parameter management table 15, for example, affine transformation parameter groups are associated with the respective edge strength levels of “low”, “medium”, and “high”. The affine transformation parameter setting unit 7 determines the parameter management table 1 based on the edge strength input from the edge strength determination unit 14.
5, a predetermined affine transformation parameter group is acquired, and the obtained affine transformation parameter group is set in the affine transformation image acquisition unit 6. As a result, the affine-transformed image acquisition unit 6 acquires the affine-transformed image that most resembles each local area image in the search area corresponding to the edge strength of each local area image. When the edge intensity of the local area image is equal to or less than the predetermined reference value, the affine transformed image acquisition unit 6 does not acquire the affine transformed image for the local area image.

【0034】アフィン変換画像取得部6は、局所領域画
像よりも大きいサイズ、例えば縦横2倍のサイズのアフ
ィン変換画像を取得する。この取得されたアフィン変換
画像は、縮小部8により局所領域画像と同サイズになる
ように縮小される。相似性算出部9は、局所領域画像取
得部3が取得した局所領域画像とアフィン変換画像取得
部6により取得され縮小部8により縮小されたアフィン
変換画像との距離を算出し、両者の相似性、類似度を算
出するものである。距離計算は、固有ベクトル距離を計
算してもよいし、簡易的に二乗平均を取ってもよい。こ
こで、アフィン変換画像取得部6,縮小部8及び相似性
算出部9が「相似画像検出手段」に該当する。
The affine-transformed image acquisition unit 6 acquires an affine-transformed image having a size larger than that of the local area image, for example, twice the size in the vertical and horizontal directions. The acquired affine-transformed image is reduced by the reducing unit 8 to have the same size as the local area image. The similarity calculation unit 9 calculates the distance between the local area image acquired by the local area image acquisition unit 3 and the affine-transformed image acquired by the affine-transformed image acquisition unit 6 and reduced by the reduction unit 8, and the similarity between the two is calculated. , The degree of similarity is calculated. In the distance calculation, the eigenvector distance may be calculated or the root mean square may be simply calculated. Here, the affine-transformed image acquisition unit 6, the reduction unit 8, and the similarity calculation unit 9 correspond to “similar image detection means”.

【0035】そして、相似性算出部9によって最も相似
すると判定されたアフィン変換画像は、「画像置換手
段」としての置換部10によって、対応する局所領域画
像と置き換えられる。
Then, the affine-transformed image determined to be most similar by the similarity calculation unit 9 is replaced by the corresponding local area image by the replacement unit 10 as "image replacement means".

【0036】「画像加算手段」としての加算部11は、
置換されたアフィン変換画像と置換されなかった局所領
域画像とを加算する。即ち、原画像から取得された全局
所領域画像は、自己に相似するアフィン変換画像に置換
されて加算されるか、又は、元の局所領域画像のままで
加算される。近接する局所領域画像同士が重なり合うよ
うにして局所領域画像が取得されるため、置換されたア
フィン変換画像及び元の局所領域画像は、近接する画像
同士が所定量ずつ重なり合うようにして、加算部11に
より加算される。「画像調整手段」としての平均化処理
部12は、各画像が重なり合った部分の値を平均化する
ことにより調整する。重なり合った部分の画像調整方法
としては、単純平均をとってもよいし、または、重み付
けして平均をとってもよい。このようにして調整された
画像は、出力画像保持部13に保持される。なお、画像
調整後に、拡大処理、縮小処理、回転処理、色変換処理
等を行っても良い。
The adding section 11 as "image adding means"
The replaced affine transformation image and the non-replaced local area image are added. That is, the entire local region image acquired from the original image is replaced with an affine-transformed image similar to self and added, or the original local region image is added as it is. Since the local area images are acquired such that the adjacent local area images overlap with each other, the replaced affine-transformed image and the original local area image are arranged such that the adjacent images overlap each other by a predetermined amount, and the addition unit 11 Is added by. The averaging processing unit 12 as "image adjusting means" adjusts by averaging the values of the portions where the images overlap. As an image adjusting method for overlapping portions, a simple average may be taken, or weighted average may be taken. The image adjusted in this way is held in the output image holding unit 13. Note that enlargement processing, reduction processing, rotation processing, color conversion processing, etc. may be performed after image adjustment.

【0037】「相似性判定手段」としてのエッジ強度判
定部14は、取得された各局所領域画像のフラクタル性
の度合を判定するものである。フラクタル性の度合が所
定の基準値を上回ると判定された局所領域画像について
は、アフィン変換画像取得部6により、該局所領域画像
の有するエッジ強度に応じたアフィン変換パラメータを
用いてアフィン変換画像が検出される。フラクタル性の
度合が所定の基準値以下である局所領域画像は、そのま
まアフィン変換画像と加算される。即ち、原画像から取
得される全ての局所領域画像についてアフィン変換画像
を取得するのではなく、フラクタル性の度合の高い局所
領域画像についてのみアフィン変換画像が取得される。
「フラクタル性の度合」としては、エッジ強度を用いる
ことができる。これについては、図5と共に後述する。
The edge strength determination unit 14 as "similarity determination means" determines the degree of fractal property of each acquired local area image. For the local area image determined to have a fractal degree exceeding a predetermined reference value, the affine transformation image is acquired by the affine transformation image acquisition unit 6 using the affine transformation parameter corresponding to the edge strength of the local area image. To be detected. The local area image whose degree of fractalness is less than or equal to a predetermined reference value is directly added to the affine-transformed image. That is, the affine-transformed images are not acquired for all the local-region images acquired from the original image, but the affine-transformed images are acquired only for the local-region images having a high degree of fractal property.
Edge strength can be used as the “degree of fractal property”. This will be described later with reference to FIG.

【0038】図2は、画像処理装置による画像処理方法
の大略を示す説明図である。図2(a)に示すように、
原画像の各画素毎に局所領域画像が設定され、各局所領
域画像のうちエッジ強度の高い各局所領域画像毎にアフ
ィン変換画像がそれぞれ取得される。
FIG. 2 is an explanatory view showing the outline of the image processing method by the image processing apparatus. As shown in FIG. 2 (a),
A local area image is set for each pixel of the original image, and an affine-transformed image is acquired for each local area image having a high edge strength in each local area image.

【0039】現在の処理に係る注目画像を略中心とし
て、例えば、n×nサイズの局所領域画像が取得され
る。図中では、n=4の場合を例示している。アフィン
変換画像は、局所領域画像サイズよりも大きくなるよう
に、具体的には例えば縦横2倍の大きさで取得される
(2n×2n)。実施の形態では、特に明示しない限
り、局所領域画像及びアフィン変換画像を正方形として
説明するが、本発明はこれに限定されない。各画像は長
方形、平行四辺形等の他の多角形に設定することも可能
である。また、局所領域画像のエッジ強度に応じて、ア
フィン変換画像を検出する探索領域も変化する点に注意
すべきである。
A local area image of, for example, n × n size is obtained with the image of interest in the current process as the center. In the figure, the case of n = 4 is illustrated. The affine-transformed image is acquired to have a size larger than the local area image size, specifically, twice the size in the vertical and horizontal directions (2n × 2n). In the embodiments, unless otherwise specified, the local area image and the affine transformation image are described as squares, but the present invention is not limited to this. Each image can be set to another polygon such as a rectangle or a parallelogram. It should be noted that the search area for detecting an affine transformed image also changes depending on the edge strength of the local area image.

【0040】ここで、局所領域画像に相似するアフィン
変換画像は、原画像の全体から探索することも可能であ
る。しかし、探索領域を広げるほど処理時間が長くな
る。また、画像ブロック(局所領域画像)のサイズや原
画像の特性等にもよるが、相似画像ブロック(アフィン
変換画像)は画像ブロックの周辺で発見される可能性が
高い場合がある。特に、本発明は、原画像全体を互いに
重複しない複数の画像ブロックに分割して、各画像ブロ
ックに相似する画像ブロックを求めるものではなく、隣
接する各画像ブロックの一部が重複するように設定する
ため、画像ブロック数が多くなり、相似画像ブロックを
検出する回数が増大する。従って、相似画像ブロックの
探索領域(探索範囲)を原画像全体に広げると、処理時
間がより長くなる可能性がある。
Here, the affine-transformed image similar to the local area image can be searched from the entire original image. However, the wider the search area, the longer the processing time. Further, depending on the size of the image block (local area image), the characteristics of the original image, and the like, the similar image block (affine-transformed image) is likely to be found around the image block. In particular, the present invention does not divide the entire original image into a plurality of image blocks that do not overlap each other, and obtains an image block similar to each image block, but sets such that a part of each adjacent image block overlaps. Therefore, the number of image blocks increases, and the number of times that similar image blocks are detected increases. Therefore, if the search area (search range) of the similar image block is expanded to the entire original image, the processing time may be longer.

【0041】そこで、本実施の形態では、原画像の全体
を探索するのではなく、原画像の一部、さらには、エッ
ジ強度に応じた探索領域内で、相似画像ブロックを探索
するようにしている。探索領域のサイズは、原画像の性
質等に応じて動的に変更することができる。画像ブロッ
クのサイズをn×m、原画像のサイズをXmax,Ymax、
探索領域のサイズをαn×βmとした場合、下記の関係
が成立する。
Therefore, in the present embodiment, instead of searching the entire original image, a similar image block is searched for in a part of the original image, and further in a search area corresponding to the edge strength. There is. The size of the search area can be dynamically changed according to the nature of the original image and the like. The image block size is n × m, the original image size is Xmax, Ymax,
When the size of the search area is αn × βm, the following relationship holds.

【0042】1<α<Xmax/n・・・(数式1) 1<β<Ymax/m・・・(数式2) 探索領域のサイズを決定する係数α,βの値は、上記数
式1,2を満たす範囲で任意に設定することができる。
但し、本発明はこれに限らず、原画像全体を探索しても
よい。
1 <α <Xmax / n (Equation 1) 1 <β <Ymax / m (Equation 2) The values of the coefficients α and β for determining the size of the search area are the same as those in Equation 1 above. It can be arbitrarily set within the range of 2.
However, the present invention is not limited to this, and the entire original image may be searched.

【0043】図2(b)に示すように、局所領域画像よ
りも縦横2倍サイズで取得されたアフィン変換画像
(「候補画像ブロック」)は、局所領域画像と同一サイ
ズになるように縮小される。そして、縮小されたアフィ
ン変換画像と局所領域画像との距離が算出され、相似
性、類似度が判定される。ある局所領域画像について複
数個取得されたアフィン変換画像の中から最も相似性の
高いアフィン変換画像が、当該局所領域画像と置換され
る。
As shown in FIG. 2B, an affine-transformed image (“candidate image block”) acquired in a size twice as large as the local region image is reduced to have the same size as the local region image. It Then, the distance between the reduced affine-transformed image and the local region image is calculated, and the similarity and similarity are determined. The affine-transformed image having the highest similarity among the affine-transformed images acquired for a certain local-region image is replaced with the local-region image.

【0044】図2(c)に示すように、近接する画像同
士が互いに重複するようにして局所領域画像が取得され
ているため、該各局所領域画像に置換されるアフィン変
換画像もそれぞれ隣接する画像同士が重複する。図中に
示すように、4画素×4画素の局所領域画像を一画素ず
つずらして取得する場合、x方向だけに着目すると、最
大4枚の画像が重複することになる。y方向でも同様に
最大で4枚の局所領域画像が重複する。そこで、重複し
た部分は、各画素の値の単純平均を取ることで調整す
る。
As shown in FIG. 2C, since the local area images are acquired so that the adjacent images overlap each other, the affine-transformed images replaced by the local area images are also adjacent to each other. The images overlap. As shown in the figure, when a local area image of 4 pixels × 4 pixels is obtained by shifting each pixel by one pixel, if attention is paid only to the x direction, a maximum of 4 images will overlap. Similarly, in the y direction, a maximum of four local region images overlap. Therefore, the overlapping portion is adjusted by taking the simple average of the values of each pixel.

【0045】なお、本実施の形態では、全局所領域画像
についてアフィン変換画像を取得するのではなく、エッ
ジ強度(フラクタル性)が所定の基準値を上回る局所領
域画像についてのみアフィン変換画像を取得している。
従って、図2(c)に示す4枚の画像が全てアフィン変
換画像であるとは限らない。アフィン変換画像同士、元
の局所領域画像同士、アフィン変換画像と局所領域画像
とが重なり合う場合がある。
In the present embodiment, the affine-transformed images are not acquired for all the local-region images, but the affine-transformed images are acquired only for the local-region images whose edge strength (fractalness) exceeds a predetermined reference value. ing.
Therefore, not all the four images shown in FIG. 2C are affine-transformed images. The affine transformed images may overlap each other, the original local region images may overlap each other, and the affine transformed image and the local region image may overlap each other.

【0046】図3は、アフィン変換画像を取得する際の
画像操作方法及びパラメータを示す説明図である。図3
(a)に示すように、画像をSx,Syだけ平行移動さ
せることができる。また、図3(b)に示すように、画
像を角度θだけ回転させることもできる。さらに、図3
(c),(d)に示すように、画像をx方向にEx倍拡
大又は縮小したり、y方向にEy倍拡大又は縮小するこ
ともできる。
FIG. 3 is an explanatory diagram showing an image operation method and parameters when acquiring an affine-transformed image. Figure 3
As shown in (a), the image can be translated by Sx and Sy. Further, as shown in FIG. 3B, the image can be rotated by the angle θ. Furthermore, FIG.
As shown in (c) and (d), the image can be enlarged or reduced by Ex times in the x direction or Ey times or reduced in the y direction.

【0047】パラメータ管理テーブル15には、これら
の各種パラメータSx,SY,θ,Ex,Eyの上限値
及び下限値が一群のものとして登録されている。即ち、
各パラメータ群は、Sxmax,Sxmin,SYmax,Sym
in,θmax,θmin,Exmax,Exmin,Eymax,Eym
inから構成されている。アフィン変換画像取得部6は、
各パラメータを下限値minから上限値maxまで変化させる
ことによりアフィン変換画像を取得する。
In the parameter management table 15, upper limit values and lower limit values of these various parameters Sx, SY, θ, Ex, Ey are registered as a group. That is,
Each parameter group consists of Sxmax, Sxmin, SYmax, Sym
in, θmax, θmin, Exmax, Exmin, Eymax, Eym
Composed of in. The affine-transformed image acquisition unit 6
An affine transformed image is acquired by changing each parameter from the lower limit value min to the upper limit value max.

【0048】次に、図4〜図6に基づいて本実施の形態
の作用を説明する。以下、ステップを「S」と略記す
る。
Next, the operation of the present embodiment will be described with reference to FIGS. Hereinafter, the step is abbreviated as “S”.

【0049】まず、図4は、画像処理の全体の流れを示
すフローチャートである。S1では、注目画素の座標
(x,y)に(0,0)をセットし、原画像の最初の画
素から変換を開始させる。次に、注目画素を中心とする
局所領域画像のエッジ強度を計算する(S2)。図5に
示すように、注目画素Px5を中心とする3画素×3画
素の領域を例に挙げると、注目画素の上下に位置する列
のレベル差(|Px1+Px2+Px3|−|Px7+
Px8+Px9|)と、注目画素の左右に位置する列の
レベル差(|Px1+Px4+Px7|−|Px3+P
x6+Px9|)とを検出し、これによりエッジ強度を
算出する(S2)。即ち、注目画素周辺のエッジ強度を
もってフラクタル性の度合の強さを判定している。
First, FIG. 4 is a flowchart showing the overall flow of image processing. In S1, (0, 0) is set to the coordinates (x, y) of the pixel of interest, and conversion is started from the first pixel of the original image. Next, the edge strength of the local area image centered on the pixel of interest is calculated (S2). As shown in FIG. 5, taking a region of 3 pixels × 3 pixels centering on the target pixel Px5 as an example, the level difference (| Px1 + Px2 + Px3 | − | Px7 +) between the columns located above and below the target pixel is taken into consideration.
Px8 + Px9 |) and the level difference (| Px1 + Px4 + Px7 | − | Px3 + P) between the columns located to the left and right of the pixel of interest.
x6 + Px9 |) is detected, and thereby the edge strength is calculated (S2). That is, the strength of the fractal property is determined by the edge strength around the pixel of interest.

【0050】なお、エッジ強度判定のための領域と局所
領域画像のサイズとは必ずしも一致させる必要はない。
例えば、注目画素を中心として4画素×4画素の局所領
域画像を取得する場合、注目画素を中心とする3画素×
3画素の領域でエッジ強度を判定することもできるし、
5画素×5画素以上の領域でエッジ強度を判定すること
も可能である。本実施の形態では、エッジ強度判定領域
と局所領域画像のサイズとを一致させるものとして述べ
る。
The area for edge strength judgment and the size of the local area image do not necessarily have to match.
For example, when acquiring a local area image of 4 pixels × 4 pixels centered on the target pixel, 3 pixels centered on the target pixel ×
It is possible to judge the edge strength in the area of 3 pixels,
It is also possible to determine the edge strength in a region of 5 pixels × 5 pixels or more. In the present embodiment, the edge strength determination area and the size of the local area image are made to match.

【0051】次に、算出されたエッジ強度がいずれの段
階に相当するかランク分けを行う(S3,S6,S
8)。即ち、エッジ強度が「所定の基準値」としてのレ
ベルth1以下であるか否か(S3)、エッジ強度がレ
ベルth1を上回るが次のレベルth2以下であるか否
か(S6)、エッジ強度がレベルth2を上回るが最高
レベルth3以下であるか否か(S8)をそれぞれ判定
する。
Next, ranks are assigned to which stage the calculated edge strength corresponds (S3, S6, S).
8). That is, whether the edge strength is below the level th1 as a "predetermined reference value" (S3), whether the edge strength is above the level th1 but below the next level th2 (S6), the edge strength is It is determined whether or not the value is higher than the level th2 but equal to or lower than the highest level th3 (S8).

【0052】そして、図6に示すように、検出されたエ
ッジ強度の強さに応じて、アフィン変換画像を取得する
か否か及びアフィン変換画像を取得する際の探索領域の
範囲が定まる。
Then, as shown in FIG. 6, whether or not the affine-transformed image is to be acquired and the range of the search area when the affine-transformed image is acquired are determined according to the detected edge strength.

【0053】(1)エッジ強度≦th1の場合 エッジ強度がレベルth1以下の場合は(S3:NO)、局
所領域画像が取得され(S4)、この取得された局所領
域画像がそのまま加算される(S5)。図6(a)に示
すように、局所領域画像がそのまま用いられ、アフィン
変換画像は検出されない。
(1) When Edge Strength ≦ th1 When the edge strength is equal to or lower than the level th1 (S3: NO), a local area image is acquired (S4), and the acquired local area image is added as it is ( S5). As shown in FIG. 6A, the local area image is used as it is, and the affine transformed image is not detected.

【0054】(2)th1<エッジ強度≦th2の場合 エッジ強度がレベルth1を上回り、かつレベルth2
(th2>th1)以下である場合は(S6:NO)、
「低」エッジ強度用の第1のアフィン変換パラメータ群
をアフィン変換画像取得部6にセットする(S7)。こ
れにより、図6(b)に示すように、広い探索領域内で
局所領域画像に相似するアフィン変換画像を検出する。
(2) When th1 <edge strength ≦ th2, the edge strength exceeds the level th1 and the level th2
If (th2> th1) or less, (S6: NO),
The first affine transformation parameter group for “low” edge strength is set in the affine transformation image acquisition unit 6 (S7). As a result, as shown in FIG. 6B, an affine-transformed image similar to the local area image is detected within the wide search area.

【0055】(3)th2<エッジ強度≦th3 エッジ強度がth2を上回り、かつレベルth3(th
3>th2)以下である場合は(S8:NO)、「中」エッ
ジ強度用の第2のアフィン変換パラメータ群をアフィン
変換画像取得部6にセットする(S9)。これにより、
図6(c)に示すように、中程度の大きさの探索領域内
で局所領域画像に相似するアフィン変換画像が検出され
る。
(3) th2 <edge strength ≦ th3 The edge strength exceeds th2, and the level th3 (th
If 3> th2) or less (S8: NO), the second affine transformation parameter group for “medium” edge strength is set in the affine transformation image acquisition unit 6 (S9). This allows
As shown in FIG. 6C, an affine-transformed image similar to the local area image is detected in the search area having a medium size.

【0056】(4)th3<エッジ強度 算出されたエッジ強度がレベルth3を上回る場合は
(S8:YES)、「高」エッジ強度用の第3のアフィン変換
パラメータ群をアフィン変換画像取得部6にセットする
(S10)。これにより、図6(d)に示すように、小
さい探索領域内で局所領域画像に相似するアフィン変換
画像が検出される。
(4) th3 <Edge Strength When the calculated edge strength exceeds the level th3 (S8: YES), the third affine transformation parameter group for “high” edge strength is sent to the affine transformation image acquisition unit 6. Set (S10). As a result, as shown in FIG. 6D, an affine-transformed image similar to the local area image is detected within the small search area.

【0057】以上のように、局所領域画像の有するエッ
ジ強度に応じてアフィン変換パラメータがセットされる
と、このアフィン変換パラメータを用いてフラクタル補
間が行われる(S11)。フラクタル補間については、
図7と共に後述する。
As described above, when the affine transformation parameter is set according to the edge strength of the local area image, fractal interpolation is performed using this affine transformation parameter (S11). For fractal interpolation,
It will be described later with reference to FIG. 7.

【0058】そして、注目する画素を次の画素に移し
(S12)、原画像の全画素について、アフィン変換画
像又は局所領域画像のいずれかを取得したか否かを判定
する(S13)。原画像全体の処理が終了していない場
合は、再びS2に戻って上述の各処理を繰り返す。
Then, the pixel of interest is moved to the next pixel (S12), and it is determined whether or not an affine transformed image or a local area image has been acquired for all the pixels of the original image (S13). If the processing of the entire original image has not been completed, the process returns to S2 and the above-described processing is repeated.

【0059】原画像の全画素について、それぞれに対応
する局所領域画像又は局所領域画像に相似するアフィン
変換画像を取得して加算した場合は(S13:YES)、各画
像の重複部分について平均化し、出力画像とする(S1
4)。なお、このようにして変換された画像を拡大等す
る場合は、さらに、線形補間等の従来の補間処理を行う
ことができる。
When the local area image corresponding to each pixel of the original image or the affine transformation image similar to the local area image is acquired and added (S13: YES), the overlapping portions of the respective images are averaged, Output image (S1
4). When enlarging the image converted in this way, a conventional interpolation process such as linear interpolation can be further performed.

【0060】次に、図7は、図4中にS11として示さ
れるフラクタル補間処理の流れを示すフローチャートで
ある。
Next, FIG. 7 is a flow chart showing the flow of the fractal interpolation processing shown as S11 in FIG.

【0061】まず、局所領域画像とアフィン変換画像と
の相似性を判定するための「最小距離」に最大値をセッ
トする(S21)。そして、注目画素を略中心とする局
所領域画像を取得し(S22)、アフィン変換用の各パ
ラメータ(Sx,Sy,Ex,Ey,θ)にそれぞれ初期値(下限
値)をセットする(S23)。なお、後述する他のステ
ップでも同様だが、処理に影響がない限り、ステップの
処理順序を変更可能である。即ち、S21〜S23の処
理順序は問わない。
First, the maximum value is set to the "minimum distance" for determining the similarity between the local area image and the affine transformed image (S21). Then, a local area image having the pixel of interest as its center is obtained (S22), and initial values (lower limit values) are set to the respective parameters (Sx, Sy, Ex, Ey, θ) for affine transformation (S23). . The same applies to the other steps described below, but the processing order of the steps can be changed as long as the processing is not affected. That is, the processing order of S21 to S23 does not matter.

【0062】設定されたパラメータに基づいてアフィン
変換画像を取得すると(S24)、この取得したアフィ
ン変換画像が局所領域画像と同一サイズになるように縮
小する(S25)。そして、局所領域画像と該局所領域
画像に対応する同一サイズのアフィン変換画像との距離
を算出し(S26)、この算出された距離が相似性判定
のパラメータ「最小距離」に設定された値よりも小さい
か否か、即ち、より相似しているかを判定する(S2
7)。もしも、最新の距離の算出結果が「最小距離」よ
りも小さい場合は、この最新のアフィン変換パラメータ
及び距離の値を保持しておく(S28)。最新の距離が
「最小距離」よりも小さくない場合は、取得されたアフ
ィン変換画像が局所領域画像に似ていない場合のため、
各パラメータ及び距離の値を保持しない。
When the affine-transformed image is obtained based on the set parameters (S24), the obtained affine-transformed image is reduced to have the same size as the local area image (S25). Then, the distance between the local region image and the affine-transformed image of the same size corresponding to the local region image is calculated (S26), and the calculated distance is calculated from the value set in the parameter "minimum distance" for similarity determination. Is also small, that is, whether or not they are more similar (S2)
7). If the latest distance calculation result is smaller than the "minimum distance", the latest affine transformation parameter and distance value are held (S28). If the latest distance is not less than the "minimum distance", then the acquired affine transformed image is not similar to the local region image,
It does not hold the value of each parameter and distance.

【0063】そして、各パラメータを所定量だけ変化さ
せ(S29)、各パラメータの可変範囲を超えたか否か
を判定する(S30)。つまり、各パラメータを初期値
から上限値まで変化させながらアフィン変換画像をそれ
ぞれ取得し、局所領域画像との距離を算出する(S24
〜S30)。従って、S28では、各パラメータの可変
範囲内で得られるアフィン変換画像のうち、現在の注目
画素に係る局所領域画像と最も相似するアフィン変換画
像のアフィン変換パラメータ及びその距離が保持される
ことになる。
Then, each parameter is changed by a predetermined amount (S29), and it is determined whether or not the variable range of each parameter is exceeded (S30). That is, while changing each parameter from the initial value to the upper limit value, the affine-transformed image is acquired and the distance to the local region image is calculated (S24).
~ S30). Therefore, in S28, among the affine-transformed images obtained within the variable range of each parameter, the affine-transformed parameter of the affine-transformed image that most resembles the local region image of the current pixel of interest and its distance are held. .

【0064】各パラメータを上限まで変化させた場合に
は、S28で保持された各パラメータに基づいて、局所
領域画像に最も相似するアフィン変換画像を取得する
(S31)。そして、取得したアフィン変換画像を局所
領域画像と同一サイズまで縮小し(S32)、先に取得
されたアフィン変換画像に加算する(S33)。加算と
は、メモリ領域の所定位置にアフィン変換画像のディジ
タルデータを格納することである。
When each parameter is changed to the upper limit, an affine-transformed image most similar to the local area image is acquired based on each parameter held in S28 (S31). Then, the acquired affine-transformed image is reduced to the same size as the local area image (S32) and added to the affine-transformed image acquired previously (S33). Addition is to store the digital data of the affine-transformed image at a predetermined position in the memory area.

【0065】これにより、原画像から取得される全局所
領域画像のうち、フラクタル相似性の度合が基準値th
1より高い局所領域画像については、該局所領域画像に
相似するアフィン変換画像が原画像中の所定の探索領域
内から検出されて置換され、加算される。一方、フラク
タル相似性の度合が基準値th1以下の局所領域画像に
ついては、アフィン変換画像の取得は行われず、元の局
所領域画像がそのまま加算される。
As a result, the degree of fractal similarity among all local region images acquired from the original image is the reference value th.
For a local area image higher than 1, an affine-transformed image similar to the local area image is detected from a predetermined search area in the original image, replaced, and added. On the other hand, for the local area image whose degree of fractal similarity is equal to or smaller than the reference value th1, the affine-transformed image is not acquired, and the original local area image is added as it is.

【0066】このように構成される本実施の形態では、
以下の効果を奏する。
In the present embodiment configured as above,
The following effects are achieved.

【0067】第1に、近接する画像同士が所定量ずつ重
なり合うようにして局所領域画像を取得し、フラクタル
相似性が所定の基準値th1よりも高い各局所領域画像
については、該各局所領域画像に相似するアフィン変換
画像を原画像中から検出して置換するため、低品質の画
像を高品質の画像に変換可能となる。
First, local area images are acquired by causing adjacent images to overlap each other by a predetermined amount, and for each local area image having a fractal similarity higher than a predetermined reference value th1, the local area images are acquired. Since an affine-transformed image similar to is detected and replaced in the original image, a low-quality image can be converted into a high-quality image.

【0068】第2に、局所領域画像のエッジ強度に応じ
て、アフィン変換画像検出用の探索領域を設定するた
め、フラクタル相似性の強さに応じた探索領域内でアフ
ィン変換画像を検出するだけでよく、処理速度を向上さ
せて画像処理時間を短縮することができる。特に、局所
領域画像同士が所定量ずつ重なり合うようにして取得す
る本発明では、原画像を単純に分割して相似画像と置換
させる場合に比べて、多数の局所領域画像が取得される
が、エッジ強度に応じて探索領域を可変に設定すること
により、処理時間を短縮することができる。
Secondly, since the search area for affine transformation image detection is set according to the edge strength of the local area image, only the affine transformation image is detected within the search area according to the strength of the fractal similarity. The processing speed can be improved and the image processing time can be shortened. In particular, in the present invention in which the local area images are acquired by overlapping each other by a predetermined amount, a large number of local area images are acquired as compared with the case where the original image is simply divided and replaced with a similar image. The processing time can be shortened by variably setting the search area according to the strength.

【0069】第3に、フラクタル性の度合が所定の基準
値th1よりも高い場合にのみアフィン変換画像を取得
するため、全ての局所領域画像についてアフィン変換画
像を取得する場合に比較して、処理時間を短縮すること
ができる。従って、前記探索領域の可変設定の構成と結
合して、より一層の高速処理を実現できる。
Thirdly, since the affine-transformed image is acquired only when the degree of fractal property is higher than the predetermined reference value th1, the processing is performed as compared with the case where the affine-transformed images are acquired for all local region images. The time can be shortened. Therefore, even higher speed processing can be realized in combination with the variable setting configuration of the search area.

【0070】第4に、各画像を所定量ずつ重複せしめ、
重なり合った部分を平均化等により処理するため、画像
を重複させない場合に比べて、画像間のつなぎ目に違和
感が生じるのを防止できる。従って、例えば、原画像が
自然画像の場合等に、自然な階調変化を保ちつつ品質を
高めることができる。
Fourth, each image is overlapped by a predetermined amount,
Since the overlapping portions are processed by averaging or the like, it is possible to prevent a sense of discomfort from occurring at the joint between the images as compared with the case where the images are not overlapped. Therefore, for example, when the original image is a natural image, the quality can be improved while maintaining a natural gradation change.

【0071】第5に、アフィン変換画像と局所領域画像
との相似性を判断しながら、局所領域画像に最も相似す
るアフィン変換パラメータを保持し、探索領域の探索が
終了した後で、保持したアフィン変換パラメータにより
アフィン変換画像を取得するため、少ないメモリ資源で
局所領域画像に相似するアフィン変換画像を得ることが
できる。
Fifth, while judging the similarity between the affine-transformed image and the local area image, the affine transformation parameters most similar to the local area image are held, and after the search of the search area is completed, the held affine Since the affine-transformed image is obtained by the transformation parameter, it is possible to obtain the affine-transformed image similar to the local area image with a small memory resource.

【0072】2.第2の実施の形態 次に、図8に基づき、本発明の第2の実施の形態を説明
する。なお、以下の各実施の形態では、上述した構成要
素と同一の構成要素に同一の符号を付し、その説明を省
略するものとする。本実施の形態の特徴は、画素を間引
きしてアフィン変換画像を取得することにより、局所領
域画像と同一サイズのアフィン変換画像を得るようにし
た点にある。
2. Second Embodiment Next, a second embodiment of the present invention will be described with reference to FIG. In each of the following embodiments, the same components as those described above are designated by the same reference numerals, and the description thereof will be omitted. The feature of this embodiment is that an affine-transformed image having the same size as the local region image is obtained by thinning out pixels to obtain an affine-transformed image.

【0073】図8(a)に示すように、所定の探索領域
内から2n×2nのサイズでアフィン変換画像を取得
し、この取得したアフィン変換画像を縮小することによ
り、局所領域画像と同一サイズのアフィン変換画像を得
ることができる。
As shown in FIG. 8A, an affine-transformed image having a size of 2n × 2n is obtained from within a predetermined search region, and the obtained affine-transformed image is reduced to have the same size as the local region image. Affine-transformed image can be obtained.

【0074】これに対し、図8(b)に示すように、2
n×2nのサイズでアフィン変換画像を取得するもの
の、該サイズ中の全画素を取得するのではなく、1個置
きに画素を間引いて取得することにより、縮小処理を行
わずに局所領域画像と同一サイズのアフィン変換画像を
得ることができる。
On the other hand, as shown in FIG.
Although an affine-transformed image is acquired in a size of n × 2n, not all pixels in the size are acquired, but every other pixel is thinned out and acquired, so that a local area image is obtained without performing reduction processing. Affine transformed images of the same size can be obtained.

【0075】3.第3の実施の形態 次に、図9に基づいて本発明の第3の実施の形態を説明
する。本実施の形態の特徴は、原画像の特性等に基づい
て、アフィン変換パラメータの値を各色成分毎に設定可
能とした点にある。
3. Third Embodiment Next, a third embodiment of the present invention will be described with reference to FIG. The feature of this embodiment is that the value of the affine transformation parameter can be set for each color component based on the characteristics of the original image and the like.

【0076】まず、ユーザーは、画像処理装置による画
像改質を行うに際し、色にじみ防止モードかシャープモ
ードかを排他的に選択することができる(S41)。色
にじみ防止モードでは、色のにじみを抑えるべく、RG
B表色系で表現された原画像のうちR成分及びB成分に
本発明によるフラクタル補間を適用する。一方、シャー
プモードでは、画像の輪郭等を鮮明にするべく、G成分
のみフラクタル補間を適用する。例えば、各1個ずつの
R成分用画素及びB成分用画素と2個のG成分用画素と
で一つの単位を形成しているようなディジタルカメラ等
において、色にじみ防止モードは自然画像に、シャープ
モードは文字や線図等の画像に、それぞれ好適に用いら
れる。
First, the user can exclusively select the color fringing prevention mode or the sharp mode when performing the image modification by the image processing apparatus (S41). In the color fringing prevention mode, RG is used to suppress color fringing.
The fractal interpolation according to the present invention is applied to the R and B components of the original image represented by the B color system. On the other hand, in the sharp mode, fractal interpolation is applied only to the G component in order to sharpen the contour of the image. For example, in a digital camera or the like in which one R component pixel and one B component pixel and two G component pixels form one unit, the color fringing prevention mode is applied to a natural image. The sharp mode is preferably used for images such as characters and diagrams.

【0077】色にじみ防止モードが選択された場合は、
フラクタル補間対象となる色プレーンにRプレーン及び
Bプレーンをセットする(S42)。一方、シャープモ
ードが選択された場合は、フラクタル補間対象プレーン
としてGプレーンをセットする(S43)。
When the color fringing prevention mode is selected,
The R plane and the B plane are set to the color plane that is the target of fractal interpolation (S42). On the other hand, when the sharp mode is selected, the G plane is set as the fractal interpolation target plane (S43).

【0078】そして、前記同様に、注目画素の初期値を
セットした後(S44)、注目画素を中心とする局所領
域画像のエッジ強度を算出する(S45,S46)。算
出されたエッジ強度が所定の基準値th1を上回る場合
は(S46:YES)、エッジ強度に応じたアフィン変換パラ
メータを用いて、フラクタル補間を行う(S47,S4
8)。エッジ強度が基準値th1以下の場合は(S46:N
O)、取得した局所領域画像をそのまま加算する(S4
9,S50)。原画像の全画素について処理を終了する
まで上記各処理を繰り返す(S51,S52)。
Then, similarly to the above, after setting the initial value of the target pixel (S44), the edge strength of the local area image centered on the target pixel is calculated (S45, S46). When the calculated edge strength exceeds the predetermined reference value th1 (S46: YES), fractal interpolation is performed using the affine transformation parameter according to the edge strength (S47, S4).
8). If the edge strength is less than or equal to the reference value th1, (S46: N
O), the acquired local area image is added as it is (S4)
9, S50). The above processes are repeated until the process is completed for all pixels of the original image (S51, S52).

【0079】原画像の全画素についてアフィン変換画像
又は局所領域画像を取得した場合は(S52:YES)、各画
像を加算して平均化する(S53)。これにより、一枚
のプレーンの処理が終了する。そこで、次に処理すべき
プレーンがあるか否かを判定し(S54)、処理すべき
プレーンが残っている場合は、該プレーンに切り替えて
上述の各処理を行わせる(S55)。フラクタル補間の
実行を指定された全プレーンについて処理を終了した場
合は、他のプレーンと合成し、出力画像を得る(S5
6)。
When affine-transformed images or local area images have been acquired for all pixels of the original image (S52: YES), each image is added and averaged (S53). This completes the processing of one plane. Therefore, it is determined whether or not there is a plane to be processed next (S54), and if there is a plane to be processed, the plane is switched to that plane and the above-described processing is performed (S55). When the processing is completed for all the planes for which the fractal interpolation is designated, the image is combined with other planes to obtain an output image (S5).
6).

【0080】即ち、色にじみ防止モードの場合は、Rプ
レーン及びBプレーンの画像データについて本発明によ
るフラクタル補間が行われ、Gプレーンと合成されて出
力画像が得られる。この場合、Gプレーンについては、
線形補間等の他の補間処理を行ってから合成してもよい
し、補間処理を行わずに合成してもよい。同様に、シャ
ープモードの場合は、Gプレーンの画像データについて
のみ本発明によるフラクタル補間が行われ、Rプレーン
及びBプレーンと合成される。
That is, in the color fringing prevention mode, the fractal interpolation according to the present invention is performed on the image data of the R plane and the B plane, and the output image is obtained by combining with the G plane. In this case, for the G plane,
The synthesis may be performed after performing other interpolation processing such as linear interpolation, or may be performed without performing the interpolation processing. Similarly, in the sharp mode, the fractal interpolation according to the present invention is performed only on the image data of the G plane, and is combined with the R plane and the B plane.

【0081】これにより、原画像の特性やユーザーの希
望等に応じて、画像処理を行うことができる。
As a result, image processing can be performed according to the characteristics of the original image and the user's wishes.

【0082】なお、当業者であれば、前記各実施の形態
に記載された本発明の要旨の範囲内で種々の追加、変
更、組合せ等が可能である。例えば、前記各実施の形態
では、原画像の各画素毎に局所領域画像を取得する場合
を例示したが、これに限らず、例えば、1画素おき、2
画素おき等のように、近接する局所領域画像が所定量ず
つ重なり合う範囲内において、所定間隔で画素を選定し
てもよい。
Those skilled in the art can make various additions, changes, combinations and the like within the scope of the gist of the present invention described in each of the above embodiments. For example, in each of the above-described embodiments, the case where the local area image is acquired for each pixel of the original image is illustrated, but the present invention is not limited to this, and for example, every other pixel, 2
Pixels may be selected at predetermined intervals within a range in which adjacent local area images overlap by a predetermined amount, such as every pixel.

【0083】[0083]

【発明の効果】以上説明した通り、本発明に係る画像処
理装置及び画像処理方法によれば、低品質の画像を高品
質の画像に比較的短時間で変換することが可能となる。
As described above, according to the image processing apparatus and the image processing method of the present invention, it is possible to convert a low quality image into a high quality image in a relatively short time.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の第1の実施の形態に係る画像処理装置
のブロック図である。
FIG. 1 is a block diagram of an image processing apparatus according to a first embodiment of the present invention.

【図2】画像処理の概要を示す説明図である。FIG. 2 is an explanatory diagram showing an outline of image processing.

【図3】アフィン変換の概要を示す説明図である。FIG. 3 is an explanatory diagram showing an outline of affine transformation.

【図4】画像処理方法を示すフローチャートである。FIG. 4 is a flowchart showing an image processing method.

【図5】エッジ強度の算出方法を示す説明図である。FIG. 5 is an explanatory diagram showing a method of calculating edge strength.

【図6】エッジ強度のレベルに応じて探索領域の大きさ
が変化する様子を示す説明図である。
FIG. 6 is an explanatory diagram showing how the size of a search region changes according to the level of edge strength.

【図7】図4中に示されるフラクタル補間の具体的処理
の流れを示すフローチャートである。
7 is a flowchart showing a flow of a specific process of fractal interpolation shown in FIG.

【図8】本発明の第2の実施の形態に係る画像処理方法
の説明図である。
FIG. 8 is an explanatory diagram of an image processing method according to a second embodiment of the present invention.

【図9】本発明の第3の実施の形態に係る画像処理方法
のフローチャートである。
FIG. 9 is a flowchart of an image processing method according to a third embodiment of the present invention.

【符号の説明】[Explanation of symbols]

1 画像処理装置 2 原画像保持部 3 局所領域画像取得部 4 パラメータ設定部 5 画素ポインタ 6 アフィン変換画像取得部 7 アフィン変換パラメータ設定部 8 縮小部 9 相似性算出部 10 置換部 11 加算部 12 平均化処理部 13 出力画像保持部 14 エッジ強度判定部 15 パラメータ管理テーブル 1 Image processing device 2 Original image storage 3 Local area image acquisition unit 4 Parameter setting section 5 pixel pointer 6 Affine transformation image acquisition unit 7 Affine transformation parameter setting section 8 Reduction section 9 Similarity calculation section 10 Replacement part 11 adder 12 Averaging processor 13 Output image holding unit 14 Edge strength determination unit 15 Parameter management table

Claims (13)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】 原画像を保持するための原画像保持手段
と、 前記保持された原画像から所定サイズの画像ブロック
を、近接する各画像ブロックが所定量だけ重なり合うよ
うにして、それぞれ取得する画像ブロック取得手段と、 前記取得された各画像ブロックについて、相似性の度合
を判定する相似性判定手段と、 前記各画像ブロックのそれぞれについて、前記判定され
た相似性の度合に基づいて探索領域を設定し、該探索領
域内から該各画像ブロックに相似する相似画像ブロック
を検出する相似画像検出手段と、 前記検出された各相似画像ブロックを、対応する前記各
画像ブロックにそれぞれ置換する画像置換手段と、 前記置換された各相似画像ブロックを重ね合わせる画像
加算手段と、 前記画像加算手段により加算されたブロックの重複部分
の画像を調整する画像調整手段と、を備えたことを特徴
とする画像処理装置。
1. An original image holding unit for holding an original image, and an image block for acquiring an image block of a predetermined size from the held original image such that adjacent image blocks overlap each other by a predetermined amount. A block acquisition unit, a similarity determination unit that determines the degree of similarity for each of the acquired image blocks, and a search area is set for each of the image blocks based on the determined degree of similarity. Then, a similar image detecting unit that detects a similar image block that is similar to each of the image blocks from the search area, and an image replacement unit that replaces each of the detected similar image blocks with the corresponding image block. An image adding means for superimposing the replaced similar image blocks, and an overlap of the blocks added by the image adding means An image processing apparatus comprising: an image adjusting unit that adjusts an image of a portion.
【請求項2】 前記相似画像検出手段は、前記各画像ブ
ロックのうち、前記相似性判定手段により判定される相
似性の度合が所定の基準値を上回る画像ブロックについ
てのみ前記相似画像ブロックを検出するものであり、 前記画像加算手段は、前記画像置換手段により置換され
た相似画像ブロックと前記相似性判定手段により前記相
似性の度合が前記所定の基準値以下であると判定された
画像ブロックとを重ね合わせるものである、請求項1に
記載の画像処理装置。
2. The similar image detecting means detects the similar image blocks only from among the image blocks, for image blocks whose degree of similarity determined by the similarity determining means exceeds a predetermined reference value. The image adding means includes a similar image block replaced by the image replacing means and an image block determined by the similarity determining means as the degree of similarity being equal to or less than the predetermined reference value. The image processing device according to claim 1, wherein the image processing devices are overlapped.
【請求項3】 前記相似画像検出手段は、前記相似性の
度合が高くなるほど、前記探索領域を小さく設定する請
求項1又は請求項2のいずれかに記載の画像処理装置。
3. The image processing apparatus according to claim 1, wherein the similar image detecting means sets the search area smaller as the degree of similarity becomes higher.
【請求項4】 前記相似性の度合として、前記画像ブロ
ックのエッジの強度を用いる請求項1〜請求項3のいず
れかに記載の画像処理装置。
4. The image processing apparatus according to claim 1, wherein an edge strength of the image block is used as the degree of similarity.
【請求項5】 前記画像調整手段は、前記重複部分の画
像を平均化するものである請求項1〜請求項4のいずれ
かに記載の画像処理装置。
5. The image processing apparatus according to claim 1, wherein the image adjusting unit averages the images of the overlapping portion.
【請求項6】 前記画像ブロック取得手段は、前記原画
像の1画素毎に、当該画素を略中心とする所定サイズの
画像ブロックを取得するものである請求項1〜請求項5
のいずれかに記載の画像処理装置。
6. The image block acquisition means acquires, for each pixel of the original image, an image block of a predetermined size with the pixel substantially at the center.
The image processing device according to any one of 1.
【請求項7】 前記相似画像検出手段は、前記画像ブロ
ックのサイズよりも大きいサイズで前記相似画像ブロッ
クを検出し、該相似画像ブロックのサイズを前記画像ブ
ロックのサイズと等しくなるように縮小させるものであ
る請求項1〜請求項6のいずれかに記載の画像処理装
置。
7. The similar image detecting means detects the similar image block with a size larger than the size of the image block, and reduces the size of the similar image block to be equal to the size of the image block. The image processing apparatus according to any one of claims 1 to 6.
【請求項8】 前記相似画像検出手段は、前記画像ブロ
ックのサイズよりも大きいサイズで前記原画像中に設定
される所定領域の中から、画素を間引きすることによ
り、前記画像ブロックと同一サイズの相似画像ブロック
を検出するものである請求項1〜請求項6のいずれかに
記載の画像処理装置。
8. The similar image detecting means thins out pixels from a predetermined area set in the original image with a size larger than the size of the image block to obtain a pixel having the same size as the image block. The image processing apparatus according to any one of claims 1 to 6, which detects a similar image block.
【請求項9】 前記探索領域は、前記原画像よりも小さ
く設定される請求項1〜請求項8のいずれかに記載の画
像処理装置。
9. The image processing apparatus according to claim 1, wherein the search area is set smaller than the original image.
【請求項10】 前記相似画像検出手段は、前記探索領
域内で、画像操作のパラメータを変えながら複数の候補
画像ブロックの相似性を判定し、最も前記画像ブロック
に相似する候補画像ブロックの取得に用いたパラメータ
のみを保持して、該保持されたパラメータにより前記相
似画像ブロックを検出する請求項1〜請求項9のいずれ
かに記載の画像処理装置。
10. The similar image detecting means determines the similarity of a plurality of candidate image blocks in the search area while changing the image operation parameter, and obtains a candidate image block most similar to the image block. The image processing apparatus according to claim 1, wherein only the used parameter is held, and the similar image block is detected by the held parameter.
【請求項11】 カラーの原画像を保持するための原画
像保持手段と、 前記原画像の各表色系成分のうち画像の明るさに関連す
る表色系成分とそれ以外の表色系成分とのいずれか一方
を指定する指定手段と、 前記指定された表色系成分の原画像から所定サイズの画
像ブロックを、近接する各画像ブロックが所定量だけ重
なり合うようにして、それぞれ取得する画像ブロック取
得手段と、 前記取得された各画像ブロックについて、相似性の度合
を判定する相似性判定手段と、 前記各画像ブロックのそれぞれについて、前記判定され
た相似性の度合に基づいて探索領域を設定し、該探索領
域内から該各画像ブロックに相似する相似画像ブロック
を検出する相似画像検出手段と、 前記検出された各相似画像ブロックを、対応する前記各
画像ブロックにそれぞれ置換する画像置換手段と、 前記置換された各相似画像ブロックを重ね合わせる画像
加算手段と、 前記画像加算手段により加算されたブロックの重複部分
の画像を調整する画像調整手段と、 前記指定手段により指定された表色系成分以外の原画像
と前記調整手段により調整された画像とを合成する合成
手段と、を備えたことを特徴とする画像処理装置。
11. An original image holding means for holding a color original image, a color system component related to image brightness among the color system components of the original image and other color system components. And an image block that acquires an image block of a predetermined size from the original image of the specified color system component, by causing each adjacent image block to overlap by a predetermined amount. Acquiring means, for each of the acquired image blocks, similarity determination means for determining the degree of similarity, and for each of the image blocks, a search area is set based on the determined degree of similarity. , A similar image detecting means for detecting a similar image block similar to each image block from the search area, and the detected similar image block to each of the corresponding image blocks. Image replacing means for replacing each of the replaced similar image blocks, image adding means for superimposing the replaced similar image blocks, image adjusting means for adjusting the image of the overlapping portion of the blocks added by the image adding means, and the designating means An image processing apparatus comprising: a synthesizing unit that synthesizes an original image other than the colorimetric component designated by the above and the image adjusted by the adjusting unit.
【請求項12】 近接する画像ブロック同士が所定量だ
け重なり合うようにして原画像から各画像ブロックを順
次取得し、 前記順次取得された各画像ブロックについて、相似性の
度合をそれぞれ判定し、 前記各画像ブロックのそれぞれについて、前記判定され
た相似性の度合に基づいて探索領域を設定し、 該探索領域内から該各画像ブロックに相似する相似画像
ブロックをそれぞれ検出し、 前記各検出された相似画像ブロックを対応する前記各画
像ブロックにそれぞれ置換せしめ、 前記置換された各相似画像ブロックを重ね合わせ、 前記加算されたブロックの重複部分の画像を調整して出
力させる、ことを特徴とする画像処理方法。
12. An image block is sequentially acquired from an original image such that adjacent image blocks overlap each other by a predetermined amount, and the degree of similarity is determined for each of the sequentially acquired image blocks, For each of the image blocks, a search area is set based on the determined degree of similarity, and a similar image block similar to each of the image blocks is detected from within the search area, and each detected similar image is detected. A block is replaced with each corresponding image block, the replaced similar image blocks are overlapped, and an image of an overlapping portion of the added block is adjusted and output. .
【請求項13】 コンピュータに画像処理を実行させる
ための画像処理プログラムを記録した記録媒体におい
て、 保持された原画像から所定サイズの画像ブロックを、近
接する各画像ブロックが所定量だけ重なり合うようにし
て、それぞれ取得させる機能と、 前記取得された各画像ブロックについて相似性の度合を
判定させる機能と、 前記各画像ブロックのそれぞれについて、前記判定され
た相似性の度合に基づいて探索領域を設定させる機能
と、 前記探索領域内から前記各画像ブロックに相似する相似
画像ブロックを検出させる機能と、 前記検出された各相似画像ブロックを、対応する前記各
画像ブロックにそれぞれ置換させる機能と、 前記置換された各相似画像ブロックを重ね合わさせる機
能と、 前記加算されたブロックの重複部分の画像を調整させる
機能と、をコンピュータ上に実現させるためのコンピュ
ータプログラムを該コンピュータが読取り及び理解可能
な形態で記録したことを特徴とする記録媒体。
13. A recording medium having an image processing program for causing a computer to execute image processing, wherein an image block of a predetermined size is held from an original image held so that adjacent image blocks overlap each other by a predetermined amount. , A function of obtaining each, a function of determining the degree of similarity of each of the acquired image blocks, a function of setting a search area based on the determined degree of similarity of each of the image blocks A function of detecting a similar image block similar to each of the image blocks in the search area, a function of replacing each of the detected similar image blocks with a corresponding one of the image blocks, and the replaced A function of superimposing similar image blocks, and an overlapping part of the added blocks Recording medium of the computer program the computer, characterized by recording in the read and understandable form for realizing a function for adjusting an image, to the computer.
JP2000380490A 2000-11-15 2000-12-14 Image processing apparatus and image processing method Expired - Fee Related JP3491830B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2000380490A JP3491830B2 (en) 2000-12-14 2000-12-14 Image processing apparatus and image processing method
US09/987,440 US6898332B2 (en) 2000-11-15 2001-11-14 Image processing device and image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2000380490A JP3491830B2 (en) 2000-12-14 2000-12-14 Image processing apparatus and image processing method

Publications (2)

Publication Number Publication Date
JP2002185770A JP2002185770A (en) 2002-06-28
JP3491830B2 true JP3491830B2 (en) 2004-01-26

Family

ID=18848665

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2000380490A Expired - Fee Related JP3491830B2 (en) 2000-11-15 2000-12-14 Image processing apparatus and image processing method

Country Status (1)

Country Link
JP (1) JP3491830B2 (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4123356B2 (en) 2002-11-13 2008-07-23 富士ゼロックス株式会社 Image processing apparatus, image processing program, and storage medium
JP2006236317A (en) * 2005-01-26 2006-09-07 Matsushita Electric Ind Co Ltd Image processing method
US7689053B2 (en) 2005-01-26 2010-03-30 Panasonic Corporation Image processing method
JP6848783B2 (en) * 2017-09-21 2021-03-24 株式会社オートネットワーク技術研究所 Processing equipment, processing methods and computer programs

Also Published As

Publication number Publication date
JP2002185770A (en) 2002-06-28

Similar Documents

Publication Publication Date Title
JP3915563B2 (en) Image processing apparatus and image processing program
JP3882651B2 (en) Image processing apparatus and program
JP5450600B2 (en) Improving image resolution
JP3882585B2 (en) Image processing apparatus and program
EP0874330A2 (en) Area based interpolation for image enhancement
JP4847591B2 (en) Image processing apparatus, image processing method, and image processing program
KR20080090426A (en) Bayesian demosaicing using a two-color image
JP2004221838A (en) Apparatus and method for image processing, recording medium, and program
GB2547842A (en) Image processing device and method, image pickup device, program, and recording medium
US6898332B2 (en) Image processing device and image processing method
JP3491830B2 (en) Image processing apparatus and image processing method
JP3601448B2 (en) Image processing apparatus and image processing method
JP3491829B2 (en) Image processing apparatus and image processing method
US9811892B1 (en) Separating sub-band image data for processing and merging with unprocessed image data
JP2004221645A (en) Image processing apparatus and method therefor, recording medium, and program
JPH0630308A (en) Picture data processing unit
US9911177B2 (en) Applying chroma suppression to image data in a scaler of an image processing pipeline
US9916637B1 (en) Splitting and merging subband image data
JP2007151094A (en) Tone-conversion device for image, program, electronic camera, and tone-conversion method
JP4590973B2 (en) Image processing apparatus and image processing method
JP3573085B2 (en) Image processing apparatus and image processing method
WO2014034242A1 (en) Image processing device, and method and program for image processing
JP6891014B2 (en) Image processing device, image processing method, and program
JP2005123813A (en) Image processing apparatus
JP4265362B2 (en) Image processing device

Legal Events

Date Code Title Description
FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20081114

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20091114

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20091114

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101114

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101114

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111114

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111114

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121114

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121114

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131114

Year of fee payment: 10

LAPS Cancellation because of no payment of annual fees