JP2011035567A - Image processing apparatus and method thereof, and computer readable recording medium - Google Patents

Image processing apparatus and method thereof, and computer readable recording medium Download PDF

Info

Publication number
JP2011035567A
JP2011035567A JP2009178262A JP2009178262A JP2011035567A JP 2011035567 A JP2011035567 A JP 2011035567A JP 2009178262 A JP2009178262 A JP 2009178262A JP 2009178262 A JP2009178262 A JP 2009178262A JP 2011035567 A JP2011035567 A JP 2011035567A
Authority
JP
Japan
Prior art keywords
image
image processing
processing apparatus
pixel value
area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2009178262A
Other languages
Japanese (ja)
Inventor
Hirohisa Inamoto
浩久 稲本
Koji Kobayashi
幸二 小林
Yuka Kihara
酉華 木原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2009178262A priority Critical patent/JP2011035567A/en
Publication of JP2011035567A publication Critical patent/JP2011035567A/en
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Image Processing (AREA)
  • Editing Of Facsimile Originals (AREA)
  • Facsimile Image Signal Circuits (AREA)
  • Color Image Communication Systems (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To recover damaged images at high speed for high quality. <P>SOLUTION: An image processing apparatus 1 performs image processing to recover damaged areas for input images including damaged areas, such as punch holes or stapler marks. The image processing apparatus 1 includes: a structuring means 21 for structuring pixel values of pixels in areas not including damaged areas; and a recovery means 22 for estimating pixel values of pixels included in damaged areas based on the structured pixel values and recovering the damaged areas. <P>COPYRIGHT: (C)2011,JPO&INPIT

Description

本発明は、画像処理装置、方法及びコンピュータ読取可能な記録媒体に関する。   The present invention relates to an image processing apparatus, a method, and a computer-readable recording medium.

複写機でコピーを行う際、パンチ孔やステープラーの跡など、画像が欠損している場合が多々ある。このような欠損領域を修復しようとする場合、背景の色がわかっているならば、その色で塗りつぶすだけで、きれいに修復が可能である。特に文書画像の背景は圧倒的に白である可能性が高いため、ほとんどの場合は白で塗りつぶすだけできれいに修復が可能である。   When copying with a copying machine, there are many cases where an image is missing, such as a punch hole or a trace of a stapler. When trying to repair such a defective area, if the background color is known, it can be repaired neatly by simply painting with that color. In particular, since the background of the document image is likely to be overwhelmingly white, in most cases, it can be neatly restored by simply painting it with white.

一方、背景の色がわからない場合に、特定の色で塗りつぶす処理をしてしまうと、欠損領域がかえって目立ってしまう場合がある。このような場面に対応するために、古くは拡散方程式を用いた手法が用いられてきた(例えば、非特許文献1)。この手法は、拡散方程式を用いて画素の輝度値を欠損領域の境界から内側へ徐々に伝播させることで欠損領域を滑らかに補間する方法である。該手法を用いると、輝度値の連続性は保たれるという特徴から、写真についたひっかき傷のような細い領域に対しては良好な結果を得ることができ、また、大域的構造や大きなエッジ勾配に強いというメリットがある。その一方で、大きな領域を修復した場合には細かいテクスチャが表現できず、不鮮明な画像が生成されるという問題がある。   On the other hand, when the background color is unknown, if a process of painting with a specific color is performed, the defective area may be noticeable. In order to cope with such a scene, a method using a diffusion equation has been used in the past (for example, Non-Patent Document 1). This method is a method of smoothly interpolating a defective region by gradually propagating the luminance value of a pixel from the boundary of the defective region to the inside using a diffusion equation. Using this method, the continuity of brightness values is maintained, so that good results can be obtained for thin areas such as scratches on photographs, and the global structure and large edges can be obtained. There is a merit that it is strong against the gradient. On the other hand, there is a problem that when a large area is repaired, a fine texture cannot be expressed and an unclear image is generated.

図11は該手法で欠損領域を修復した画像である。左が元画像であり、中央の黒い丸が欠損領域である。一方、右が、修復後の画像である。図から明らかなように該手法を用いて修復を行うと、画像が滑らかにつながってはいるが、ぼけてしまうと言う問題がある。この傾向は特に画像の輝度変化が急峻で有る場合に強くなる。つまり、テクスチャの影響が大きい領域やエッジ領域などでは非特許文献1のような手法では良好な欠損修復ができないということができる。   FIG. 11 is an image obtained by repairing a defective area by this method. The left is the original image, and the black circle at the center is the missing area. On the other hand, the image on the right is a restored image. As is apparent from the figure, there is a problem that when the image is repaired using this method, the images are smoothly connected but are blurred. This tendency is particularly strong when the luminance change of the image is steep. That is, it can be said that good defect repair cannot be performed by a technique such as that described in Non-Patent Document 1 in an area or an edge area where the influence of texture is large.

このような問題から、非特許文献2では周辺画像から欠損領域のテクスチャを推定する手法が提案されている。以下にそのアルゴリズムの概要を示す。まず、図12に示すように、ある大きさのウィンドウ(図12の矩形領域)を設定し、内部に欠損領域が含まれるようなウィンドウの中心の動く範囲をΩ’とする。続いて、画像内におけるΩ’以外の領域Φ(以下データ領域と呼ぶ)に中心を持つウィンドウとのパターン類似度を算出し、このパターン類似度の重みつき総和として定義されるエネルギー関数が最小となるようなパターンの位置を探索する。   Due to such problems, Non-Patent Document 2 proposes a method for estimating a texture of a defective region from a peripheral image. The outline of the algorithm is shown below. First, as shown in FIG. 12, a window having a certain size (rectangular region in FIG. 12) is set, and the moving range of the center of the window including the missing region is set to Ω ′. Subsequently, the pattern similarity with a window having a center in an area Φ (hereinafter referred to as a data area) other than Ω ′ in the image is calculated, and the energy function defined as a weighted sum of the pattern similarity is minimized. Search for the position of such a pattern.

ここで、パターンの類似度としてはSSD(Sum of Squared Differences)を用いる。尚、I(x)はxにおける画素値を意味する。   Here, SSD (Sum of Squared Differences) is used as the pattern similarity. Note that I (x) means a pixel value at x.

Figure 2011035567
Figure 2011035567

エネルギー関数はパターン類似度SSDの重み付き総和で以下のように記載することができる。   The energy function can be described as a weighted sum of pattern similarity SSD as follows.

Figure 2011035567
Figure 2011035567

ここで、ωxはSSDの信頼度を反映するためのウェイトであり、補完すべき欠損画素からの距離などで重みを変化させることなども可能で有るが、以下ではωx=1として均等の重みを与えることとする。以上で定義されたエネルギー関数を最小にするように、欠損領域内の各画素xに対して類似するパターンをデータ領域内Φで探索し、該パターンの中心画素の画素値で画素xの画素値を置き換える。欠損領域内の全ての画素に対して置き換えが終わったら、欠損領域内の各画素について、また最初から探索と置き換えの処理を行い、エネルギーが十分に小さくなるまで繰り返して最適化する。以上の処理を行うことで、細かいテクスチャまで表現が可能であり、高品位な修復画像を得ることができる。例えば、草むらの一部を欠損領域として修復処理をすることを考えると、欠損領域を埋めるべき模様は周辺画像に存在することが容易に予想される。そのため、この手法で欠損領域の細かいテクスチャが表現可能になるのである。   Here, ωx is a weight for reflecting the reliability of the SSD, and it is possible to change the weight according to the distance from the defective pixel to be complemented. I will give it. In order to minimize the energy function defined above, a pattern similar to each pixel x in the defective area is searched for in the data area Φ, and the pixel value of the pixel x is determined by the pixel value of the center pixel of the pattern. Replace When replacement is completed for all the pixels in the defective region, search and replacement processing is performed for each pixel in the defective region from the beginning, and optimization is repeated until the energy becomes sufficiently small. By performing the above processing, a fine texture can be expressed, and a high-quality repair image can be obtained. For example, considering that repair processing is performed using a part of grass as a defective area, it is easily predicted that the pattern to fill the defective area exists in the peripheral image. For this reason, it is possible to express a fine texture of a defective area by this method.

しかし、高品位な修復画像が得られる一方で、本手法には極めて多大な計算時間が必要であるという問題が有った。例えば、画像が200×200画素、欠損領域の画素数1000画素、ウインドウサイズを3×3=9画素とすると、データ領域の画素数は39000画素になる。SSD算出には9回の引き算と掛け算が必要で、SSD算出を39000回行って、やっと一画素を埋められることになる。更にその処理を1000画素に対して行うことでエネルギーが算出されるが、エネルギーが収束するためには、以上の計算を複数回行わなければならない。   However, while a high-quality repaired image can be obtained, this method has a problem that it requires an extremely large amount of calculation time. For example, if the image is 200 × 200 pixels, the number of pixels in the defective area is 1000 pixels, and the window size is 3 × 3 = 9 pixels, the number of pixels in the data area is 39000 pixels. The SSD calculation requires 9 subtractions and multiplications, and the SSD calculation is performed 39000 times to finally fill one pixel. Further, the energy is calculated by performing the processing on 1000 pixels. However, in order for the energy to converge, the above calculation must be performed a plurality of times.

以上のように、従来手法には、一画素を補完するために、データ領域Φ全てをパタンマッチする必要が有り、その処理には極めて時間がかかるという問題が有った。   As described above, in the conventional method, in order to complement one pixel, it is necessary to pattern-match all the data areas Φ, and there is a problem that the processing takes an extremely long time.

なお、本発明に関連する特許文献としては、特許文献1,2があり、特許文献1は、画像の内容に応じて複数種の補完方法を切り替えることが記載されている(例えば、段落0037)。一方、特許文献2は、画像データを修復する際に、拡散方程式を用いて修復を行うが、段階的な縮小処理を行って十分小さな欠損領域に対して修復処理を行うことが記載されている。   In addition, as patent documents related to the present invention, there are Patent Documents 1 and 2, and Patent Document 1 describes switching between a plurality of complementing methods according to the content of an image (for example, paragraph 0037). . On the other hand, Patent Document 2 describes that when image data is restored, restoration is performed using a diffusion equation, but restoration processing is performed on a sufficiently small defect region by performing stepwise reduction processing. .

本発明は以上を鑑みてなされたものであり、高速、かつ高品位に欠損画像を修復することを可能にする画像処理装置、方法及びコンピュータ読取可能な記録媒体を提供するものである。   The present invention has been made in view of the above, and provides an image processing apparatus, a method, and a computer-readable recording medium capable of repairing a defective image at high speed and high quality.

上記目的を達成するために、本発明は、第1の態様として、欠損領域を含む入力画像に対して、前記欠損領域を修復する画像処理を行う画像処理装置であって、前記欠損領域を含まない領域の画素の画素値を構造化する構造化手段と、構造化された前記画素値に基づいて前記欠損領域に含まれる画素の画素値を推定し、前記欠損領域を修復する画像処理を行う修復手段と、を具備することを特徴とする、画像処理装置を提供する。   To achieve the above object, according to a first aspect of the present invention, there is provided an image processing apparatus that performs image processing for repairing the defect area on an input image including the defect area, and includes the defect area. Structuring means for structuring the pixel values of the pixels in the non-existing region, and estimating the pixel values of the pixels included in the defective region based on the structured pixel values, and performing image processing for repairing the defective region An image processing apparatus comprising: a restoration unit.

また、上記目的を達成するために、本発明は、第2の態様として、欠損領域を含む入力画像に対して、前記欠損領域を修復する画像処理を行う画像処理方法であって、前記欠損領域を含まない領域の画素の画素値を構造化する構造化工程と、構造化された前記画素値に基づいて前記欠損領域に含まれる画素の画素値を推定し、前記欠損領域を修復する画像処理を行う修復工程と、を含むことを特徴とする、画像処理方法を提供する。   In order to achieve the above object, according to a second aspect of the present invention, there is provided an image processing method for performing image processing for repairing the defect area on an input image including the defect area, wherein the defect area A structuring step for structuring pixel values of pixels in a region not including the image, and image processing for estimating the pixel values of the pixels included in the defect region based on the structured pixel values and repairing the defect region And an image processing method.

また、上記目的を達成するために、本発明は、第3の態様として、上記画像処理方法をコンピュータに実行させるプログラムを記録したことを特徴とする、コンピュータ読取可能な記録媒体を提供する。   In order to achieve the above object, according to a third aspect of the present invention, there is provided a computer-readable recording medium in which a program for causing a computer to execute the image processing method is recorded.

本発明によれば、高速、かつ高品位に欠損画像を修復することを可能にする画像処理装置、方法及びコンピュータ読取可能な記録媒体を提供することが可能となる。   According to the present invention, it is possible to provide an image processing apparatus, a method, and a computer-readable recording medium that can repair a defective image at high speed and high quality.

本発明による画像処理装置1のハードウェア構成の一例を示す図である。It is a figure which shows an example of the hardware constitutions of the image processing apparatus 1 by this invention. 本発明による画像処理装置1の主要な機能を示す機能ブロック図である。It is a functional block diagram which shows the main functions of the image processing apparatus 1 by this invention. 本実施形態に係るアプリケーションにより画像出力部12に表示されるユーザインターフェースの一例を示す図である。It is a figure which shows an example of the user interface displayed on the image output part 12 by the application which concerns on this embodiment. 本実施形態に係るアプリケーションのユースケースのフローチャートである。It is a flowchart of the use case of the application which concerns on this embodiment. 本実施形態に係る修復処理の動作を示すフローチャートである。It is a flowchart which shows operation | movement of the repair process which concerns on this embodiment. 本実施形態に係る修復処理における構造化処理を説明するための図である。It is a figure for demonstrating the structuring process in the repair process which concerns on this embodiment. 本実施形態に係る修復処理における最近傍探索処理を説明するための図である。It is a figure for demonstrating the nearest neighbor search process in the repair process which concerns on this embodiment. 本実施形態に係る修復処理の詳細な流れを示すフローチャートである。It is a flowchart which shows the detailed flow of the repair process which concerns on this embodiment. 本実施形態に係る修復処理における構造化処理にて構造化される対象を例示する図である。It is a figure which illustrates the object structured by the structuring process in the repair process concerning this embodiment. 本実施形態に係る修復処理における構造化処理の二分木構造を示す図である。It is a figure which shows the binary tree structure of the structuring process in the repair process which concerns on this embodiment. 従来技術の拡散方程式を用いた画像修復の例を示す図である。It is a figure which shows the example of the image restoration using the diffusion equation of a prior art. 従来技術の周辺画像から欠損領域のテクスチャを推定する手法の概要を示す図である。It is a figure which shows the outline | summary of the method of estimating the texture of a defect area | region from the peripheral image of a prior art.

以下、本発明を実施するための一形態を、図面を用いて説明する。以下、画像処理装置に対して本発明を適用した実施形態を示す。   Hereinafter, an embodiment for carrying out the present invention will be described with reference to the drawings. Hereinafter, embodiments in which the present invention is applied to an image processing apparatus will be described.

<構成>
(ハードウェア)
図1は、本発明による画像処理装置1のハードウェア構成の一例を示す図である。本実施形態に係る画像処理装置1は、欠損領域を含む入力画像に対して、当該欠損領域を修復する画像処理を行う画像処理装置である。具体的に、画像形成装置1は、画像入力部11、画像出力部12、CPU13、I/O回路14、ROM15、RAM16、及びHDD17を有する構成である。
<Configuration>
(hardware)
FIG. 1 is a diagram illustrating an example of a hardware configuration of an image processing apparatus 1 according to the present invention. The image processing apparatus 1 according to the present embodiment is an image processing apparatus that performs image processing for repairing a defect area on an input image including the defect area. Specifically, the image forming apparatus 1 includes an image input unit 11, an image output unit 12, a CPU 13, an I / O circuit 14, a ROM 15, a RAM 16, and an HDD 17.

画像入力部11は、画像入力を行うもので、例えば、スキャナ、複写機、複合機等の画像機器における画像読取部に相当する。また、外部で読み取られた原稿の画像データをメディア(記録媒体)やネットワーク経由で入力することもできる。   The image input unit 11 performs image input, and corresponds to, for example, an image reading unit in an image device such as a scanner, a copier, or a multifunction peripheral. Further, image data of a document read externally can be input via a medium (recording medium) or a network.

CPU13、I/O回路14、ROM15、RAM16、及びHDD17は、バスラインを介して相互に通信可能に接続された構成になっている。ROM15は、画像処理装置1が起動されるときに実行されるプログラムや各種データを格納している。RAM16は、ROM15やHDD17から読み出された各種プログラムやデータを一時保存する主記憶装置である。さらに、CPU13は、演算処理を含む本画像処理装置全体の処理の制御を行うとともに、RAM16が一時保存しているプログラムを実行する。I/O回路14は、画像入力部11及び画像出力部12を含む周辺機器との入出力を管理する。HDD17は、CPU13による制御の下に処理された画像データや外部から取り込んだ画像データを記憶する。   The CPU 13, the I / O circuit 14, the ROM 15, the RAM 16, and the HDD 17 are configured to be communicable with each other via a bus line. The ROM 15 stores programs executed when the image processing apparatus 1 is started up and various data. The RAM 16 is a main storage device that temporarily stores various programs and data read from the ROM 15 and the HDD 17. Further, the CPU 13 controls the overall processing of the image processing apparatus including the arithmetic processing, and executes a program temporarily stored in the RAM 16. The I / O circuit 14 manages input / output with peripheral devices including the image input unit 11 and the image output unit 12. The HDD 17 stores image data processed under the control of the CPU 13 and image data captured from the outside.

画像出力部12は、プリンタやディスプレイなどの出力装置とその制御手段によって構成され、画像処理装置1による処理によって修復された欠損領域のある画像データを印刷出力したり表示画面上に表示出力したりする。また、ネットワーク経由で外部への出力をすることもできる。   The image output unit 12 includes an output device such as a printer or a display and its control means. The image output unit 12 prints out image data having a defective area repaired by the processing by the image processing device 1 or displays it on a display screen. To do. It can also be output to the outside via a network.

(ソフトウェア)
図1のHDD17には、画像処理装置1の有するハードウェア資源を利用して、所定の情報処理を行い、下記の機能及び動作を実現するソフトウェア・アプリケーション(以下、「本実施形態に係るアプリケーション」という)が格納されている。本実施形態に係るアプリケーションは、磁気式、光学式ディスク等のコンピュータ読取可能な記録媒体によって画像処理装置1に提供されてもよい。
(software)
The HDD 17 in FIG. 1 uses a hardware resource of the image processing apparatus 1 to perform predetermined information processing, and implements the following functions and operations (hereinafter, “application according to the present embodiment”). Is stored). The application according to the present embodiment may be provided to the image processing apparatus 1 by a computer-readable recording medium such as a magnetic or optical disk.

(機能)
図2は、画像処理装置1の主要機能を示す機能ブロック図である。画像処理装置1は、欠損領域を含む入力画像に対して、当該欠損領域を修復する画像処理を行う画像処理装置であり、以下のような構成を有する。すなわち、画像処理装置1は、主要な機能として、構造化手段21と修復手段22を含む構成である。
(function)
FIG. 2 is a functional block diagram showing main functions of the image processing apparatus 1. The image processing apparatus 1 is an image processing apparatus that performs image processing for repairing a defect area on an input image including the defect area, and has the following configuration. That is, the image processing apparatus 1 includes a structuring unit 21 and a restoration unit 22 as main functions.

構造化手段21は、画像入力部11により入力された欠損領域を含む入力画像データを、修復処理を行う前に、事前に構造化する。修復手段22は、構造化された入力画像データを修復する画像処理を行う。以下では、構造化手段21の実行する処理と修復手段22の実行する処理を合わせて「修復処理」という場合がある。   The structuring unit 21 structures the input image data including the missing area input by the image input unit 11 in advance before performing the repair process. The restoration means 22 performs image processing for restoring the structured input image data. Hereinafter, the process executed by the structuring unit 21 and the process executed by the repair unit 22 may be collectively referred to as “repair process”.

(ユースケース)
図3は、本実施形態に係るアプリケーションにより画像出力部12に表示されるユーザインターフェースの一例を示す図である。図3に示すように、本アプリケーションのユーザインターフェースは、「開くボタン」、「保存ボタン」、「実行ボタン」、及び「画像表示部」を有している。
(Use Case)
FIG. 3 is a diagram illustrating an example of a user interface displayed on the image output unit 12 by the application according to the present embodiment. As shown in FIG. 3, the user interface of this application includes an “open button”, a “save button”, an “execute button”, and an “image display unit”.

続いて、本アプリケーションを利用する際のユーザの動作とアプリケーションの動作を図4のフローチャートを用いて説明する。図4において左はユーザの動作、右はアプリケーション動作を示す。ユーザはアプリケーションを起動する(step001)。続いて、ユーザは図3の開くボタンをマウスでクリックする。するとファイル選択ダイアログがポップアップし、ユーザは該ダイアログを利用して所望の画像ファイルを選択する(step002)。すると、アプリケーションは図3の画像表示部にユーザの指定した画像を表示する(step003)。ユーザは該画像表示部に表示された画像内で、除去したい領域、すなわち今後の処理では欠損領域となる領域部分をドラッグする(step004)。ドラッグされた領域では画像に赤い線が引かれ、該赤い線の領域が欠損領域であることをユーザに通知する。その後、ユーザが図3の開始ボタンを押下すると(step005)、アプリケーションでは、欠損した領域を画像のその他の領域から推定して修復する(step006)。修復した画像は画像表示部に表示していた画像に置き換えられる。   Next, the operation of the user and the operation of the application when using this application will be described with reference to the flowchart of FIG. In FIG. 4, the left shows the user's operation, and the right shows the application operation. The user starts the application (step 001). Subsequently, the user clicks the open button in FIG. 3 with the mouse. Then, a file selection dialog pops up, and the user selects a desired image file using the dialog (step 002). Then, the application displays the image designated by the user on the image display unit in FIG. 3 (step 003). In the image displayed on the image display unit, the user drags an area to be removed, that is, an area portion that will be a missing area in future processing (step 004). In the dragged area, a red line is drawn on the image to notify the user that the red line area is a missing area. Thereafter, when the user presses the start button in FIG. 3 (step 005), the application estimates and repairs the missing area from the other areas of the image (step 006). The restored image is replaced with the image displayed on the image display unit.

以上のような処理を行うことで、ユーザは画像中の不要な被写体を違和感無く削除することができる。こうすることで、例えば、ウェブページにアップロードしたい画像に写った人などを除去すれば、その人のプライバシーを守ることができるなどといったメリットがある。
以下では、step006で示した修復処理について詳細に述べることとする。
By performing the processing as described above, the user can delete unnecessary subjects in the image without a sense of incongruity. By doing this, there is an advantage that, for example, if a person who appears in an image to be uploaded to a web page is removed, the privacy of the person can be protected.
Hereinafter, the repair process indicated by step 006 will be described in detail.

<動作>
(修復処理の概略)
図5は図4のstep006で示した修復処理の動作を示すフローチャートである。まず画像の色空間をRGB空間からL*a*b*空間に変換する(step201)。続いて、プレーン分解し、L*画像、a*画像、b*画像の3プレーンに分解する(step202)。
<Operation>
(Outline of the repair process)
FIG. 5 is a flowchart showing the operation of the repair process indicated by step 006 in FIG. First, the color space of the image is converted from the RGB space to the L * a * b * space (step 201). Subsequently, the plane is decomposed into three planes of L * image, a * image, and b * image (step 202).

L*画像についてはそのまま修復処理に入る(step203)。一方でa*画像とb*画像については縦横それぞれ半分に縮小し(step204)、修復処理に入る(step205)。ここで述べる修復処理について、それぞれ同様の処理を行うものとする。詳細については後述するが、修復処理は非常に計算量の大きな処理である。続いて、a*画像とb*画像はそれぞれ拡大処理され、縮小前の画像と比較して欠損していた領域だけを修復画像と合成して出力する。それぞれ、修復されたL*画像a*画像およびb*画像はプレーンを統合され(step207)、元のRGB色空間に変換されて出力される(step208)。   The L * image is directly restored (step 203). On the other hand, the a * image and the b * image are reduced by half in the vertical and horizontal directions (step 204), and the restoration process is started (step 205). It is assumed that the same processing is performed for the repair processing described here. Although details will be described later, the restoration process is a process with a large amount of calculation. Subsequently, the a * image and the b * image are respectively enlarged, and only the region that is missing compared with the image before reduction is combined with the repair image and output. In each of the restored L * image a * image and b * image, the planes are integrated (step 207), converted into the original RGB color space, and output (step 208).

ここでL*画像とa*画像b*画像をそれぞれ分けて処理するのは、処理の負荷を下げるためである。L*a*b*色空間は輝度成分であるL*信号と色度成分であるa*b*成分から構成される。一般に人間の目は輝度成分の変化に対して敏感であるが、色度成分の変化については鈍感である。そのため、色度成分については、それほど高精度に修復しなくとも、輝度成分を正確に修復すれば、人間の目には高品位な画質が得られることになる。そこで、本実施形態では、色度成分については低解像度に変換してから修復し、高速な処理が行えるようにしている。   The reason why the L * image and the a * image b * image are processed separately is to reduce the processing load. The L * a * b * color space includes an L * signal that is a luminance component and an a * b * component that is a chromaticity component. In general, the human eye is sensitive to changes in luminance components, but is insensitive to changes in chromaticity components. Therefore, even if the chromaticity component is not restored with such a high degree of accuracy, a high-quality image can be obtained by human eyes if the luminance component is restored accurately. Therefore, in the present embodiment, the chromaticity component is restored after being converted to a low resolution so that high-speed processing can be performed.

本実施形態では輝度成分と色度成分とで同じ処理ではあるが、異なる解像度という構成により高速化を実現したが、他にも様々な方法が考えられる。   In the present embodiment, the luminance component and the chromaticity component are the same processing, but the high speed is realized by the configuration of different resolutions, but various other methods are conceivable.

例えば、輝度成分に関しては非特許文献2記載の手法で修復し、色度成分については、従来技術で述べた拡散方程式を用いた手法で修復しても構わない。従来技術でも述べた通り、拡散方程式を用いた手法は細かい模様などを表現することは難しいが、欠損領域を滑らかに修復可能で、処理も非特許文献2の手法に比べると極めて高速である。そのため輝度成分と色度成分を同じ解像度で処理しても、十分な高速化が望める。勿論、色度成分を低解像度で処理しても構わない。同様に、拡散方程式を用いずとも、色度成分について線形補間で欠損領域を修復しても同様の効果が得られる。   For example, the luminance component may be restored by the method described in Non-Patent Document 2, and the chromaticity component may be restored by the method using the diffusion equation described in the related art. As described in the prior art, a technique using a diffusion equation is difficult to express a fine pattern or the like. However, a defective area can be repaired smoothly, and the processing is much faster than the technique of Non-Patent Document 2. Therefore, even if the luminance component and the chromaticity component are processed with the same resolution, a sufficiently high speed can be expected. Of course, the chromaticity component may be processed at a low resolution. Similarly, the same effect can be obtained even if the missing region is repaired by linear interpolation for the chromaticity component without using the diffusion equation.

また、今回輝度、色度成分を示す色空間としてL*a*b*を用いたが、YCbCr等であっても構わない。   In addition, L * a * b * is used as the color space indicating the luminance and chromaticity components this time, but it may be YCbCr or the like.

(修復処理の詳細)
修復処理は従来技術で述べた、非特許文献2の手法を改良した手法を用いてなされる。大きく分けて3つの改良を施したが、この改良について説明する。
(Details of the repair process)
The restoration process is performed by using a technique obtained by improving the technique of Non-Patent Document 2 described in the prior art. Three major improvements have been made. This improvement will be described.

非特許文献2の手法は前述の通り、欠損領域に含まれる全ての画素に対してパタンマッチによる探索を行わなければならない。更に欠損領域の推定は一度で済まず、エネルギーが十分に小さくなるまで繰り返されるため、非常に大きな計算量が必要になる。これに対し、本手法では、画像データを事前に構造化することで高速化を行っている。これが、第一の改良点である。構造化により処理が高速化できる理由を以下に説明する。   As described above, the method of Non-Patent Document 2 must perform a search by pattern matching for all the pixels included in the defect area. Furthermore, since the estimation of the defect region is not required once and is repeated until the energy becomes sufficiently small, a very large calculation amount is required. In contrast, in this method, the image data is structured in advance to increase the speed. This is the first improvement. The reason why the processing can be speeded up by structuring will be described below.

例えば図6の(イ)で示されるように、ある空間において□で示されるデータが分布しているとする。ここに入力データで有る○が入力されたとし、入力データと最も近い□を求めたい。   For example, as shown in FIG. 6A, it is assumed that data indicated by □ is distributed in a certain space. Suppose that ○ that is input data is input here, I want to find the □ that is closest to the input data.

例えば○と全ての□の総当りで距離を算出し、比較しても良いが、非常に効率が悪い。そこで例えば、データの分布から事前に、(ロ)のように空間を分割しておき、始めにどの空間に入力データが存在するかを求めれば、たった二つの□との距離を算出するだけでよくなる。以上のように、事前に構造化、すなわち、データの分布から空間を分割して置くことで距離算出を効率化できるので高速化が可能となる。   For example, the distance may be calculated and compared for all rounds of ○ and all □, but it is very inefficient. So, for example, if you divide the space in advance as shown in (b) from the distribution of data and find out in which space the input data exists first, just calculate the distance between the two squares. Get better. As described above, since the distance calculation can be made efficient by structuring in advance, that is, by dividing the space from the data distribution, the speed can be increased.

このような構造化による高速化は一般的な手段で有るが、非特許文献2の手法とは極めて相性が良い。例えば、通常の画像認識などで用いられるパタンマッチ処理で構造化を行うことを考えると、構造化により探索処理そのものは高速化が可能である。一方、事前の構造化に比較的大きな計算量が必要となるため、構造化処理と探索処理を含めた総合的な意味では高速化につながらない事も多い。一方、ここまでで説明したように非特許文献2の修復処理のように、同じ画像に対して、何度もパタンマッチを繰り返す処理の場合、構造化したデータを何度も繰り返して利用することが可能であるため、処理が高速化できることになる。   Although speeding up by such structuring is a general means, it is extremely compatible with the method of Non-Patent Document 2. For example, considering that structuring is performed by pattern matching processing used in normal image recognition or the like, the search processing itself can be speeded up by structuring. On the other hand, since a relatively large amount of calculation is required for the prior structuring, the speed is often not increased in a comprehensive sense including the structuring process and the search process. On the other hand, as described above, in the case of processing that repeats pattern matching for the same image many times as in the repair processing of Non-Patent Document 2, structured data is repeatedly used. Therefore, the processing speed can be increased.

続いて、第二の改良点について述べる。図6を用いた例の説明では説明を簡単にするため、入力データがどの空間に存在するかを判定し、該空間でのみ最近傍を行えば良いと述べた。一方、実際には以下の図のように最近傍データが判定した空間とは違う空間に存在してしまうことも発生する。そこで、始めに判定した空間で最も近いデータを探し、そのデータと入力データとの距離l0を算出し、該l0よりも近い可能性が有る空間(図7でいう左上の空間)に含まれるデータについても最近傍探索を行うという処理を行わなければ、厳密な最近傍探索ができない。 Next, the second improvement point will be described. In the description of the example using FIG. 6, for simplicity of explanation, it is determined that the space in which the input data exists is determined, and the nearest neighbor only needs to be performed in the space. On the other hand, as shown in the following figure, the nearest neighbor data may exist in a different space from the determined space. Therefore, the closest data in the first determined space is searched, the distance l 0 between the data and the input data is calculated, and included in the space (the upper left space in FIG. 7) that may be closer to the l 0 . If the process of performing the nearest neighbor search is not performed on the data to be obtained, the exact nearest neighbor search cannot be performed.

そのため、事前に行う空間分割は非常に大切なプロセスである。すなわち、始めに判定した空間におけるデータが十分に近ければ、その後空間を跨いだ最近傍判定を行う回数が少なくなる。一方で、全ての入力データに対して、最適な空間分割を事前に行うことは難しい。   Therefore, the space division performed in advance is a very important process. That is, if the data in the space determined first is sufficiently close, the number of times of performing the nearest neighbor determination across the space is reduced. On the other hand, it is difficult to perform optimal space division in advance for all input data.

そこで、非特許文献3ではApproximate Nearest Neighbor(ANN)と呼ばれる手法が提案されている。ANNではl0よりも近い可能性の有る空間に対して最近傍探索する代わりに、l0よりも小さなlを用いる点が特徴である。厳密な最近傍を得るためには前述のような処理が必要で有るが、最近傍探索に誤差を含むことを許容することにより、高速、かつ最近傍に近いデータを得ることができる。尚、lとl0の関係は以下の数式で表すことができ、εを大きくすればするほど、誤差は大きくなるが、処理速度は高速になる。 Therefore, Non-Patent Document 3 proposes a technique called Approximate Nearest Neighbor (ANN). ANN is characterized in that l smaller than l 0 is used instead of the nearest neighbor search for a space that may be closer than l0. In order to obtain the exact nearest neighbor, the processing as described above is necessary. However, by allowing the nearest neighbor search to include an error, data close to the nearest neighbor can be obtained at high speed. The relationship between l and l 0 can be expressed by the following mathematical formula. As ε increases, the error increases but the processing speed increases.

Figure 2011035567
Figure 2011035567

ANNを使うことが、第二の改良点であるが、ここで、精度が落ちるが高速という点は本手法にとって、非常に適していることを説明する。本手法で行う最近傍探索は、欠損領域を仮に埋めるための画素を決定するために行うものであり、必ずしも厳密な最近傍である必要は無いからである。また、本来εは0〜1程度で利用することが、よく行われているが、本手法のように比較的精度を問わないアプリケーションの場合、ε=10やε=100であっても十分実用に耐えうる。   The use of ANN is the second improvement, but here, it will be explained that the accuracy is low but the high speed is very suitable for this method. This is because the nearest neighbor search performed by this method is performed in order to determine a pixel for temporarily filling a missing area, and is not necessarily a strict nearest neighbor. In addition, it is often performed that ε is originally used in the range of about 0 to 1. However, in the case of an application that does not require a relatively high accuracy like the present method, even if ε = 10 or ε = 100, it is sufficiently practical. Can withstand

また、εを欠損領域の推定が終わるたびに、つまりエネルギー算出するたびに、変化させても、効果が有る。これが第3の改良点である。始めに欠損領域を動埋めるかにも左右されるが、一般に最適化の初期においてはエネルギー、すなわち、推定した画素と、最近傍画素との距離の総和は大きい。つまり、最も近いパターンを探してきても、それほど近いパターンで無いということになる。前述した通り、始めに算出したl0が十分小さければ、精度良く探索するための処理は小さくて済むが、あまり近いパターンが存在しないということは、l0は大きいということに他ならない。つまり、かなりの確率で処理量が大きくなってしまうことになる。一方、繰り返しの末期、つまり、エネルギーが十分に小さくなった後には、逆に精度良く探索をしても処理が大きくならない可能性が高まることになるのでεを小さくすると、精度が上がりつつ処理速度がそれほど落ちないようになる。そこで本手法では、最適化の初期にはεを100とし、欠損領域の推定がN回目として以下の式によりεを変化させる構成とした。但し、εの最小値は5とした。 Further, it is effective to change ε every time estimation of the defect region is completed, that is, whenever energy is calculated. This is the third improvement. Although it depends on whether or not the missing area is initially filled, generally, in the initial stage of optimization, the energy, that is, the sum of the distance between the estimated pixel and the nearest pixel is large. In other words, even if the closest pattern is searched, it is not so close. As described above, if l 0 calculated first is sufficiently small, the process for searching with high accuracy is small, but the fact that there is no very close pattern is that l 0 is large. That is, the processing amount is increased with a considerable probability. On the other hand, after the end of the iteration, that is, after the energy has become sufficiently small, there is a high possibility that the processing will not increase even if the search is performed with high accuracy. Will not fall so much. Therefore, in this method, ε is set to 100 at the initial stage of optimization, and ε is changed according to the following formula when the defect region is estimated for the Nth time. However, the minimum value of ε was 5.

Figure 2011035567
Figure 2011035567

本実施形態ではεをNに対して変化させたが、他にもエネルギーに応じて変化させても問題ない。例えばエネルギーをEとし、初期のエネルギーE0に対して、以下の式でεを変化させても良い。但し、εの最小値は同様に5とする。前述の通りエネルギーが小さくなるほど、l0は小さい可能性が高いためエネルギーに応じてεを変化させるとより精度と速度をより細やかに制御することが可能である。 In the present embodiment, ε is changed with respect to N, but there is no problem even if it is changed according to energy. For example, the energy may be E, and ε may be changed by the following equation with respect to the initial energy E 0 . However, the minimum value of ε is also set to 5. As described above, as the energy decreases, l 0 is likely to be small. Therefore, if ε is changed according to the energy, the accuracy and speed can be controlled more finely.

Figure 2011035567
Figure 2011035567

以上の修復処理の説明を踏まえて、図8に修復処理の詳細フローを記載する。図8において、まず始めに、画像に含まれる画像データを構造化する(step301)。ここで構造化される対象は、注目画素の周辺3×3画素の画素値を並べて作成される9次元のベクトルである(図9)。図9においてグレーの画素(v5)が注目画素で、その周辺画素値v1〜v9が9次元のベクトルとなる。ここで、画像が(n+1)×(m+1)画素だったとすればn×m個の9次元ベクトルが構造化される対象になる。ただし、9つの画素のうち1画素でも欠損領域が含まれる場合には構造化の対象に含めないものとするので、実際のベクトルの数はn×mよりも小さくなる。   Based on the above description of the repair process, FIG. 8 shows a detailed flow of the repair process. In FIG. 8, first, image data included in an image is structured (step 301). The object to be structured here is a 9-dimensional vector created by arranging pixel values of 3 × 3 pixels around the pixel of interest (FIG. 9). In FIG. 9, a gray pixel (v5) is a target pixel, and its peripheral pixel values v1 to v9 are 9-dimensional vectors. Here, if the image is (n + 1) × (m + 1) pixels, n × m 9-dimensional vectors are to be structured. However, if even one of the nine pixels includes a defective region, it is not included in the structuring target, so the actual number of vectors is smaller than n × m.

また、構造化の手法については後述するが、図10に示すように一つのノードに対して一つのベクトルが対応付けられており、各ノードには2つのノードがぶら下がっているといった2分木構造に構造化するものとする。具体的にはkd−treeと呼ばれる手法を用いる。kd−treeは各ノードにおいて、ベクトルを一つの要素(今回の例では9つの要素のうち一つ)の値を用いて2つのカテゴリに分類する二分木手段である。ルートノードから一つの末端のリーフノードまでを極めて小さい計算量で辿ることができる。   Further, although a structuring method will be described later, as shown in FIG. 10, a binary tree structure in which one vector is associated with one node and two nodes are hung from each node. To be structured. Specifically, a technique called kd-tree is used. kd-tree is a binary tree means for classifying a vector into two categories using the value of one element (one of nine elements in this example) at each node. It is possible to trace from the root node to one terminal leaf node with a very small amount of calculation.

続いて、εを算出する(step302)。εの算出方法は数式3(数3)若しくは数式4(数4)を用いて決定すれば良い。その後、欠損領域から一つの画素を選択し、図9を用いた説明と同様に周辺画素を含めた要素を並べる事によって、ベクトルを作成する(step303)。その後最近傍探索を行うが(step304)、ここでは前述したANNを用いることになる。すなわち入力ベクトルをルートノードから辿って、末端のリーフノードを得る。リーフノードと入力ベクトルとの距離l0を算出する。l0からlを算出する。リーフノードから逆にノードを辿り、lよりも近い可能性があるリーフノードを列挙する。列挙したリーフノードの中から入力ベクトルと最も近いノードを見つける。といった手順を踏むことになる。 Subsequently, ε is calculated (step 302). The calculation method of ε may be determined using Equation 3 (Equation 3) or Equation 4 (Equation 4). Thereafter, one pixel is selected from the missing area, and a vector is created by arranging elements including peripheral pixels in the same manner as described with reference to FIG. 9 (step 303). Thereafter, the nearest neighbor search is performed (step 304). Here, the ANN described above is used. That is, the terminal vector is traced from the root node to obtain a terminal leaf node. The distance l 0 between the leaf node and the input vector is calculated. l is calculated from l 0 . The leaf nodes are traced in reverse to enumerate leaf nodes that may be closer than l. Find the closest node to the input vector from the enumerated leaf nodes. The procedure will be followed.

この様に欠損領域における全ての画素に対して最近傍探索を行った後、エネルギーを算出する(step305)。このエネルギーとは従来技術で述べたSSDの和すなわち、欠損領域における画素から得た入力ベクトルと、その最近傍ノードとの距離の総和がエネルギーとなる。   After performing the nearest neighbor search for all the pixels in the defective area in this way, energy is calculated (step 305). This energy is the sum of the SSDs described in the prior art, that is, the sum of the distance between the input vector obtained from the pixel in the defective region and its nearest node.

Step305で算出したエネルギーが十分に小さくなるまで、処理をループさせる。収束判定方法にもいろいろ有るが、今回は前回のループで算出したエネルギーと今回算出したエネルギーとの差が所定の大きさよりも小さくなった場合に処理を終了させるものとする。   The process is looped until the energy calculated in Step 305 is sufficiently small. Although there are various convergence determination methods, this time, the process is terminated when the difference between the energy calculated in the previous loop and the energy calculated this time is smaller than a predetermined magnitude.

以上に述べた本実施形態の構成によれば、欠損領域を含まない領域の画素値を事前に構造化する構造化手段を具備することで、高速、且つ高品位に画像修復を行うことが可能である。また、事前に構造化を行うことにより、極めて効果的に高速化が可能となる。   According to the configuration of the present embodiment described above, it is possible to perform high-speed and high-quality image restoration by providing a structuring unit that pre-structures pixel values of a region that does not include a defective region. It is. Further, by performing the structuring in advance, the speed can be extremely effectively increased.

また、データが二分木に構造化されており、各ノードが一つの画素値の値に基づいて分割されていることで、構造化された画素値パターンから入力画素値パターンと近いパターンを探索することが可能となる。   In addition, since the data is structured in a binary tree and each node is divided based on the value of one pixel value, a pattern close to the input pixel value pattern is searched from the structured pixel value pattern. It becomes possible.

また、近似的に最近傍探索を行うことにより、より高速に最近傍パターンを探索することが可能となる。   Further, by performing the nearest neighbor search approximately, it is possible to search for the nearest neighbor pattern at a higher speed.

また、最適化の各ステップ毎にl0に対するlの値を小さくすることで、最近傍探索の精度劣化を抑制しつつ高速に最近傍を探索することが可能となる。 In addition, by reducing the value of l relative to l 0 for each optimization step, it is possible to search for the nearest neighbor at a high speed while suppressing deterioration in precision of the nearest neighbor search.

また、エネルギーの大きさに応じて、l0に対するlの値を変化することで、最近傍探索の精度劣化を抑制しつつ高速に最近傍を探索することが可能となる。 Further, by changing the value of l with respect to l 0 according to the magnitude of energy, it becomes possible to search for the nearest neighbor at a high speed while suppressing deterioration in precision of the nearest neighbor search.

また、輝度成分と色度成分とに分けて、それぞれに異なる修復処理を施すことにより、処理速度と修復後の画像の品位をきめ細かく制御することが可能となる。   In addition, by dividing the luminance component and the chromaticity component separately and performing different restoration processing, it is possible to finely control the processing speed and the quality of the image after restoration.

また、色度画像は縮小してから修復することにより、人間の目が敏感で有る輝度画像にのみ、処理が重いが高品位な修復を行うことで、高速且つ高品位に修復を行うことができる。   Also, by restoring the chromaticity image after reducing it, it is possible to perform high-speed and high-quality restoration by performing high-quality restoration of heavy processing only for luminance images that are sensitive to human eyes. it can.

また、色度成分について拡散方程式を用いて修復することで、人間の目が敏感である輝度画像にのみ、処理が重いが高品位な修復を行うことで、高速且つ高品位に修復を行うことができる。   In addition, by restoring the chromaticity component using the diffusion equation, only high-quality restoration is performed at high speed by performing high-quality restoration only for luminance images that are sensitive to the human eye, but at high speed. Can do.

また、色度成分については線形補間を用いて修復することで、人間の目が敏感で有る輝度画像にのみ、処理が重いが高品位な修復を行うことで、高速且つ高品位に修復を行うことができる。   Also, the chromaticity component is restored using linear interpolation, and only a luminance image that is sensitive to the human eye is repaired at a high speed and with high quality by performing high-quality restoration with heavy processing. be able to.

以上、本発明を実施するための一形態について述べてきたが、本発明は画像専用IC等でも実装可能である。そのため、Multi Function Printer(MFP)等に搭載すれば、スキャンした文書をMFPの操作液晶上でプレビューし、ユーザにパンチ穴等の修復したい領域を指定させ、該領域について修復して出力するといった利用も考えられる。   Although one mode for carrying out the present invention has been described above, the present invention can also be implemented with an image-dedicated IC or the like. For this reason, if it is installed in a Multi Function Printer (MFP) or the like, the scanned document is previewed on the operation liquid crystal of the MFP, and the user designates an area to be repaired such as a punch hole, and the area is repaired and output. Is also possible.

1 画像処理装置
11 画像入力部
12 画像出力部
13 CPU
14 I/O回路
15 ROM
16 RAM
17 HDD
21 構造化手段
22 修復手段
DESCRIPTION OF SYMBOLS 1 Image processing apparatus 11 Image input part 12 Image output part 13 CPU
14 I / O circuit 15 ROM
16 RAM
17 HDD
21 Structuring means 22 Repairing means

特開2007−286734号公報JP 2007-286734 A 特開2006−332785号公報JP 2006-332785 A

M.Bertalmio, G.Sapiro, V.Caselles and C.Ballester: Image Inpainting, In Proc, SIGGRAPH2000, pp.417-424, 2000.M. Bertalmio, G. Sapiro, V. Caseelles and C. Ballester: Image Inpainting, In Proc, SIGGRAPH2000, pp.417-424, 2000. A.Criminisi, P.Perez and K.Toyama: Region Filling and Object Removal by Exemplar-Based Image Inpainting, IEEE Trance, on Image Processing, Vol.13, No.9, 2004.A. Criminisi, P. Perez and K. Toyama: Region Filling and Object Removal by Exemplar-Based Image Inpainting, IEEE Trance, on Image Processing, Vol. 13, No. 9, 2004. S. Arya, D. M. Mount, N. Netanyahu, R. Silverman, and A. Y. Wu. An optimal algorithm for approximate nearest neighbor searching in fixed dimensions. In 5th ACM-SIAM Symposium Discrete Algorithms, pp. 573582, 1994.S. Arya, D. M. Mount, N. Netanyahu, R. Silverman, and A. Y. Wu.An optimal algorithm for approximate nearest neighbor searching in fixed dimensions.In 5th ACM-SIAM Symposium Discrete Algorithms, pp. 573582, 1994.

Claims (12)

欠損領域を含む入力画像に対して、前記欠損領域を修復する画像処理を行う画像処理装置であって、
前記欠損領域を含まない領域の画素の画素値を構造化する構造化手段と、
構造化された前記画素値に基づいて前記欠損領域に含まれる画素の画素値を推定し、前記欠損領域を修復する画像処理を行う修復手段と、
を具備することを特徴とする、画像処理装置。
An image processing apparatus that performs image processing for repairing the defect area with respect to an input image including the defect area,
Structuring means for structuring pixel values of pixels in a region not including the defective region;
A restoration unit that estimates a pixel value of a pixel included in the defect region based on the structured pixel value and performs image processing to repair the defect region;
An image processing apparatus comprising:
前記修復手段は、
前記欠損領域の画素を中心とする周辺画素値パターンを入力とし、最近傍の画素値パターンを、前記入力画像の前記欠損領域を含まない領域から探索して出力する最近傍探索手段と、
前記欠損領域の画素値を、前記探索により得られた画素値パターンの中心画素値で置き換える画素値置き換え手段と、
前記欠損領域すべてについて前記最近傍探索手段による処理及び前記画素値置き換え手段による処理を行うことをワンステップとして、前記最近傍探索手段における入力パターンと出力パターンの差異に基づいて前記ワンステップごとにエネルギーを算出するエネルギー算出手段と、
前記ワンステップごとに前記エネルギーが収束したか否かを判定する最適化手段と、
を有することを特徴とする、請求項1記載の画像処理装置。
The repair means includes
Nearest neighbor search means for inputting a peripheral pixel value pattern centered on a pixel in the defective area, and searching for and outputting a nearest pixel value pattern from an area not including the defective area of the input image;
Pixel value replacement means for replacing the pixel value of the defective region with the central pixel value of the pixel value pattern obtained by the search;
Performing the processing by the nearest neighbor searching means and the processing by the pixel value replacing means for all the missing regions as one step, and energy for each one step based on the difference between the input pattern and the output pattern in the nearest neighbor searching means. Energy calculating means for calculating
Optimization means for determining whether the energy has converged for each one step;
The image processing apparatus according to claim 1, further comprising:
前記最近傍探索手段は、
木構造のノードを辿って仮の最近傍を見つける仮の最近傍探索手段と、
前記仮の最近傍との距離l0を算出する距離算出手段と、
前記l0に基づいて探索範囲lを決定する探索範囲決定手段と、を有し、
前記lよりも近い可能性があるパターンの中から最近傍を選択することを特徴とする、請求項2記載の画像処理装置。
The nearest neighbor search means includes:
A temporary nearest neighbor search means for finding a temporary nearest neighbor by tracing a node of a tree structure;
Distance calculating means for calculating a distance l 0 with the temporary nearest neighbor;
Search range determining means for determining the search range l based on the l 0 ,
The image processing apparatus according to claim 2, wherein the nearest neighbor is selected from patterns that may be closer to the l.
前記探索範囲決定手段は、前記ワンステップごとに前記l0に対する前記lの値を小さくすることを特徴とする、請求項3記載の画像処理装置。 The image processing apparatus according to claim 3, wherein the search range determination unit decreases the value of l relative to the l 0 for each one step. 前記探索範囲決定手段は、前記エネルギーの大きさに応じて前記l0に対する前記lの値を変化させることを特徴とする、請求項3記載の画像処理装置。 The image processing apparatus according to claim 3, wherein the search range determination unit changes the value of l with respect to the l 0 according to the magnitude of the energy. 前記構造化手段は、二分木構造に前記欠損領域を含まない領域の画素の画素値を構造化し、各ノードが一つの画素値に基づくよう分割することを特徴とする、請求項1から5のいずれか1項記載の画像処理装置。   6. The structuring unit structuring a pixel value of a pixel in a region not including the missing region in a binary tree structure, and dividing each node based on one pixel value. The image processing apparatus according to claim 1. 前記入力画像を輝度画像と色度画像とに変換する色変換手段を具備し、
前記修復手段は、変換された前記輝度画像と色度画像とを異なる解像度で、別々に、前記欠損領域の修復を行うことを特徴とする、請求項1から6のいずれか1項記載の画像処理装置。
Comprising color conversion means for converting the input image into a luminance image and a chromaticity image;
The image according to any one of claims 1 to 6, wherein the repairing unit repairs the defective area separately at different resolutions for the converted luminance image and chromaticity image. Processing equipment.
前記修復手段は、前記色度画像に対して、縮小処理を行った跡で修復処理を行い、該修復処理後に拡大して前記欠損領域を修復することを特徴とする、請求項7記載の画像処理装置。   The image according to claim 7, wherein the repairing unit performs a repairing process on the chromaticity image after performing a reduction process, and expands after the repairing process to repair the missing area. Processing equipment. 前記修復手段は、前記色度画像に対して、拡散方程式を用いて前記欠損領域を修復することを特徴とする、請求項7又は8記載の画像処理装置。   The image processing apparatus according to claim 7, wherein the repairing unit repairs the defective area using a diffusion equation for the chromaticity image. 前記修復手段は、前記色度画像に対して、線形補間を用いて前記欠損領域を修復することを特徴とする、請求項7から9のいずれか1項記載の画像処理装置。   10. The image processing apparatus according to claim 7, wherein the repair unit repairs the missing area using linear interpolation for the chromaticity image. 11. 欠損領域を含む入力画像に対して、前記欠損領域を修復する画像処理を行う画像処理方法であって、
前記欠損領域を含まない領域の画素の画素値を構造化する構造化工程と、
構造化された前記画素値に基づいて前記欠損領域に含まれる画素の画素値を推定し、前記欠損領域を修復する画像処理を行う修復工程と、
を含むことを特徴とする、画像処理方法。
An image processing method for performing image processing for repairing the defect area on an input image including the defect area,
A structuring step for structuring pixel values of pixels in a region not including the defective region;
A repairing step of estimating a pixel value of a pixel included in the defective region based on the structured pixel value and performing image processing to repair the defective region;
An image processing method comprising:
請求項11記載の画像処理方法をコンピュータに実行させるプログラムを記録したことを特徴とする、コンピュータ読取可能な記録媒体。   A computer-readable recording medium having recorded thereon a program for causing a computer to execute the image processing method according to claim 11.
JP2009178262A 2009-07-30 2009-07-30 Image processing apparatus and method thereof, and computer readable recording medium Withdrawn JP2011035567A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009178262A JP2011035567A (en) 2009-07-30 2009-07-30 Image processing apparatus and method thereof, and computer readable recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009178262A JP2011035567A (en) 2009-07-30 2009-07-30 Image processing apparatus and method thereof, and computer readable recording medium

Publications (1)

Publication Number Publication Date
JP2011035567A true JP2011035567A (en) 2011-02-17

Family

ID=43764219

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009178262A Withdrawn JP2011035567A (en) 2009-07-30 2009-07-30 Image processing apparatus and method thereof, and computer readable recording medium

Country Status (1)

Country Link
JP (1) JP2011035567A (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20150046810A (en) * 2013-10-22 2015-05-04 삼성전자주식회사 Method and apparatus for image processing
WO2015093553A1 (en) * 2013-12-20 2015-06-25 Ricoh Company, Ltd. Image generating apparatus, image generating method, and program
JP2015225552A (en) * 2014-05-28 2015-12-14 日本電信電話株式会社 Image generation device and program
US9230309B2 (en) 2013-04-05 2016-01-05 Panasonic Intellectual Property Management Co., Ltd. Image processing apparatus and image processing method with image inpainting
US9495757B2 (en) 2013-03-27 2016-11-15 Panasonic Intellectual Property Management Co., Ltd. Image processing apparatus and image processing method
US9530216B2 (en) 2013-03-27 2016-12-27 Panasonic Intellectual Property Management Co., Ltd. Image processing apparatus and image processing method

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9495757B2 (en) 2013-03-27 2016-11-15 Panasonic Intellectual Property Management Co., Ltd. Image processing apparatus and image processing method
US9530216B2 (en) 2013-03-27 2016-12-27 Panasonic Intellectual Property Management Co., Ltd. Image processing apparatus and image processing method
US9230309B2 (en) 2013-04-05 2016-01-05 Panasonic Intellectual Property Management Co., Ltd. Image processing apparatus and image processing method with image inpainting
KR102158390B1 (en) * 2013-10-22 2020-09-22 삼성전자주식회사 Method and apparatus for image processing
KR20150046810A (en) * 2013-10-22 2015-05-04 삼성전자주식회사 Method and apparatus for image processing
US10186013B2 (en) 2013-12-20 2019-01-22 Ricoh Company, Ltd. Image generating apparatus, image generating method, and program
US20160300323A1 (en) 2013-12-20 2016-10-13 Rocoh Company, Ltd. Image generating apparatus, image generating method, and program
CN105981073A (en) * 2013-12-20 2016-09-28 株式会社理光 Image generating apparatus, image generating method, and program
JP2015121850A (en) * 2013-12-20 2015-07-02 株式会社リコー Image generation device, image generation method, and program
CN105981073B (en) * 2013-12-20 2019-05-28 株式会社理光 Video generation device, image generating method and program
CN110084758A (en) * 2013-12-20 2019-08-02 株式会社理光 Video generation device, image generating method and program
US10628916B2 (en) 2013-12-20 2020-04-21 Ricoh Company, Ltd. Image generating apparatus, image generating method, and program
WO2015093553A1 (en) * 2013-12-20 2015-06-25 Ricoh Company, Ltd. Image generating apparatus, image generating method, and program
CN110084758B (en) * 2013-12-20 2024-04-30 株式会社理光 Image generation device, image generation method, and program
JP2015225552A (en) * 2014-05-28 2015-12-14 日本電信電話株式会社 Image generation device and program

Similar Documents

Publication Publication Date Title
US10810435B2 (en) Segmenting objects in video sequences
US8478072B2 (en) Device, method, and program for image processing
RU2538941C1 (en) Recognition quality enhancements by increasing image resolution
US9014474B2 (en) Systems and methods for multi-resolution inpainting
US20110311134A1 (en) Image masks generated from local color models
JP6443050B2 (en) Image processing apparatus and image processing method
JP2011035567A (en) Image processing apparatus and method thereof, and computer readable recording medium
Kim et al. Example-based super-resolution via structure analysis of patches
US20140368549A1 (en) Adaptive Patch-Based Image Upscaling
US11145032B2 (en) Image processing apparatus, method and storage medium for reducing color noise and false color
US11922598B2 (en) Image processing apparatus, image processing method, and storage medium
JP4983684B2 (en) Image processing apparatus, image processing method, and computer program for image processing
JP6075294B2 (en) Image processing system and image processing method
US9767533B2 (en) Image resolution enhancement based on data from related images
JP6771134B2 (en) Image correction method and image correction device
CN103748613A (en) Anisotropic gradient regularization for image denoising, compression, and interpolation
WO2011033744A1 (en) Image processing device, image processing method, and program for processing image
JP6624061B2 (en) Image processing method, image processing device, and recording medium for storing image processing program
US9230309B2 (en) Image processing apparatus and image processing method with image inpainting
JP4857975B2 (en) Image processing system and image processing program
Qin et al. Automatic semantic content removal by learning to neglect
US9225876B2 (en) Method and apparatus for using an enlargement operation to reduce visually detected defects in an image
Pinjarkar et al. Robust exemplar-based image and video inpainting for object removal and region filling
JP7405370B2 (en) Depth map super resolution device, depth map super resolution method, and depth map super resolution program
US9648208B2 (en) Method and apparatus and using an enlargement operation to reduce visually detected defects in an image

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20121002