JP2015156539A - Image restoration device, method, and program - Google Patents

Image restoration device, method, and program Download PDF

Info

Publication number
JP2015156539A
JP2015156539A JP2014030104A JP2014030104A JP2015156539A JP 2015156539 A JP2015156539 A JP 2015156539A JP 2014030104 A JP2014030104 A JP 2014030104A JP 2014030104 A JP2014030104 A JP 2014030104A JP 2015156539 A JP2015156539 A JP 2015156539A
Authority
JP
Japan
Prior art keywords
image information
observation
state quantity
state
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2014030104A
Other languages
Japanese (ja)
Other versions
JP6308496B2 (en
Inventor
造 田邉
Tsukuru Tanabe
造 田邉
龍 長保
Ryu Nagaho
龍 長保
利博 古川
Toshihiro Furukawa
利博 古川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tokyo University of Science
Original Assignee
Tokyo University of Science
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tokyo University of Science filed Critical Tokyo University of Science
Priority to JP2014030104A priority Critical patent/JP6308496B2/en
Publication of JP2015156539A publication Critical patent/JP2015156539A/en
Application granted granted Critical
Publication of JP6308496B2 publication Critical patent/JP6308496B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Abstract

PROBLEM TO BE SOLVED: To make it possible to remove unnecessary information included in an image.
SOLUTION: An input interface unit 20 acquires, as an observation image, a surface image obtained by reading one surface of a document. A deteriorated image information determination unit 62 calculates a variance value on the basis of pixel values of respective pixels in the observation image and determines, for each pixel in the observation image, whether a set-off is mixed in the pixel or not on the basis of a threshold calculated from the variance value. An estimation unit 65 estimates, on the basis of a calculated state amount and calculated observation amount for each processing region n in the observation image, an optimum value of a state amount of the processing region n as an original image of the processing region n, by using a prediction method based on a state space model.
COPYRIGHT: (C)2015,JPO&INPIT

Description

本発明は、画像復元装置、方法、及びプログラムに関する。   The present invention relates to an image restoration apparatus, method, and program.

従来、画像工学の分野において、劣化した画像から原画像を復元する技術の研究開発が多くなされている。すなわち、原画像情報(所望の情報)に劣化情報(ぼけ、雑音、裏写り等)が混在した劣化画像情報(取得された情報)から劣化画像情報を取り除き、原画像を復元する技術が提案されている。その中で、スキャナなどを用いて両面印刷された文書を読み取ってディジタル画像へ変換する際に、表面に裏面の情報が写りこむことで裏写りが生じてしまう現象が存在する。この裏写り問題は近年の情報のデータベース化が進むとともに注目されている問題であり、この問題を解決するための技術が提案されている。   2. Description of the Related Art Conventionally, in the field of image engineering, much research and development has been made on a technique for restoring an original image from a deteriorated image. In other words, a technique has been proposed in which original image information (desired information) is mixed with deterioration information (blur, noise, show-through, etc.) and the original image is restored by removing the deterioration image information from the deterioration image information (acquired information). ing. Among them, when a double-sided printed document is read using a scanner or the like and converted into a digital image, there is a phenomenon in which show-through occurs because information on the back side is reflected on the front side. This show-through problem is a problem that attracts attention as the database of information in recent years progresses, and a technique for solving this problem has been proposed.

例えば、両面に画像がプリントされた文書をスキャンした際の裏写り(劣化情報)を除去するために、ガンマ補正を用い画像全体の濃度調整を行い、裏写りの除去を行う補正手法が提案されている(例えば、非特許文献1参照)。   For example, in order to remove the show-through (deterioration information) when scanning a document with images printed on both sides, a correction method has been proposed that uses gamma correction to adjust the density of the entire image and remove the show-through. (For example, refer nonpatent literature 1).

また、文書をスキャンした際の裏写り(劣化情報)を除去するために、両面文書の表面および裏面をそれぞれ読取って電子化した画像情報を取得する画像読取り装置と、画像読取り装置によって取得された画像情報を一時的に記憶する画像記憶手段と、画像記憶手段に記憶された画像情報に対して画像処理を行い、画像処理後の画像情報を出力する画像処理手段と、を具備する画像処理装置であって、あらかじめパラメータとして設定される読み取り対象となる文書の画像情報と、画像読取り装置で読み取った文書の裏面の明度情報と、にしたがって読取った文書の表面に現れる裏面による裏写り情報を除去する裏写り情報除去手段を備えることを特徴とする画像処理装置が提案されている。   In addition, in order to remove show-through (deterioration information) when a document is scanned, an image reading device that obtains digitized image information by reading the front and back sides of a double-sided document, and the image reading device An image processing apparatus comprising: image storage means for temporarily storing image information; and image processing means for performing image processing on the image information stored in the image storage means and outputting image information after image processing In addition, according to the image information of the document to be read set as parameters in advance and the brightness information of the back side of the document read by the image reading device, the show-through information due to the back side appearing on the front side of the read document is removed. There has been proposed an image processing apparatus including a show-through information removing unit.

杉山賢二、「実践 映像信号処理」、2008、コロナ社Kenji Sugiyama, “Practical Video Signal Processing”, 2008, Corona

特開2009−224873号公報JP 2009-224873 A

しかしながら、非特許文献1に記載の技術では、両面の画像情報のうち、表面画像情報の薄い色に対しても補正処理が行われるため、カラー画像などに対しては鮮明な裏写り除去が困難である。加えて、補正量を左右するパラメータを一意に決定することが困難である問題も存在する。   However, according to the technique described in Non-Patent Document 1, correction processing is performed even on a light color of the surface image information among the image information on both sides, so that clear show-through removal is difficult for a color image or the like. It is. In addition, there is a problem that it is difficult to uniquely determine a parameter that affects the correction amount.

また、特許文献1に記載の技術では、エッジ抽出による輝度値の変化量をパラメータとして用いることから、エッジの抽出が難しい広範囲に渡る裏写り情報に対しては処理が困難である。また、2値化処理の際で用いる閾値の最適な決定は困難である、という問題がある。   Further, in the technique described in Patent Document 1, since the amount of change in luminance value due to edge extraction is used as a parameter, it is difficult to process show-through information over a wide range where edge extraction is difficult. Further, there is a problem that it is difficult to optimally determine the threshold value used in the binarization process.

本発明は、上記事情に鑑みてなされたものであり、画像情報に含まれるぼけ、雑音および裏写り画像情報からなる劣化画像情報を除去することができる画像復元装置、方法、及びプログラムを提供することを目的とする。   The present invention has been made in view of the above circumstances, and provides an image restoration apparatus, method, and program capable of removing degraded image information including blur, noise, and show-through image information included in image information. For the purpose.

上記目的を達成するために、第1の発明に係る画像復元装置は、原画像情報にぼけおよび雑音が混在した観測画像情報に対し、前記原画像情報を駆動源として含む状態空間モデルに基づく予測法を用い、前記観測画像情報から前記原画像情報を推定する画像復元装置であって、文書を読み取ことにより得られた表面画像情報を、前記観測画像情報として取得する画像取得手段と、前記観測画像情報の各画素の画素値に基づいて分散値を算出し、前記分散値から算出された閾値に基づき、前記各画素にぼけおよび雑音が混在しているか否かを判定する判定手段と、前記観測画像情報の時刻nでの処理領域nにおける状態量を時刻(n−1)での処理領域(n−1)の状態量、前記処理領域(n−1)から前記処理領域nへの状態遷移、及び前記処理領域(n−1)の状態量に含まれない時刻nにおける処理領域nの状態量の要素を含む前記駆動源を用いて算出する状態量算出手段と、時刻nにおける処理領域nの状態量に基づき、前記判定手段によりぼけおよび雑音が混在していると判定された前記処理領域nの各画素の画素値について、前記原画像情報にぼけおよび雑音が加わって観測画像情報となる過程を観測量として算出する観測量算出手段と、時刻nにおける処理領域nを前記状態量算出手段により算出された状態量、及び前記観測量算出手段により算出された観測量に基づいて、前記状態空間モデルに基づく予測法により、時刻nにおける処理領域nの状態量の最適値を原画像情報として推定する推定手段と、を含んで構成されている。   In order to achieve the above object, an image restoration apparatus according to a first aspect of the present invention provides a prediction based on a state space model including the original image information as a drive source for observed image information in which blur and noise are mixed in the original image information. An image restoration device that estimates the original image information from the observed image information using image processing, and obtains surface image information obtained by reading a document as the observed image information, and the observation Determining means for calculating a variance value based on a pixel value of each pixel of image information, and determining whether blur and noise are mixed in each pixel based on a threshold value calculated from the variance value; The state quantity in the processing area n at time n of the observed image information is the state quantity in the processing area (n-1) at time (n-1), and the state from the processing area (n-1) to the processing area n. Transition, and said A state quantity calculating means for calculating using the drive source including an element of the state quantity of the processing area n at the time n not included in the state quantity of the physical area (n−1), and a state quantity of the processing area n at the time n Based on the above, for the pixel value of each pixel in the processing region n determined to have blur and noise mixed by the determination means, observe the process of adding blur and noise to the original image information to become observation image information The state space model based on the observation amount calculation means for calculating the amount, the processing region n at time n based on the state amount calculated by the state amount calculation means, and the observation amount calculated by the observation amount calculation means. And an estimation means for estimating an optimum value of the state quantity of the processing region n at time n as original image information by a prediction method based on the prediction method.

第2の発明に係る画像処理方法は、原画像情報にぼけおよび雑音が混在した観測画像情報に対し、前記原画像情報を駆動源として含む状態空間モデルに基づく予測法を用い、前記観測画像情報から前記原画像情報を推定する画像復元装置であって、かつ、画像取得手段、判定手段、状態量算出手段、観測量算出手段、及び推定手段を含む画像復元装置における画像復元方法であって、前記画像取得手段が、文書を読み取ことにより得られた表面画像情報を、前記観測画像情報として取得するステップと、前記判定手段が、前記観測画像情報の各画素の画素値に基づいて分散値を算出し、前記分散値から算出された閾値に基づき、前記各画素にぼけおよび雑音が混在しているか否かを判定するステップと、前記状態量算出手段が、前記観測画像情報の時刻nでの処理領域nにおける状態量を時刻(n−1)での処理領域(n−1)の状態量、前記処理領域(n−1)から前記処理領域nへの状態遷移、及び前記処理領域(n−1)の状態量に含まれない時刻nにおける処理領域nの状態量の要素を含む前記駆動源を用いて算出するステップと、前記観測量算出手段が、時刻nにおける処理領域nの状態量に基づき、前記判定手段によりぼけおよび雑音が混在していると判定された前記処理領域nの各画素の画素値について、前記原画像情報にぼけおよび雑音が加わって観測画像情報となる過程を観測量として算出するステップと、前記推定手段が、時刻nにおける処理領域nを前記状態量算出手段により算出された状態量、及び前記観測量算出手段により算出された観測量に基づいて、前記状態空間モデルに基づく予測法により、時刻nにおける処理領域nの状態量の最適値を原画像情報として推定するステップと、を含んで構成されている。   An image processing method according to a second invention uses a prediction method based on a state space model including the original image information as a drive source for the observed image information in which blur and noise are mixed in the original image information, and the observed image information An image restoration apparatus for estimating the original image information from the image restoration method in the image restoration apparatus including an image acquisition means, a determination means, a state quantity calculation means, an observation amount calculation means, and an estimation means, The image acquisition unit acquires surface image information obtained by reading a document as the observation image information, and the determination unit calculates a variance value based on a pixel value of each pixel of the observation image information. Calculating, based on a threshold value calculated from the variance value, determining whether blur and noise are mixed in each pixel; and the state quantity calculating means includes the observation image The state quantity in the processing area n at time n in the report is the state quantity in the processing area (n-1) at time (n-1), the state transition from the processing area (n-1) to the processing area n, And the step of calculating using the drive source including an element of the state quantity of the processing region n at time n not included in the state quantity of the processing region (n−1), and the observation amount calculating means at the time n Based on the state quantity of the processing region n, for the pixel value of each pixel of the processing region n determined to be mixed by the determination means, blur and noise are added to the original image information and the observed image A step of calculating an information process as an observation amount; and the estimation unit sets the processing region n at time n to the state amount calculated by the state amount calculation unit and the observation amount calculated by the observation amount calculation unit. On the basis of Wherein the prediction method based on the state space model, and the optimal value of the state quantity of the processing region n at time n is configured to include the steps of estimating the original image information.

第1の発明に係る画像復元装置、第2の発明に係る画像処理方法、及びプログラムによれば、画像に含まれるぼけおよび雑音を除去することができる。   According to the image restoration apparatus according to the first invention, the image processing method according to the second invention, and the program, blur and noise included in the image can be removed.

上記目的を達成するために、第3の発明に係る画像復元装置は、両面に画像を有する文書の一方の面の原画像情報に不必要な情報である他方の面の裏写り画像情報を含むぼけおよび雑音が混在した観測画像情報に対し、前記原画像情報を駆動源として含む状態空間モデルに基づく予測法を用い、前記観測画像情報から前記原画像情報を推定する画像復元装置であって、前記文書の一方の面を読み取ることにより得られた表面画像情報を前記観測画像情報として取得する画像取得手段と、前記観測画像情報の各画素の画素値に基づいて分散値を算出し、前記分散値から算出された閾値に基づき、前記観測画像情報の各画素に裏写り画像情報を含むぼけおよび雑音からなる劣化画像情報が混在しているか否かを判定する裏写り判定手段と、前記観測画像情報における時刻nでの処理領域nの状態量を、時刻(n−1)における処理領域(n−1)の状態量、前記処理領域(n−1)から前記処理領域nへの状態遷移、及び前記処理領域(n−1)の状態量に含まれない前記処理領域nの状態量の要素を含む前記駆動源を用いて算出する状態量算出手段と、前記処理領域nを前記裏写り判定手段によって算出された分散値及び前記処理領域nの状態量に基づいて、前記裏写り判定手段により前記劣化画像情報が混在していると判定された前記処理領域nの各画素について、前記算出された分散値の標準偏差を前記雑音として用いて、前記原画像情報に前記雑音が加わって観測画像情報となる過程を観測量として算出する観測量算出手段と、前記状態量算出手段により算出された状態量、及び前記観測量算出手段により算出された観測量に基づいて、前記状態空間モデルに基づく予測法により、前記処理領域nの状態量の最適値を前記処理領域nの原画像情報として推定する推定手段と、を含んで構成されている。   To achieve the above object, an image restoration apparatus according to a third aspect of the present invention includes show-through image information on the other side, which is unnecessary information on the original image information on one side of a document having images on both sides. An image restoration apparatus for estimating the original image information from the observed image information using a prediction method based on a state space model including the original image information as a drive source for the observed image information in which blur and noise are mixed, Image acquisition means for acquiring surface image information obtained by reading one side of the document as the observed image information, and calculating a variance value based on a pixel value of each pixel of the observed image information, and the variance Show-through determination means for determining whether or not deteriorated image information including blur-out image information and noise including the show-through image information is mixed in each pixel of the observed image information based on a threshold calculated from the value; The state quantity of the processing area n at time n in the image information is the state quantity of the processing area (n-1) at time (n-1), the state transition from the processing area (n-1) to the processing area n. And a state quantity calculating means for calculating using the drive source including an element of the state quantity of the processing area n not included in the state quantity of the processing area (n−1), and the show-through of the processing area n Based on the variance value calculated by the determination unit and the state quantity of the processing region n, the calculation for each pixel of the processing region n determined by the show-through determination unit that the deteriorated image information is mixed. Calculated by the state quantity calculation means and the state quantity calculation means for calculating, as the observation amount, a process in which the noise is added to the original image information to form observation image information, using the standard deviation of the distributed value as the noise. State quantity, and Estimating means for estimating an optimum value of the state quantity of the processing area n as original image information of the processing area n by a prediction method based on the state space model based on the observation quantity calculated by the observation quantity calculating means; , Including.

第4の発明に係る画像処理方法は、両面に画像を有する文書の一方の面の原画像情報に不必要な情報である他方の面の裏写り画像情報を含むぼけおよび雑音が混在した観測画像情報に対し、前記原画像情報を駆動源として含む状態空間モデルに基づく予測法を用い、前記観測画像情報から前記原画像情報を推定する画像復元装置であって、かつ、画像取得手段、裏写り判定手段、状態量算出手段、観測量算出手段、及び推定手段を含む画像復元装置における画像復元方法であって、前記画像取得手段が、前記文書の一方の面を読み取ることにより得られた表面画像情報を前記観測画像情報として取得するステップと、前記裏写り判定手段が、前記観測画像情報の各画素の画素値に基づいて分散値を算出し、前記分散値から算出された閾値に基づき、前記観測画像情報の各画素に裏写り画像情報を含むぼけおよび雑音を含む劣化画像情報が混在しているか否かを判定するステップと、前記状態量算出手段が、前記観測画像情報における時刻nでの処理領域nの状態量を、時刻(n−1)における処理領域(n−1)の状態量、前記処理領域(n−1)から前記処理領域nへの状態遷移、及び前記処理領域(n−1)の状態量に含まれない前記処理領域nの状態量の要素を含む前記駆動源を用いて算出するステップと、前記観測量算出手段が、前記処理領域nを前記裏写り判定手段によって算出された分散値及び前記処理領域nの状態量に基づいて、前記裏写り判定手段により前記劣化画像情報が混在していると判定された前記処理領域nの各画素を、前記算出された分散値の標準偏差を前記雑音として用いて、前記原画像情報に前記雑音が加わって観測画像情報となる過程を観測量として算出するステップと、前記推定手段が、前記状態量算出手段により算出された状態量、及び前記観測量算出手段により算出された観測量に基づいて、前記状態空間モデルに基づく予測法により、前記処理領域nの状態量の最適値を前記処理領域nの原画像情報として推定するステップと、を含んで構成されている。   An image processing method according to a fourth aspect of the present invention is an observation image in which blur and noise are included including show-through image information on the other side, which is unnecessary information on the original image information on one side of a document having images on both sides. An image restoration apparatus for estimating the original image information from the observed image information using a prediction method based on a state space model including the original image information as a drive source for information, and an image acquisition means, show-through An image restoration method in an image restoration apparatus including a determination unit, a state quantity calculation unit, an observation amount calculation unit, and an estimation unit, wherein the image acquisition unit reads a surface of the document and reads the surface image Acquiring the information as the observed image information; and the show-through determining unit calculates a variance value based on a pixel value of each pixel of the observed image information, and based on a threshold value calculated from the variance value. Determining whether or not each pixel of the observed image information is mixed with blurred image information including blurred image information and degraded image information including noise, and the state quantity calculating means includes a time in the observed image information. the state quantity of the processing area n at n, the state quantity of the processing area (n-1) at time (n-1), the state transition from the processing area (n-1) to the processing area n, and the processing A step of calculating using the drive source including an element of the state quantity of the processing area n not included in the state quantity of the area (n−1), and the observation amount calculating means Based on the variance value calculated by the determination unit and the state quantity of the processing region n, each pixel of the processing region n determined by the show-through determination unit to be mixed with the degraded image information is calculated. Standard deviation of the distributed variance A step of calculating as an observed amount a process in which the noise is added to the original image information to become observed image information, and the estimating means includes the state quantity calculated by the state quantity calculating means; and Estimating an optimum value of the state quantity of the processing region n as original image information of the processing region n by a prediction method based on the state space model based on the observation amount calculated by the observation amount calculating means. It is configured to include.

第3の発明に係る画像復元装置、第4の発明に係る画像処理方法、及びプログラムによれば、観測画像情報の各画素の画素値に基づいて分散値を算出し、当該分散値から算出された閾値に基づき、観測画像情報の各画素に裏写り画像情報を含むぼけおよび雑音を含む劣化画像情報が混在しているか否かを判定し、観測画像情報における時刻nでの処理領域nの状態量を、時刻(n−1)における処理領域(n−1)の状態量、処理領域(n−1)から処理領域nへの状態遷移、及び処理領域(n−1)の状態量に含まれない処理領域nの状態量の要素を含む駆動源を用いて算出し、算出された分散値及び処理領域nの状態量に基づいて、劣化画像情報が混在していると判定された処理領域nの各画素を、算出された分散値の標準偏差を雑音として用いて、原画像情報に雑音が加わって観測画像情報となる過程を観測量として算出し、算出された状態量、及び算出された観測量に基づいて、状態空間モデルに基づく予測法により、処理領域nの状態量の最適値を処理領域nの原画像情報として推定することにより、表面画像のみから裏写りを除去することができる。   According to the image restoration device according to the third invention, the image processing method according to the fourth invention, and the program, the variance value is calculated based on the pixel value of each pixel of the observed image information, and is calculated from the variance value. Based on the measured threshold value, it is determined whether each pixel of the observed image information is mixed with blurred image information including blurred image information and degraded image information including noise, and the state of the processing region n at time n in the observed image information The amount is included in the state amount of the processing region (n-1) at time (n-1), the state transition from the processing region (n-1) to the processing region n, and the state amount of the processing region (n-1). A processing region that is calculated using a drive source that includes an element of the state quantity of the processing region n that has not been determined, and that the deteriorated image information is determined to be mixed based on the calculated dispersion value and the state amount of the processing region n For each pixel of n, the standard deviation of the calculated dispersion value is defined as noise. Used to calculate the observed image information by adding noise to the original image information as an observed amount, and based on the calculated state amount and the calculated observed amount, the prediction method based on the state space model, By estimating the optimum value of the state quantity of the processing region n as the original image information of the processing region n, it is possible to remove show-through from only the surface image.

第5の発明に係る画像復元装置は、原画像情報に文書の地色を含むぼけおよび雑音を含む劣化画像情報が混在した観測画像情報に対し、前記原画像情報を駆動源として含む状態空間モデルに基づく予測法を用いて、前記観測画像情報から前記原画像情報を推定する画像復元装置であって、文書を読み取り取得した表面画像情報を前記観測画像情報として取得する画像取得手段と、前記観測画像情報の各画素の画素値に基づき分散値を算出し、前記分散値から算出された閾値に基づいて前記観測画像情報の各画素に前記劣化画像情報が混在しているか否かを判定する地色判定手段と、前記観測画像情報の時刻nにおける処理領域nの状態量を、時刻(n−1)における処理領域(n−1)の状態量、処理領域(n−1)から処理領域nへの状態遷移、及び処理領域(n−1)の状態量に含まれない処理領域nの状態量の要素を含む前記駆動源を用いて算出する状態量算出手段と、時刻nにおける処理領域nの情報及び状態量に基づき、前記地色判定手段により前記劣化画像情報が混在していると判定された前記処理領域nの各画素の画素値を前記劣化画像情報として用い、前記原画像情報に前記劣化画像情報が加わって観測画像情報となる過程を観測量として算出する観測量算出手段と、前記状態量算出手段により算出された状態量、及び前記観測量算出手段により算出された観測量に基づいて、前記状態空間モデルに基づく予測法により、前記処理領域nの状態量の最適値を原画像情報として推定する推定手段と、を含んで構成されている。   An image restoration apparatus according to a fifth aspect of the present invention provides a state space model that includes the original image information as a drive source for the observed image information in which the original image information includes a blurred image including the background color of the document and degraded image information including noise. An image restoration device that estimates the original image information from the observed image information using a prediction method based on the image, the image obtaining means for obtaining the surface image information obtained by reading a document as the observed image information, and the observation A variance value is calculated based on a pixel value of each pixel of image information, and it is determined whether or not the degraded image information is mixed in each pixel of the observed image information based on a threshold value calculated from the variance value. The color determination means and the state quantity of the processing area n at the time n of the observation image information are changed from the state quantity of the processing area (n-1) at the time (n-1), the processing area (n-1) to the processing area n. State to And a state quantity calculation means for calculating using the drive source including an element of the state quantity of the processing area n not included in the state quantity of the processing area (n-1), information on the processing area n at time n, and Based on the state quantity, the pixel value of each pixel in the processing area n determined by the ground color determination means to be mixed is used as the deteriorated image information, and the deteriorated image is used as the original image information. Based on the observation amount calculation means for calculating the process that becomes the observation image information by adding information as an observation amount, the state amount calculated by the state amount calculation means, and the observation amount calculated by the observation amount calculation means, Estimation means for estimating an optimum value of the state quantity of the processing region n as original image information by a prediction method based on the state space model.

第6の発明に係る画像処理方法は、原画像情報に文書の地色を含むぼけおよび雑音を含む劣化画像情報が混在した観測画像情報に対し、前記原画像情報を駆動源として含む状態空間モデルに基づく予測法を用いて、前記観測画像情報から前記原画像情報を推定する画像復元装置であって、かつ、画像取得手段、地色判定手段、状態量算出手段、観測量算出手段、及び推定手段を含む画像復元装置における画像復元方法であって、前記画像取得手段が、文書を読み取り取得した表面画像情報を前記観測画像情報として取得するステップと、前記地色判定手段が、前記観測画像情報の各画素の画素値に基づき分散値を算出し、前記分散値から算出された閾値に基づいて前記観測画像情報の各画素に前記劣化画像情報が混在しているか否かを判定するステップと、前記状態量算出手段が、前記観測画像情報の時刻nにおける処理領域nの状態量を、時刻(n−1)における処理領域(n−1)の状態量、処理領域(n−1)から処理領域nへの状態遷移、及び処理領域(n−1)の状態量に含まれない処理領域nの状態量の要素を含む前記駆動源を用いて算出するステップと、前記観測量算出手段が、時刻nにおける処理領域nの情報及び状態量に基づき、前記地色判定手段により前記劣化画像情報が混在していると判定された前記処理領域nの各画素の画素値を前記劣化画像情報として用い、前記原画像情報に前記劣化画像情報が加わって観測画像情報となる過程を観測量として算出するステップと、前記推定手段が、前記状態量算出手段により算出された状態量、及び前記観測量算出手段により算出された観測量に基づいて、前記状態空間モデルに基づく予測法により、前記処理領域nの状態量の最適値を原画像情報として推定するステップと、を含んで構成されている。   An image processing method according to a sixth aspect of the present invention provides a state space model including the original image information as a drive source for the observed image information in which the original image information includes a blurred image including the background color of the document and degraded image information including noise. An image restoration device for estimating the original image information from the observed image information using a prediction method based on the image, and an image acquisition unit, a ground color determination unit, a state quantity calculation unit, an observation amount calculation unit, and an estimation An image restoration method in an image restoration apparatus including: a step in which the image acquisition unit acquires surface image information obtained by reading a document as the observation image information; and the ground color determination unit includes the observation image information. A variance value is calculated based on the pixel value of each pixel, and it is determined whether or not the degraded image information is mixed in each pixel of the observed image information based on a threshold value calculated from the variance value. And the state quantity calculation means determines the state quantity of the processing area n at time n of the observation image information as the state quantity of the processing area (n−1) at time (n−1), and the processing area (n−1). ) To the processing region n, and the step of calculating using the driving source including the state quantity element of the processing region n not included in the processing region (n−1) state quantity, and the observation amount calculation The means determines the pixel value of each pixel of the processing region n determined by the ground color determination unit as a mixture of the deteriorated image information based on the information and state quantity of the processing region n at time n. A step of calculating, as an observation amount, a process in which the degraded image information is added to the original image information to become observation image information, and the estimation means includes the state quantity calculated by the state quantity calculation means, and Observation amount calculation Based on the observation amount calculated by the step, the prediction method based on the state space model, the optimum value of the state quantity of the processing region n is configured to include the steps of estimating the original image information.

第5の発明に係る画像復元装置、第6の発明に係る画像処理方法、及びプログラムによれば、観測画像情報の各画素の画素値に基づき分散値を算出し、当該分散値から算出された閾値に基づいて観測画像情報の各画素に劣化画像情報が混在しているか否かを判定し、観測画像情報の時刻nにおける処理領域nの状態量を、時刻(n−1)における処理領域(n−1)の状態量、処理領域(n−1)から処理領域nへの状態遷移、及び処理領域(n−1)の状態量に含まれない処理領域nの状態量の要素を含む駆動源を用いて算出し、時刻nにおける処理領域nの情報及び状態量に基づき、劣化画像情報が混在していると判定された処理領域nの各画素の画素値を劣化画像情報として用い、原画像情報に劣化画像情報が加わって観測画像情報となる過程を観測量として算出し、算出された状態量、及び算出された観測量に基づいて、状態空間モデルに基づく予測法により、処理領域nの状態量の最適値を原画像情報として推定することにより、地色を除去することができる。   According to the image restoration device according to the fifth invention, the image processing method according to the sixth invention, and the program, the variance value is calculated based on the pixel value of each pixel of the observed image information, and is calculated from the variance value. Based on the threshold value, it is determined whether or not the degraded image information is mixed in each pixel of the observed image information, and the state quantity of the processing region n at the time n of the observed image information is determined as the processing region at the time (n−1) ( n-1) state quantity, state transition from the processing area (n-1) to the processing area n, and driving including state quantity elements not included in the processing area (n-1) state quantity. The pixel value of each pixel in the processing region n that is determined to be mixed based on the information and state quantity of the processing region n at time n is used as the deteriorated image information. Deteriorated image information is added to image information, and observation image information Process as an observed quantity, and based on the calculated state quantity and the calculated observed quantity, an optimal value of the state quantity in the processing region n is estimated as original image information by a prediction method based on the state space model. Thus, the ground color can be removed.

第7の発明に係る画像復元装置は、両面に画像を有する文書の一方の面の読取り原画像情報に劣化画像情報である他方の面の裏写り情報を含む、ぼけおよび雑音が混在した観測画像情報に対し、原画像情報を駆動源として含む状態空間モデルに基づく予測法を用い、前記観測画像情報から前記原画像情報を推定する画像復元装置であって、前記文書の両面を各々読み取り表面画像情報及び裏面画像情報を取得し、前記表面画像情報を前記観測画像情報とする画像取得手段と、前記観測画像情報の時刻nでの処理領域nにおける状態量を、時刻(n−1)における処理領域(n−1)の状態量、処理領域(n−1)から処理領域nへの状態遷移、及び処理領域(n−1)の状態量に含まれない前記処理領域nの状態量の要素を含む前記駆動源を用いて算出する状態量算出手段と、前記観測画像情報の時刻nにおける処理領域nの状態量、及び前記裏面画像情報に基づいて、前記裏面画像情報を水平方向に反転させた画像情報における時刻nにおける処理領域nに対応する領域の情報に基づき算出された値を前記劣化画像情報として用い、前記原画像情報に前記劣化画像情報が加わって観測画像情報となる過程を観測量として算出する観測量算出手段と、前記表面画像情報の時刻nにおける処理領域nを前記状態量算出手段により算出された状態量、及び前記観測量算出手段により算出された観測量に基づいて、前記状態空間モデルに基づく予測法により、前記処理領域nの状態量の最適値を前記処理領域nの原画像情報として推定する推定手段と、を含んで構成されている。   An image restoration apparatus according to a seventh aspect of the present invention includes an observation image in which blur and noise are mixed, including read-out image information on one side of a document having images on both sides and show-through information on the other side as degraded image information. An image restoration apparatus for estimating the original image information from the observed image information by using a prediction method based on a state space model including the original image information as a drive source for information, and reading both surfaces of the document respectively Information and back surface image information, image acquisition means using the front surface image information as the observed image information, and a state quantity in the processing region n at time n of the observed image information is processed at time (n−1). State quantity of region (n-1), state transition from processing region (n-1) to processing region n, and element of state amount of processing region n not included in state amount of processing region (n-1) Including the drive source And calculating the state quantity at the time n in the image information obtained by inverting the back side image information in the horizontal direction based on the state quantity of the processing region n at the time n of the observation image information and the back side image information. An observation amount calculation that uses, as the deteriorated image information, a value calculated based on information on a region corresponding to the processing region n, and calculates a process in which the deteriorated image information is added to the original image information to become observation image information as an observation amount And a prediction based on the state space model based on the state quantity calculated by the state quantity calculation means and the observation quantity calculated by the observation quantity calculation means for the processing region n at time n of the surface image information And estimating means for estimating an optimum value of the state quantity of the processing region n as original image information of the processing region n.

第8の発明に係る画像処理方法は、両面に画像を有する文書の一方の面の読取り原画像情報に劣化画像情報である他方の面の裏写り情報を含む、ぼけおよび雑音が混在した観測画像情報に対し、原画像情報を駆動源として含む状態空間モデルに基づく予測法を用い、前記観測画像情報から前記原画像情報を推定する画像復元装置であって、かつ、画像取得手段、状態量算出手段、観測量算出手段、及び推定手段を含む画像復元装置における画像復元方法であって、前記画像取得手段が、前記文書の両面を各々読み取り表面画像情報及び裏面画像情報を取得し、前記表面画像情報を前記観測画像情報とするステップと、前記状態量算出手段が、前記観測画像情報の時刻nでの処理領域nにおける状態量を、時刻(n−1)における処理領域(n−1)の状態量、処理領域(n−1)から処理領域nへの状態遷移、及び処理領域(n−1)の状態量に含まれない前記処理領域nの状態量の要素を含む前記駆動源を用いて算出するステップと、前記観測量算出手段が、前記観測画像情報の時刻nにおける処理領域nの状態量、及び前記裏面画像情報に基づいて、前記裏面画像情報を水平方向に反転させた画像情報における時刻nにおける処理領域nに対応する領域の情報に基づき算出された値を前記劣化画像情報として用い、前記原画像情報に前記劣化画像情報が加わって観測画像情報となる過程を観測量として算出するステップと、前記推定手段が、前記表面画像情報の時刻nにおける処理領域nを前記状態量算出手段により算出された状態量、及び前記観測量算出手段により算出された観測量に基づいて、前記状態空間モデルに基づく予測法により、前記処理領域nの状態量の最適値を前記処理領域nの原画像情報として推定するステップと、を含んで構成されている。   An image processing method according to an eighth aspect of the present invention is an observation image in which blur and noise are mixed, wherein the original image information on one side of a document having images on both sides includes the show-through information on the other side as degraded image information. An image restoration apparatus for estimating the original image information from the observed image information using a prediction method based on a state space model including the original image information as a drive source for information, and an image acquisition unit and a state quantity calculation An image restoration method in an image restoration apparatus including a means, an observation amount calculation means, and an estimation means, wherein the image acquisition means reads both sides of the document to obtain front surface image information and back surface image information, and The step of setting the information as the observed image information, and the state quantity calculating means determine the state quantity in the processing area n at time n of the observed image information as the processing area (n-1) at time (n−1). 1) the state quantity, the state transition from the processing area (n−1) to the processing area n, and the driving including the state quantity elements not included in the processing area (n−1) state quantity. A step of calculating using a source, and the observation amount calculation means inverts the back surface image information in the horizontal direction based on the state quantity of the processing region n at time n of the observation image information and the back surface image information. Using the value calculated based on the information of the region corresponding to the processing region n at time n in the obtained image information as the deteriorated image information, and observing the process in which the deteriorated image information is added to the original image information to become the observed image information A step of calculating as a quantity; and the estimating means is calculated by the state quantity calculated by the state quantity calculating means and the observation quantity calculating means for the processing region n at time n of the surface image information. Based on the observed quantity, the prediction method based on the state space model is configured to include the steps of: estimating the optimum value of the state quantity of the processing region n as an original image information of the processing region n.

第7の発明に係る画像復元装置、第8の発明に係る画像処理方法、及びプログラムによれば、文書の両面を各々読み取り表面画像情報及び裏面画像情報を取得し、表面画像情報を観測画像情報とし、観測画像情報の時刻nでの処理領域nにおける状態量を、時刻(n−1)における処理領域(n−1)の状態量、処理領域(n−1)から処理領域nへの状態遷移、及び処理領域(n−1)の状態量に含まれない処理領域nの状態量の要素を含む駆動源を用いて算出し、観測画像情報の時刻nにおける処理領域nの状態量、及び裏面画像情報に基づいて、裏面画像情報を水平方向に反転させた画像情報における時刻nにおける処理領域nに対応する領域の情報に基づき算出された値を劣化画像情報として用い、原画像情報に劣化画像情報が加わって観測画像情報となる過程を観測量として算出し、表面画像情報の時刻nにおける処理領域nを、算出された状態量、及び算出された観測量に基づいて、状態空間モデルに基づく予測法により、処理領域nの状態量の最適値を処理領域nの原画像情報として推定することにより、精度よく裏写りを除去することができる。   According to the image restoration apparatus according to the seventh invention, the image processing method and the program according to the eighth invention, both sides of the document are respectively read to acquire the front surface image information and the back surface image information, and the front surface image information is converted into the observed image information. And the state quantity in the processing area n at the time n of the observed image information is the state quantity in the processing area (n-1) at the time (n-1) and the state from the processing area (n-1) to the processing area n. The state quantity of the processing region n at the time n of the observation image information, calculated using a drive source including the transition and the state quantity element of the processing region n not included in the state quantity of the processing region (n−1), and Based on the backside image information, the image information obtained by inverting the backside image information in the horizontal direction uses the value calculated based on the information of the region corresponding to the processing region n at time n as the deteriorated image information, and deteriorates to the original image information. Image information added The process that becomes the observation image information is calculated as an observation amount, and the processing region n at the time n of the surface image information is calculated based on the calculated state amount and the calculated observation amount by a prediction method based on the state space model. By estimating the optimum value of the state quantity of the processing region n as the original image information of the processing region n, the show-through can be accurately removed.

上記第7の発明に係る画像復元装置、及び第8の発明に係る画像処理方法は、前記画像取得手段により取得された前記表面画像情報と前記裏面画像情報との間の位置合わせを行い、前記観測画像情報内の時刻nにおける処理領域nの領域を、前記裏面画像情報に対して設定する位置変化量設定手段を更に含むようにすることができる。   The image restoration apparatus according to the seventh invention and the image processing method according to the eighth invention perform alignment between the front surface image information and the back surface image information acquired by the image acquisition means, and It is possible to further include position change amount setting means for setting the region of the processing region n at time n in the observation image information with respect to the back surface image information.

上記第3の発明に係る画像復元装置、及び第4の発明に係る画像処理方法における前記裏写り判定手段は、前記観測画像情報の部分領域の各画素値に基づいて分散値を算出し、前記分散値から算出された閾値に基づき前記部分領域の各画素に前記劣化画像情報が混在しているか否かを判定し、前記観測量算出手段は、前記観測画像情報の時刻nにおける処理領域nが前記裏写り判定手段により、前記処理領域nを含む部分領域について算出された前記分散値及び処理領域nの状態量に基づき、前記裏写り判定手段によって前記劣化画像情報が混在していると判定された前記処理領域nの各画素が前記部分領域について算出された前記分散値の標準偏差を前記雑音として用い、前記原画像情報に前記雑音が加わって観測画像情報となる過程を観測量として算出するようにすることができる。   The show-through determination means in the image restoration device according to the third invention and the image processing method according to the fourth invention calculates a variance value based on each pixel value of the partial region of the observation image information, and Based on the threshold value calculated from the variance value, it is determined whether or not the deteriorated image information is mixed in each pixel of the partial area, and the observation amount calculating means determines that the processing area n at time n of the observed image information is Based on the variance value calculated for the partial region including the processing region n and the state quantity of the processing region n, the show-through determination unit determines that the deteriorated image information is mixed. In addition, each pixel in the processing area n uses the standard deviation of the variance value calculated for the partial area as the noise, and observes the process in which the noise is added to the original image information to become observation image information. It can be calculated as the amount.

上記第5の発明に係る画像復元装置、及び第6の発明に係る画像処理方法における前記地色判定手段は、前記観測画像情報の各部分領域の各画素値に基づいて分散値を算出し、前記分散値から算出された閾値に基づき前記部分領域の各画素に前記地色が混在しているか否かを判定し、前記観測量算出手段は、前記観測画像の処理領域nに前記地色判定手段によって処理領域nを含む部分領域について算出された前記分散値及び前記処理領域nの状態量に基づいて、前記地色判定手段によって前記地色が混在していると判定された処理領域nの各画素について、部分領域について算出された前記分散値の標準偏差を前記雑音として用いて、前記原画像情報に前記雑音が加わって観測画像情報となる過程を観測量として算出するようにすることができる。   The ground color determination means in the image restoration device according to the fifth invention and the image processing method according to the sixth invention calculates a variance value based on each pixel value of each partial region of the observed image information, Based on a threshold value calculated from the variance value, it is determined whether or not the ground color is mixed in each pixel of the partial area, and the observation amount calculating means determines the ground color in the processing area n of the observation image. Based on the variance value calculated for the partial region including the processing region n by the means and the state quantity of the processing region n, the processing color n of the processing region n determined by the ground color determination unit to be mixed For each pixel, using the standard deviation of the variance value calculated for the partial region as the noise, a process in which the noise is added to the original image information to become observation image information is calculated as an observation amount. Kill.

上記各発明は、各手段の処理を、前記観測画像情報に対して設定した部分領域L毎に行うようにすることができる。   In each of the above inventions, the processing of each means can be performed for each partial region L set for the observation image information.

また、前記処理領域nは、前記処理領域(n−1)と一部重複するように設定されるようにすることができる。   The processing area n may be set so as to partially overlap the processing area (n−1).

本発明に係るプログラムは、コンピュータを、上記画像復元装置の各手段として機能させるためのプログラムである。   The program according to the present invention is a program for causing a computer to function as each unit of the image restoration apparatus.

以上説明したように、本発明の画像復元装置、方法、及びプログラムによれば、画像に含まれる不必要な情報を除去することができる、という効果が得られる。   As described above, according to the image restoration apparatus, method, and program of the present invention, there is an effect that unnecessary information included in an image can be removed.

第1、第2及び第3の実施の形態に係る画像復元装置の概略構成を示すブロック図である。It is a block diagram which shows schematic structure of the image restoration apparatus which concerns on 1st, 2nd and 3rd Embodiment. 画像に対して設定される部分領域と処理領域とを説明するための図である。It is a figure for demonstrating the partial area | region and processing area which are set with respect to the image. 第1の実施の形態における画像復元処理部の概略構成を示すブロック図である。It is a block diagram which shows schematic structure of the image restoration process part in 1st Embodiment. 画像の劣化過程を説明するための図である。It is a figure for demonstrating the degradation process of an image. 画像の劣化原理を説明するための図である。It is a figure for demonstrating the degradation principle of an image. 第1の実施の形態における画像復元処理の前半部分の内容を示すフローチャートである。It is a flowchart which shows the content of the first half part of the image restoration process in 1st Embodiment. 第1の実施の形態における画像復元処理の後半部分の内容を示すフローチャートである。It is a flowchart which shows the content of the second half part of the image restoration process in 1st Embodiment. 同一の状態量を持つ領域を説明するための図である。It is a figure for demonstrating the area | region which has the same state quantity. 本実施の形態における状態量算出処理の内容を示すフローチャートである。It is a flowchart which shows the content of the state quantity calculation process in this Embodiment. 第1の実施の形態における状態n−1の状態ベクトルと状態nの状態ベクトルとの構成を説明するための図である。It is a figure for demonstrating the structure of the state vector of the state n-1 and the state vector of the state n in 1st Embodiment. 第1の実施の形態における状態方程式の構成を示すイメージ図である。It is an image figure which shows the structure of the state equation in 1st Embodiment. 第1の実施の形態における観測方程式の構成を示すイメージ図である。It is an image figure which shows the structure of the observation equation in 1st Embodiment. 本実施の形態における状態空間に基づく予測処理の内容を示すフローチャートである。It is a flowchart which shows the content of the prediction process based on the state space in this Embodiment. 発明手法1のシミュレーションに用いた画像を示す図である。It is a figure which shows the image used for the simulation of the method 1 of invention. 発明手法1のシミュレーション結果(視覚評価)の一例を示す図である。It is a figure which shows an example of the simulation result (visual evaluation) of the method 1 of invention. 図15の一部拡大図である。FIG. 16 is a partially enlarged view of FIG. 15. 第2の実施の形態における画像復元処理部の概略構成を示すブロック図である。It is a block diagram which shows schematic structure of the image restoration process part in 2nd Embodiment. 第2の実施の形態における画像復元処理の前半部分の内容を示すフローチャートである。It is a flowchart which shows the content of the first half part of the image restoration process in 2nd Embodiment. 発明手法2のシミュレーションに用いた画像を示す図である。It is a figure which shows the image used for the simulation of the method 2 of invention. 発明手法2のシミュレーション結果(視覚評価)の一例を示す図である。It is a figure which shows an example of the simulation result (visual evaluation) of the method 2 of invention. 図20の一部拡大図である。FIG. 21 is a partially enlarged view of FIG. 20. 発明手法2のシミュレーション結果(視覚評価)の他の例を示す図である。It is a figure which shows the other example of the simulation result (visual evaluation) of the method 2 of invention. 図22の一部拡大図である。FIG. 23 is a partially enlarged view of FIG. 22. 第3の実施の形態における主記憶部の概略構成を示すブロック図である。It is a block diagram which shows schematic structure of the main memory part in 3rd Embodiment. 第3の実施の形態における画像復元処理部の概略構成を示すブロック図である。It is a block diagram which shows schematic structure of the image restoration process part in 3rd Embodiment. 第3の実施の形態における画像復元処理の前半部分の内容を示すフローチャートである。It is a flowchart which shows the content of the first half part of the image restoration process in 3rd Embodiment. 第3の実施の形態における状態方程式の構成を示すイメージ図である。It is an image figure which shows the structure of the state equation in 3rd Embodiment. 第3の実施の形態における、表面画像における状態nの状態ベクトルと、裏面画像における状態nの状態ベクトルとの構成を説明するための図である。It is a figure for demonstrating the structure of the state vector of the state n in a front surface image, and the state vector of the state n in a back surface image in 3rd Embodiment. 第3の実施の形態における観測方程式の構成を示すイメージ図である。It is an image figure which shows the structure of the observation equation in 3rd Embodiment. 発明手法3のシミュレーションに用いた画像の一例を示す図である。It is a figure which shows an example of the image used for the simulation of the method 3 of invention. 発明手法3のシミュレーション結果(視覚評価)の一例を示す図である。It is a figure which shows an example of the simulation result (visual evaluation) of the method 3 of an invention. 図31の一部拡大図である。FIG. 32 is a partially enlarged view of FIG. 31. 発明手法3のシミュレーション結果(視覚評価)の他の例を示す図である。It is a figure which shows the other example of the simulation result (visual evaluation) of the method 3 of invention. 図33の一部拡大図である。It is a partially enlarged view of FIG. 発明手法3のシミュレーション結果(主観評価)を示す図である。It is a figure which shows the simulation result (subjective evaluation) of the method 3 of an invention. 発明手法3のシミュレーションに用いた画像の他の例を示す図である。It is a figure which shows the other example of the image used for the simulation of the method 3 of invention. 発明手法3のシミュレーション結果(視覚評価)を示す図である。It is a figure which shows the simulation result (visual evaluation) of the method 3 of invention. 図37の一部拡大図である。FIG. 38 is a partially enlarged view of FIG. 37. 発明手法3のシミュレーション結果(視覚評価)を示す図である。It is a figure which shows the simulation result (visual evaluation) of the method 3 of invention. 図39の一部拡大図である。FIG. 40 is a partially enlarged view of FIG. 39. 図39の一部拡大図である。FIG. 40 is a partially enlarged view of FIG. 39.

以下、図面を参照して本発明の実施の形態を詳細に説明する。   Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.

<第1の実施の形態>
まず、第1の実施の形態について説明する。第1の実施の形態に係る画像復元装置は、両面に画像を有する文書の一方の面の原画像情報に劣化画像情報である他方の面の裏写り画像情報を含むぼけと雑音が混在した観測画像情報のシステムにおける状態空間モデルであって、かつ、原画像情報を駆動源として含む状態空間モデルに基づく予測法を用いて、観測画像情報から、原画像情報を推定する。
<First Embodiment>
First, the first embodiment will be described. The image restoration apparatus according to the first embodiment is an observation in which the original image information on one side of a document having images on both sides includes blurring and noise including the show-through image information on the other side, which is degraded image information. The original image information is estimated from the observed image information by using a prediction method based on a state space model in an image information system and including a state space model including the original image information as a drive source.

第1の実施の形態では、両面に画像を有する文書を対象とし、文書の一方の面の原画像情報に劣化画像情報である他方の面の裏写り画像情報を含むぼけと雑音が混在した観測画像情報(表面画像情報)から、原画像情報を推定する画像復元装置に本発明を適用した場合について説明する。   In the first embodiment, a document having images on both sides is targeted, and the original image information on one side of the document includes blurring and noise including the show-through image information on the other side as degraded image information. A case where the present invention is applied to an image restoration apparatus that estimates original image information from image information (surface image information) will be described.

図1に示すように、第1の実施の形態に係る画像復元装置10は、CPU、ROM、RAM、及びHDDを含むコンピュータで構成されており、入力インタフェース部20、操作部30、記憶部40、画像復元処理部60、及び出力インタフェース部70を備えている。入力インタフェース部20は、画像取得手段の一例である。   As shown in FIG. 1, the image restoration apparatus 10 according to the first embodiment includes a computer including a CPU, a ROM, a RAM, and an HDD, and includes an input interface unit 20, an operation unit 30, and a storage unit 40. The image restoration processing unit 60 and the output interface unit 70 are provided. The input interface unit 20 is an example of an image acquisition unit.

入力インタフェース部20は、文書の一方の面を読み取ることにより得られた表面画像情報を、観測画像情報として取得する。すなわち、入力インタフェース部20は、画像入力装置から提供される画像情報をコンピュータで処理可能なデータ形式に変換するなどの入力処理を行う。入力インタフェース部20は、画像取得手段の一例である。また、文書を読み取る方法の一例として、図2に図示しているとおり、読取り文書の横幅N×長さ方向Mの部分領域Lを読取り単位として文書を読み取り、部分領域毎に得られた画像情報(L+(L+1)+・・・+(L+n))を結合して、読取り文書全体の表面画像情報が得られる。   The input interface unit 20 acquires surface image information obtained by reading one side of the document as observation image information. That is, the input interface unit 20 performs input processing such as converting image information provided from the image input device into a data format that can be processed by a computer. The input interface unit 20 is an example of an image acquisition unit. As an example of a method for reading a document, as shown in FIG. 2, the document is read using a partial area L in the horizontal width N × longitudinal direction M of the read document as a reading unit, and image information obtained for each partial area. (L + (L + 1) +... + (L + n)) is combined to obtain surface image information of the entire read document.

画像入力装置は、処理の対象となる画像情報(観測画像情報)をデジタルデータとしてコンピュータに入力するための入力装置であり、動画像を構成する時系列に連続した各フレームの各画像情報を画像復元装置10に入力する。画像入力装置としては、例えば、カメラ、記録メディア、モデムなどを用いることができる。カメラは、撮像機能を有する全ての装置を意味し、例えば、デジタルビデオカメラの他に、カメラ機能を搭載した携帯電話や、防犯カメラ(監視カメラ)、画像診断を行うための医療機器(内視鏡、レントゲン、エコー、CT、MRIなど)などを含むことができる。記録メディアは、画像情報を記録可能な記録媒体を広く意味し、例えば、磁気ディスク(HDDやFDなど)や、光ディスク(CDやDVD、BDなど)、光磁気ディスク(MO)、フラッシュメモリ(メモリカードやUSBメモリなど)などである。モデムは、外部の通信ネットワーク(例えば、電話回線やLAN、インターネットなど)と接続するための装置である。なお、画像入力装置の種類は、画像復元装置10の用途に応じて適用可能なものを選択すればよい。本実施の形態では、画像入力装置としてスキャナを想定する。   The image input device is an input device for inputting image information (observation image information) to be processed as digital data to a computer, and images each piece of image information of each successive frame constituting a moving image. Input to the restoration device 10. For example, a camera, a recording medium, a modem, or the like can be used as the image input device. A camera means any device having an imaging function. For example, in addition to a digital video camera, a mobile phone equipped with a camera function, a security camera (surveillance camera), a medical device for performing image diagnosis (internal view) Mirror, X-ray, echo, CT, MRI, etc.). Recording media widely mean recording media capable of recording image information. For example, magnetic media (HDD, FD, etc.), optical discs (CD, DVD, BD, etc.), magneto-optical discs (MO), flash memory (memory) Card, USB memory, etc.). The modem is a device for connecting to an external communication network (for example, a telephone line, a LAN, the Internet, etc.). Note that the type of the image input device may be selected according to the use of the image restoration device 10. In the present embodiment, a scanner is assumed as the image input device.

図示は省略するが、入力インタフェース部20は、画像入力装置の種類に応じて別個独立に設けられる。例えば、記録メディアの入力インタフェース部20は、ドライブとも呼ばれ、記録メディアの種類に応じて様々な種類のドライブが使用可能である。なお、ドライブは、記録メディアを読み書きする装置であり、記録メディアに関する限り、通常は、入力インタフェース部20と出力インタフェース部70とは一体化されている。また、通常、モデムは、画像入力装置としても画像出力装置としても機能しうるため、モデムに関しても、通常、入力インタフェース部20と出力インタフェース部70とは一体化されている。入力インタフェース部20は、コンピュータ本体の内部に格納された内蔵カード(ボード)であってもよいし、内部インタフェース部(図示省略)を介して接続された外部設置型機器であってもよい。   Although not shown, the input interface unit 20 is provided separately and independently according to the type of the image input device. For example, the recording medium input interface unit 20 is also called a drive, and various types of drives can be used depending on the type of the recording medium. The drive is a device that reads and writes recording media. As far as recording media are concerned, the input interface unit 20 and the output interface unit 70 are usually integrated. In general, a modem can function as both an image input device and an image output device. Therefore, the input interface unit 20 and the output interface unit 70 are usually integrated with respect to the modem. The input interface unit 20 may be a built-in card (board) stored inside the computer main body, or may be an externally installed device connected via an internal interface unit (not shown).

なお、画像入力装置が画像情報をアナログデータとして出力する場合、対応する入力インタフェース部20は、サンプリング部及びA/D変換部(共に図示せず)を有する。サンプリング部は、所定のサンプリング周波数で、入力されたアナログ信号をサンプリング処理し、A/D変換部に出力する。サンプリング周波数は、復元処理となる画像の種類に応じて変更可能である。A/D変換部は、サンプリングされた信号の振幅値を所定の分解能でA/D変換処理する。   When the image input apparatus outputs image information as analog data, the corresponding input interface unit 20 includes a sampling unit and an A / D conversion unit (both not shown). The sampling unit samples the input analog signal at a predetermined sampling frequency and outputs the sampled analog signal to the A / D conversion unit. The sampling frequency can be changed according to the type of image to be restored. The A / D converter performs A / D conversion processing on the amplitude value of the sampled signal with a predetermined resolution.

操作部30は、例えば、キーボートやマウス、タッチパネル等であるが、音声認識装置などを用いてもよい。使用者は、操作部30を用い、本装置を操作することができる。また、操作部30は、パラメータ設定部31、領域指定部32、及び画像情報設定部33を有する。パラメータ設定部31は、使用者の入力操作により、本実施の形態における画像処理に必要な各種パラメータの値を設定する。領域指定部32は、使用者の入力操作により、入力された画像情報に対して画像処理の対象となる処理領域(画像の特定の範囲)を指定する。画像情報設定部33は、入力された画像を白黒画像、又はRGB画像の何れかとするかを設定する。   The operation unit 30 is, for example, a keyboard, a mouse, a touch panel, or the like, but a voice recognition device or the like may be used. A user can operate the apparatus using the operation unit 30. The operation unit 30 includes a parameter setting unit 31, a region specifying unit 32, and an image information setting unit 33. The parameter setting unit 31 sets various parameter values necessary for image processing according to the present embodiment by a user input operation. The area designating unit 32 designates a processing area (a specific range of an image) to be subjected to image processing with respect to the input image information by a user input operation. The image information setting unit 33 sets whether the input image is a monochrome image or an RGB image.

記憶部40は、コンピュータの本体を構成する一要素であって、主記憶部41、補助記憶部47、及び表示メモリ48を有する。主記憶部41は、入力インタフェース部20を介して取り込んだ画像データが記憶される取込画像メモリ42と、後述する劣化画像情報判定部62によって算出される分散値が記憶される分散値メモリ43と、後述する劣化画像情報判定部62によって算出される基準値が記憶される基準値メモリ44と、後述する推定部65によって推定された処理結果が記憶される被写体領域メモリ45と、後述する画像処理を実行するための画像処理プログラムや各種パラメータが記憶された処理パラメータメモリ46と、を有する。   The storage unit 40 is an element constituting the main body of the computer, and includes a main storage unit 41, an auxiliary storage unit 47, and a display memory 48. The main storage unit 41 includes a captured image memory 42 in which image data captured via the input interface unit 20 is stored, and a variance value memory 43 in which a variance value calculated by a later-described deteriorated image information determination unit 62 is stored. A reference value memory 44 that stores a reference value calculated by a degraded image information determination unit 62 described later, a subject area memory 45 that stores a processing result estimated by an estimation unit 65 described later, and an image described later. An image processing program for executing processing, and a processing parameter memory 46 in which various parameters are stored.

表示メモリ48は、ディスプレイ等で構成された画像出力装置(図示省略)に表示するための画像情報が記憶される領域であり、取り込んだ画像情報(観測画像情報)を表示するために処理前の画像情報(取り込んだ画像情報)が記憶される取込画像メモリ49と、画像処理において一時的に必要な記憶領域である処理メモリ50と、処理された画像情報を表示するために処理後の画像情報が記憶される復元画像メモリ51とを有する。   The display memory 48 is an area in which image information to be displayed on an image output device (not shown) configured by a display or the like is stored. In order to display the captured image information (observed image information), the display memory 48 is a pre-process. Captured image memory 49 in which image information (captured image information) is stored, a processing memory 50 that is a temporary storage area for image processing, and an image after processing to display the processed image information And a restored image memory 51 in which information is stored.

補助記憶部47は、主記憶部41の容量不足を補う。補助記憶部47は、例えば、ハードディスク(HD)であってもよいし、CD−ROM、DVD、SSD(Solid State Drive)、フラッシュメモリなどの可搬性のあるものであってもよいし、また、それらの組み合わせであってもよい。   The auxiliary storage unit 47 compensates for the capacity shortage of the main storage unit 41. The auxiliary storage unit 47 may be, for example, a hard disk (HD), a portable device such as a CD-ROM, DVD, SSD (Solid State Drive), flash memory, etc. A combination thereof may also be used.

また、本実施の形態では、処理パラメータメモリ46に予め画像処理プログラムが記憶されている場合について説明するが、画像処理プログラムは、記録メディアから入力インタフェース部20を介して記憶部40にインストールしたり、モデム及び入力インタフェース部20を介して外部から記憶部40にダウンロードしたりしてもよい。   In this embodiment, the case where an image processing program is stored in advance in the processing parameter memory 46 will be described. However, the image processing program can be installed in the storage unit 40 from the recording medium via the input interface unit 20. Alternatively, it may be downloaded to the storage unit 40 from the outside via the modem and input interface unit 20.

画像復元処理部60は、後述する画像処理を実行するための処理部であり、機能的には、図3に示すように、領域設定部61と、劣化画像情報判定部62と、状態量算出部63と、観測量算出部64と、推定部65と、復元画像出力部66とを含んだ構成で表すことができる。   The image restoration processing unit 60 is a processing unit for executing image processing to be described later. Functionally, as shown in FIG. 3, an area setting unit 61, a deteriorated image information determination unit 62, and a state amount calculation are performed. It can be expressed by a configuration including a unit 63, an observation amount calculation unit 64, an estimation unit 65, and a restored image output unit 66.

領域設定部61は、取込画像メモリ42に記憶された画像情報である観測画像情報について、時刻nにおける注目画素領域を囲む周辺画素領域p×qの大きさの処理領域nを設定する。注目画素領域は、1画素としてもよいし、複数画素領域と2次元的に大きくしてもよい。注目画素領域を複数画素領域とすることで、処理効率のよい復元が可能となる。領域設定部61は、注目画素領域の大きさ及び周辺画素領域の大きさを設定する。また、取込画像メモリ49内で時刻nにおける処理領域を時刻変化に伴い注目画素領域を含むように時刻(n+i)と一部重複移動させるよう設定する。   The region setting unit 61 sets a processing region n having a size of a peripheral pixel region p × q surrounding the pixel region of interest at time n for observation image information that is image information stored in the captured image memory 42. The target pixel region may be one pixel, or may be two-dimensionally enlarged with a plurality of pixel regions. By making the pixel region of interest a plurality of pixel regions, it is possible to restore with high processing efficiency. The region setting unit 61 sets the size of the target pixel region and the size of the peripheral pixel region. In the captured image memory 49, the processing area at time n is set to partially overlap with time (n + i) so as to include the target pixel area as time changes.

劣化画像情報判定部62は、取込画像メモリ42に記憶された画像情報である観測画像情報の部分領域Lの各画素の画素値に基づいて分散値を算出し、分散値から算出された当該部分領域Lの基準値(閾値)に基づいて、当該部分領域Lの各画素に前記裏写り画像情報が混在しているか否かを判定する。   The deteriorated image information determination unit 62 calculates a variance value based on the pixel value of each pixel in the partial region L of the observation image information that is the image information stored in the captured image memory 42, and calculates the variance value from the variance value. Based on the reference value (threshold value) of the partial area L, it is determined whether or not the show-through image information is mixed in each pixel of the partial area L.

状態量算出部63は、部分領域Lの時刻nでの処理領域nにおける状態量を、時刻(n−1)の処理領域(n−1)状態量、処理領域(n−1)から処理領域nへの状態遷移、及び処理領域(n−1)の状態量に含まれない処理領域nの状態量の要素を含む有色性駆動源を用いて算出する。   The state quantity calculation unit 63 changes the state quantity in the processing area n at the time n of the partial area L from the processing area (n−1) state quantity at the time (n−1) and the processing area (n−1) to the processing area. Calculation is performed using a colored drive source including a state transition to n and an element of a state quantity of the processing region n that is not included in the state quantity of the processing region (n−1).

観測量算出部64は、部分領域Lの時刻nにおける処理領域nについて、劣化画像情報判定部62によって処理領域を含む部分領域Lについて算出された分散値及び時刻nにおける当該処理領域nの状態量に基づいて、劣化画像情報判定部62によって劣化画像情報が混在していると判定された処理領域nの画素について、当該分散値の標準偏差を雑音として用いて、原画像情報に雑音が加わって観測画像情報となる過程を観測量として算出する。   The observation amount calculation unit 64 calculates the variance value calculated for the partial region L including the processing region by the deteriorated image information determination unit 62 and the state amount of the processing region n at the time n for the processing region n of the partial region L at time n. For the pixels in the processing region n determined by the deteriorated image information determination unit 62 to include the deteriorated image information, noise is added to the original image information using the standard deviation of the variance value as noise. The process that becomes observation image information is calculated as an observation amount.

推定部65は、部分領域Lの時刻nにおける処理領域nについて、状態量算出部63により算出された状態量、及び観測量算出部64により算出された観測量から状態空間モデルに基づいた予測法を用い、処理領域nの状態量の最適値を処理領域nの原画像情報として推定し復元する。   The estimation unit 65 predicts a processing region n at time n of the partial region L from the state quantity calculated by the state quantity calculation unit 63 and the observation amount calculated by the observation amount calculation unit 64 based on the state space model. Is used to estimate and restore the optimum value of the state quantity of the processing region n as the original image information of the processing region n.

復元画像出力部66は、推定部65により得られた結果から、時刻nにおける処理領域nの注目画素領域を復元する。   The restored image output unit 66 restores the target pixel region of the processing region n at time n from the result obtained by the estimation unit 65.

なお、画像復元処理部60の各部の処理については、後述する画像復元処理ルーチンにおいて詳述する。   The processing of each unit of the image restoration processing unit 60 will be described in detail in an image restoration processing routine described later.

出力インタフェース部70は、画像復元処理部60で復元処理され、復元画像メモリ51に記憶された画像情報(復元画像情報)を、ディスプレイなどで構成された画像出力装置に出力可能なデータ形式に変換して出力処理を行う。   The output interface unit 70 converts the image information (restored image information) restored by the image restoration processing unit 60 and stored in the restored image memory 51 into a data format that can be output to an image output device configured with a display or the like. And perform output processing.

なお、処理画像の出力形態は画像出力装置に表示する場合に限定されず、他の画像出力装置に出力するようにしてもよい。例えば、画像出力装置として、プリンタ、記録メディア、モデムなどを用いることができる。記録メディア及びモデムは、画像入力装置としての記録メディア及びモデムとそれぞれ共用してもよい。なお、画像出力装置の種類は、画像復元装置10の用途に応じて適用可能なものを選択すればよい。   The output form of the processed image is not limited to the display on the image output apparatus, and may be output to another image output apparatus. For example, a printer, a recording medium, a modem, or the like can be used as the image output device. The recording medium and the modem may be shared with the recording medium and the modem as the image input device, respectively. Note that the type of the image output apparatus may be selected according to the use of the image restoration apparatus 10.

また、図示は省略するが、出力インタフェース部70は、画像出力装置の種類に応じて別個独立に設けられる。上記のように、記録メディア及びモデムに関しては、通常、入力インタフェース部20と出力インタフェース部70とは一体化されている。出力インタフェース部70も、入力インタフェース部20と同様に、コンピュータ本体の内部に格納された内蔵カード(ボード)であってもよいし、内部インタフェース部を介して接続された外部設置型機器であってもよい。   Although not shown, the output interface unit 70 is provided separately and independently according to the type of the image output apparatus. As described above, regarding the recording medium and the modem, the input interface unit 20 and the output interface unit 70 are usually integrated. Similarly to the input interface unit 20, the output interface unit 70 may be a built-in card (board) stored inside the computer main body, or an externally installed device connected via the internal interface unit. Also good.

次に、第1の実施の形態における画像復元の理論となる観測画像モデル及び状態空間モデルについて説明する。   Next, an observation image model and a state space model, which are the theory of image restoration in the first embodiment, will be described.

観測画像情報は、一般的に、原画像情報とぼけの点拡がり関数(PSF:Point Spread Function、以下単に「ぼけ関数」ともいう)の畳み込み(コンボリューション)に雑音を加えたモデルによって得られる。   The observation image information is generally obtained by a model obtained by adding noise to convolution of original image information and a blur point spread function (PSF: Point Spread Function).

図4に、画像の劣化の過程を説明するための図を示す。例えば、両面に画像がプリントされた文書をスキャンした場合、表面画像の原画像情報に裏面画像の画像情報が裏写りして、図4の右端に示す劣化画像情報となる。裏写りは、図5に示すように、原画像(表面画像)をスキャンした画像情報に、裏面画像が透過し、かつぼけおよび雑音が生じた状態の画像情報が重畳された画像である。なお、裏面画像が透過する透過率は、印刷媒体の厚さ、画像の濃度、スキャン時の照明強度等に依存する。従って、第1の実施の形態は、劣化画像情報を取り除くことである。   FIG. 4 is a diagram for explaining the process of image degradation. For example, when a document having images printed on both sides is scanned, the image information of the back image is shown through to the original image information of the front image, and becomes the deteriorated image information shown at the right end of FIG. As shown in FIG. 5, the show-through is an image in which the image information obtained by scanning the original image (front image) is superimposed with the image information in which the back image is transmitted and blurring and noise are generated. Note that the transmittance through which the back image is transmitted depends on the thickness of the print medium, the density of the image, the illumination intensity during scanning, and the like. Therefore, the first embodiment is to remove the deteriorated image information.

第1の実施の形態では、原画像情報(原画像情報)のみを用いて状態量を算出し、かつ、観測画像情報、原画像情報、ぼけ、雑音および裏写り画像情報からなる劣化画像情報を用いて観測量を算出した状態空間モデルであって、かつ、有色性駆動源を含む状態空間モデルに基づく予測法を用い状態量の最適推定値を求めることにより、観測画像情報から復元画像情報を生成する。   In the first embodiment, a state quantity is calculated using only original image information (original image information), and degraded image information including observation image information, original image information, blur, noise, and show-through image information is calculated. A state space model for which the amount of observation is calculated by using a prediction method based on a state space model including a colored drive source, and obtaining an optimum estimate of the amount of state, thereby restoring restored image information from the observed image information. Generate.

上記の状態空間モデルは、下記(1)式の状態方程式と、下記(2)式の観測方程式とで表される。ただし、状態方程式において、時刻nにおける状態ベクトルx p1(n)は表面画像を原画像情報とする状態量からなるベクトル、行列状態遷移行列Φp1は処理領域(n−1)から処理領域nへの遷移を表す行列、駆動源ベクトルδ p1(n)は原画像情報からなる。また、観測方程式において、観測ベクトルy p1(n)は観測画像情報からなるベクトル、観測行列Mは表面画像情報に生ずるぼけを表す行列、観測雑音ベクトルε p1(n)は裏移り情報からなるベクトルである。また、添え字p1は第1の実施の形態に係るものであることを表し、添え字fは表面画像であることを表す。 The state space model is represented by a state equation of the following equation (1) and an observation equation of the following equation (2). However, in the state equation, the state vector x f p1 (n) at time n is a vector composed of state quantities using the surface image as original image information, and the matrix state transition matrix Φ p1 is from the processing region (n−1) to the processing region n. The drive source vector δ f p1 (n) that represents the transition to is composed of original image information. In the observation equation, the observation vector y f p1 (n) is a vector composed of observation image information, the observation matrix M f is a matrix representing blur occurring in the surface image information, and the observation noise vector ε f p1 (n) is setback information. A vector consisting of Further, the subscript p1 indicates that it relates to the first embodiment, and the subscript f indicates that it is a surface image.

(1)式の状態方程式は、観測対象のシステムを状態空間モデルで記述したものであり、内部状態つまり状態変数(ここでは、状態ベクトルx p1(n−1)、x p1(n))の状態に対する生成過程を表している。また、(2)式の観測方程式は、何らかの観測装置を通じて観測する過程を記述したものであり、観測ベクトルy p1(n))が状態ベクトルx p1(n)に依存して生成される様子を示している。 The state equation (1) describes the system to be observed by a state space model, and is an internal state, that is, a state variable (here, state vectors x f p1 (n−1), x f p1 (n)). ) Represents the generation process for the state. The observation equation (2) describes the process of observation through some kind of observation device, and the observation vector y f p1 (n)) is generated depending on the state vector x f p1 (n). It shows a state.

次に、図6及び図7を参照して、第1の実施の形態に係る画像復元装置10の作用について説明する。なお、図6及び図7に示す画像復元処理ルーチンは、記憶部40に制御プログラムとして格納されており、図示しないCPUによって実行される。   Next, the operation of the image restoration apparatus 10 according to the first embodiment will be described with reference to FIGS. 6 and 7 is stored as a control program in the storage unit 40, and is executed by a CPU (not shown).

ステップ100で、画像入力装置であるスキャナにより、両面に画像がプリントされた文書から読み取られた表面画像の画像情報を、入力インタフェース部20を介して取り込み、主記憶部41の取込画像メモリ42に記憶する。なお、表面画像の画像情報には表面画像のカラー情報も含まれているため、画像情報設定部33によって、入力された画像を白黒画像、又はRGB画像の何れかとするかを設定する。   In step 100, the image information of the surface image read from the document having the images printed on both sides thereof by the scanner as the image input device is acquired via the input interface unit 20, and the captured image memory 42 of the main storage unit 41 is captured. To remember. Since the image information of the surface image includes color information of the surface image, the image information setting unit 33 sets whether the input image is a monochrome image or an RGB image.

次に、ステップ102で、領域設定部61が、裏写り画像情報の分散値を求めるための処理単位となる部分領域Lの画素サイズM×Nと、画像復元の処理単位となる処理領域nの画素サイズp×qを設定する。部分領域L及び処理領域nは、例えば、表面画像情報に対して図2に示すように設定される。また、部分領域M×N及び処理領域p×qの設定は、ユーザにより操作部30の領域指定部32から指定された値を設定するようにしてもよい。   Next, in step 102, the area setting unit 61 sets the pixel size M × N of the partial area L that is a processing unit for obtaining the variance value of the show-through image information and the processing area n that is the processing unit of image restoration. A pixel size p × q is set. The partial region L and the processing region n are set as shown in FIG. 2 for the surface image information, for example. The partial area M × N and the processing area p × q may be set to values specified by the user from the area specifying unit 32 of the operation unit 30.

ここでは、ステップ102において、処理領域nの画素サイズをp×q=3×3画素と設定されたものとする。この場合、図8に示すように、左から右へ1画素分移動し、時刻(n−1)における処理領域(n−1)、時刻nにおける処理領域nという画像情報が処理対象となる。   Here, in step 102, it is assumed that the pixel size of the processing region n is set to p × q = 3 × 3 pixels. In this case, as shown in FIG. 8, the image information is moved by one pixel from the left to the right, and the processing area (n-1) at time (n-1) and the processing area n at time n are processed.

次に、ステップ104で、状態量算出部63が、時刻nにおける処理領域nと時刻(n−1)における処理領域(n−1)との位置関係に基づいて、状態遷移行列Φp1を構成する。 Next, in step 104, the state quantity calculation unit 63 configures the state transition matrix Φ p1 based on the positional relationship between the processing region n at time n and the processing region (n−1) at time (n−1). To do.

具体的には、まず、時刻(n−1)における処理領域(n−1)から時刻nにおける処理領域nに、水平に左から右へ1画素ずつ移動していたとする。この場合、各処理領域nにおいて、上記図8に示すように、同一の状態量を持つ領域が存在する。同一の状態量を持つ領域は、上記図8において網掛けされた画素領域である。上記図8に示すように、時刻(n−1)における処理領域(n−1)の状態量x1,2,x2,2,x3,2,x1,3,x2,3,x3,3と、時刻nにおける処理領域nの状態量x1,1,x2,1,x3,1,x1,2,x2,2,x3,2とが同一の状態量を持つ領域となる。 Specifically, first, it is assumed that the pixel is moved horizontally from left to right from the processing region (n−1) at time (n−1) to the processing region n at time n. In this case, in each processing region n, there is a region having the same state quantity as shown in FIG. The region having the same state quantity is a pixel region shaded in FIG. As shown in FIG. 8, the state quantities x 1,2 , x 2,2 , x 3,2 , x 1,3 , x 2,3 , x of the processing region (n-1) at time (n-1). x 3,3 and the state quantity x 1,1 , x 2,1 , x 3,1 , x 1,2 , x 2,2 , x 3,2 of the processing region n at time n are the same state quantity It becomes an area with.

そして、上述した同一の状態量を持つ領域が時刻(n−1)における処理領域(n−1)の状態ベクトルから時刻nにおける処理領域nの状態ベクトルへの変化によって一致した状態遷移行列Φp1を構成する。 Then, the state transition matrix Φ p1 in which the regions having the same state quantity described above are matched by the change from the state vector of the processing region (n−1) at the time (n−1) to the state vector of the processing region n at the time n. Configure.

次に、ステップ106で、上記ステップ100で記憶した表面画像の画像情報のうち、部分領域Lの画素サイズM×Nにおいて、処理領域nの画素サイズを変更する場合はp‘×q’に再生設定でき、また注目画素領域の画素数をも再設定する場合には変更設定する。   Next, in step 106, in the image information of the surface image stored in step 100 above, when the pixel size M × N of the partial region L is changed, the pixel size of the processing region n is changed to p ′ × q ′. It can be set, and when the number of pixels in the target pixel area is reset, it is changed.

次に、ステップ108で、上記ステップ100において画像がRGB画像と設定された場合、記憶した表面画像の画像情報のうちR、G、Bの各色のうち、特定の色を処理対象として設定する。   Next, in step 108, when the image is set as an RGB image in step 100, a specific color is set as a processing target among the R, G, and B colors in the stored image information of the surface image.

次に、ステップ110で、劣化画像情報判定部62が、取込画像メモリ42に記憶された表面画像の画像情報において、上記ステップ102で設定された部分領域Lの画素サイズM×Nの画素値に基づき分散値を算出する。また、劣化画像情報判定部62が、算出された分散値に基づき表面画像の各画素に裏写り情報が含まれているか否かを判定するための基準値(閾値)を算出する。   Next, in step 110, the degraded image information determination unit 62 uses the pixel value of the pixel size M × N of the partial region L set in step 102 in the image information of the surface image stored in the captured image memory 42. The variance value is calculated based on Further, the deteriorated image information determination unit 62 calculates a reference value (threshold value) for determining whether or not show-through information is included in each pixel of the surface image based on the calculated dispersion value.

具体的には、劣化画像情報判定部62は、設定された部分領域Lの画素サイズM×Nにおいて、上記ステップ108で設定された色の平均画素値 ̄yを算出する。そして、算出された平均画素値 ̄yを用いて、上記ステップ108で設定された色の分散値σ を算出する。すなわち、劣化画像情報判定部62は、上記ステップ108で設定された色に応じて、以下の(3)式に示すように、分散値σ を算出する。 Specifically, the deteriorated image information determination unit 62 calculates the average pixel value  ̄y of the color set in step 108 in the set pixel size M × N of the partial region L. Then, using the calculated average pixel value  ̄y, the color dispersion value σ 2 y set in step 108 is calculated. That is, the degraded image information determination unit 62 calculates the variance value σ 2 y according to the color set in step 108 as shown in the following equation (3).

ここで、ym,nは、表面画像における、上記ステップ108で設定された色の画素値を表す。また、M、Nは、上記図2に示すように、部分領域Lの画素サイズM×Nを表す。 Here, ym , n represents the pixel value of the color set in step 108 in the surface image. M and N represent the pixel size M × N of the partial region L as shown in FIG.

そして、劣化画像情報判定部62は、平均画素値 ̄yと分散値σ とに基づいて、表面画像内の画素に裏写り画像情報が含まれているか否かを判定するための基準値ythを、以下の(4)式に示すように算出する。 Then, the degraded image information determination unit 62 determines whether or not the show-through image information is included in the pixels in the surface image based on the average pixel value  ̄y and the variance value σ 2 y. y th is calculated as shown in the following equation (4).

次に、ステップ112で、設定された部分領域Lが初期値であるか否かを判定する。すなわち、設定された部分領域Lが上記図2の最上段に位置するか否かを判定する。そして、上記設定された部分領域Lが初期値である場合にはステップ116へ進む。一方、設定された部分領域Lが初期値でない場合には、ステップ114へ進む。   Next, in step 112, it is determined whether or not the set partial area L is an initial value. That is, it is determined whether or not the set partial area L is positioned at the uppermost stage in FIG. If the set partial area L is an initial value, the process proceeds to step 116. On the other hand, if the set partial area L is not the initial value, the process proceeds to step 114.

次に、ステップ114で、上記ステップ110で算出された分散値σ について、前回のステップ110で算出された部分領域(L−1)における分散値を考慮し、上記ステップ110で算出された分散値σ を修正する。例えば、部分領域Lにおける分散値を一旦算出した後、算出された部分領域Lにおける分散値と、部分領域(L−1)における分散値との平均値を、部分領域Lにおける分散値と再設定することができる。 Next, in step 114, the variance value σ 2 y calculated in step 110 is calculated in step 110 in consideration of the variance value in the partial region (L-1) calculated in the previous step 110. The variance value σ 2 y is corrected. For example, after once calculating the variance value in the partial region L, the average value of the calculated variance value in the partial region L and the variance value in the partial region (L-1) is reset with the variance value in the partial region L. can do.

次に、ステップ116で、領域設定部61が、ステップ106で再設定された場合は、処理領域nの画素サイズをp‘×q’とし、再設定されない場合はステップ102で設定された処理領域nの画素サイズのままとする。   Next, if the area setting unit 61 resets in step 106 in step 116, the pixel size of the processing area n is set to p ′ × q ′, and if not reset, the processing area set in step 102 The pixel size remains n.

次に、ステップ118で、劣化画像情報判定部62が、上記ステップ116で設定された処理領域nに含まれる各画素について、上記ステップ110で算出された基準値ythに基づいて、当該画素に裏写り画像情報が混在しているか否かを判定する。 Next, in step 118, the deteriorated image information determination unit 62 determines, for each pixel included in the processing region n set in step 116, the pixel based on the reference value y th calculated in step 110. It is determined whether or not show-through image information is mixed.

具体的には、劣化画像情報判定部62は、処理領域nの画素サイズp×qに含まれる各画素について、当該画素の上記ステップ108で設定された色の画素値ym,n、及び当該画素の濃淡値ygrayと、基準値ythとを比較する。そして、以下の(5)式を満たす場合には、当該画素値ym,nには裏写りが混在していると判断する。 Specifically, for each pixel included in the pixel size p × q of the processing region n, the deteriorated image information determination unit 62 determines the pixel value y m, n of the color set in step 108 of the pixel, and the The gray value y gray of the pixel is compared with the reference value y th . When the following expression (5) is satisfied, it is determined that show-through is mixed in the pixel value ym , n .

また、   Also,

上記(数5)は、当該画素のR,G,Bの各色の画素値を表す。なお、上記ステップ100において画像が白黒画像と設定された場合には、各画素の画素値が基準値ythより大きい場合に、当該画素に裏写り画像情報が混在していると判断する。 The above (Equation 5) represents the pixel value of each color of R, G, B of the pixel. In the case where the image in step 100 is set to black and white images, the pixel value of each pixel is greater than the reference value y th, it is determined that the show-through image information to the pixel are mixed.

次に、ステップ120で、状態量算出部63が、状態量算出処理を実行する。ここで、図9を参照して、状態量算出処理ルーチンについて説明する。   Next, in step 120, the state quantity calculation unit 63 executes a state quantity calculation process. Here, the state quantity calculation processing routine will be described with reference to FIG.

ステップ1200で、状態量算出部63が、時刻(n−1)における処理領域(n−1)の各画素の状態量を要素とする処理領域(n−1)の状態ベクトルと、時刻nにおける処理領域nの各画素の状態量を要素とする処理領域nの状態ベクトルとを導出する。以下、各処理領域の状態ベクトルの導出方法を具体的に説明する。   In step 1200, the state quantity calculation unit 63 determines the state vector of the processing area (n−1) having the state quantity of each pixel of the processing area (n−1) at time (n−1) as an element, and the time n. A state vector of the processing region n having a state quantity of each pixel of the processing region n as an element is derived. Hereinafter, a method for deriving the state vector of each processing region will be specifically described.

まず、処理領域(n−1)の状態ベクトルは、図10に示すように、画素サイズp×qの処理領域(n−1)の各画素の状態量を組み合わせて構成される。すなわち、処理領域(n−1)の状態ベクトルx p1(n−1)は9次元のベクトルx p1(n−1)=[x 1,1(n−1) x 2,1(n−1)・・・x 3,3(n−1)]となる。次に、処理領域nの状態ベクトルx p1(n)は、上記図10に示すように、画素サイズp×qの処理領域nの各画素の状態量を組み合わせて構成される。すなわち、処理領域nの状態ベクトルx p1(n)は9次元のベクトルx p1(n)=[x 1,1(n) x 2,1(n)・・・x 3,3(n)]となる。ただし、Tはベクトルの転置を表す。また、状態ベクトルx p1(n−1)及びx p1(n)のサイズ(次元数)は設定された処理領域の画素サイズp×qによって変化する。 First, as shown in FIG. 10, the state vector of the processing area (n−1) is configured by combining the state quantities of the pixels of the processing area (n−1) having the pixel size p × q. That is, the state vector x f p1 (n−1) of the processing area (n−1) is a nine-dimensional vector x f p1 (n−1) = [x f 1,1 (n−1) x f 2,1 (N−1)... X f 3,3 (n−1)] T Next, the state vector x f p1 (n) of the processing region n is configured by combining the state quantities of each pixel of the processing region n having the pixel size p × q, as shown in FIG. That is, the state vector x f p1 (n) of the processing region n is a 9-dimensional vector x f p1 (n) = [x f 1,1 (n) x f 2,1 (n)... X f 3, 3 (n)] T. However, T represents transposition of a vector. Further, the size (number of dimensions) of the state vectors x f p1 (n−1) and x f p1 (n) varies depending on the pixel size p × q of the set processing region.

次に、ステップ1202で、状態量算出部63が、駆動源ベクトルを構成する。図11(A)に示すように、処理領域nの状態量x1,3,x2,3,x3,3は、処理領域(n−1)の情報からは構成することができないため、本実施の形態では、駆動源と呼ばれる領域に状態量x1,3,x2,3,x3,3を用いることで、図11(B)に示すように、駆動源ベクトルδ p1(n)を構成する。これは、フレーム内を移動した際に、処理領域(n−1)の状態量では表せられない領域の状態量を、処理領域nの状態量で構成することを表しており、原画像の情報が含まれることから、駆動源ベクトルδ p1(n)は有色性駆動源となる。 Next, in step 1202, the state quantity calculation unit 63 configures a drive source vector. As shown in FIG. 11A, since the state quantities x 1,3 , x 2,3 , x 3,3 of the processing area n cannot be configured from the information of the processing area (n−1), In the present embodiment, by using the state quantities x 1,3 , x 2,3 , x 3,3 in a region called a drive source, as shown in FIG. 11B, the drive source vector δ f p1 ( n). This means that when moving in the frame, the state quantity of the area that cannot be represented by the state quantity of the processing area (n−1) is composed of the state quantity of the processing area n. Therefore, the drive source vector δ f p1 (n) is a colored drive source.

次に、ステップ1204で、状態量算出部63が、上記ステップ1200で導出した状態(n−1)及び状態nの状態ベクトルx p1(n−1)及びx p1(n)、上記ステップ105で構成した状態遷移行列Φp1、及び上記ステップ1202で構成した駆動源ベクトルδ p1(n)に基づいて、状態量を算出する。上記図11(B)に示すように、本実施の形態における状態方程式は、画像情報からなる状態ベクトルx p1(n)と、0及び1からなる状態遷移行列Φp1と、有色信号である画像情報からなる駆動源ベクトルδ p1(n)とから構成されるため、所望の状態量、つまり、画像情報のみで構成されることになる。 Next, in step 1204, the state quantity calculation unit 63 determines the state vectors x f p1 (n−1) and x f p1 (n) of the state (n−1) and the state n derived in step 1200, and the above steps. The state quantity is calculated based on the state transition matrix Φ p1 configured in 105 and the drive source vector δ f p1 (n) configured in step 1202. As shown in FIG. 11B, the state equation in the present embodiment is a state vector x f p1 (n) composed of image information, a state transition matrix Φ p1 composed of 0 and 1, and a colored signal. Since it is composed of the drive source vector δ f p1 (n) composed of image information, it is composed only of a desired state quantity, that is, image information.

状態量算出処理ルーチンが終了すると、画像復元処理ルーチンにリターンして、ステップ122へ移行し、観測量算出部64が、上記図4に示した観測画像モデルに基づいて、図12に示すように、表面画像の原画像情報に裏面画像の裏写り画像情報が加わって観測画像情報となる過程を、観測量(観測方程式)として算出する。観測ベクトルy p1(n)は、観測画像情報を含む観測量として表面画像情報の処理領域nの各画素の画素情報を要素とする9次元のベクトルである。また、観測行列Mは、観測方程式を満たすための行列である。ベクトルx p1(n)は、表面画像の原画像情報における処理領域nの各画素の状態量を要素とするベクトルである。また、ε p1(n)は、観測雑音ベクトルである。観測雑音ベクトルには、裏写り画像情報に関する透過率と、画像の劣化モデルにおけるぼけの点拡がり関数(PSF)に対応した値が含まれている。透過率は、上述のように、文書の厚さ、画像の濃度、スキャン時の照明の強度等に応じて決定される。ぼけは、裏面画像の画像情報が表面画像情報に透過する際に生ずるぼけの程度を表す量である。 When the state quantity calculation process routine ends, the process returns to the image restoration process routine and proceeds to step 122, where the observation quantity calculation unit 64 is based on the observed image model shown in FIG. 4 as shown in FIG. Then, the process of adding the show-through image information of the back image to the original image information of the front image to obtain the observation image information is calculated as an observation amount (observation equation). The observation vector y f p1 (n) is a nine-dimensional vector having the pixel information of each pixel in the processing region n of the surface image information as an observation amount including the observation image information. The observation matrix M f is a matrix for satisfying the observation equation. The vector x f p1 (n) is a vector whose element is the state quantity of each pixel in the processing region n in the original image information of the surface image. Further, ε f p1 (n) is an observation noise vector. The observation noise vector includes a transmittance corresponding to the show-through image information and a value corresponding to the blur point spread function (PSF) in the image degradation model. As described above, the transmittance is determined according to the thickness of the document, the density of the image, the intensity of illumination during scanning, and the like. The blur is an amount representing the degree of blur that occurs when the image information of the back surface image is transmitted to the front surface image information.

ここで、観測雑音ベクトルε p1(n)の各要素は、上記ステップ118での判定結果に応じて、各値が設定される。具体的には、上記ステップ118で画素値ym,nは裏写り画像情報が混在していると判定された場合、当該画素値ym,nに対応する観測雑音ベクトルの要素vym,nに上記ステップ110で算出された分散値σ の標準偏差が代入される。一方、上記ステップ118で画素値ym,nに裏写り画像情報が混在していないと判定された場合、当該画素値ym,nに対応する観測雑音ベクトルの要素vym,nは一定値が代入される。 Here, each value of the observation noise vector ε f p1 (n) is set according to the determination result in step 118. Specifically, the pixel value y m in step 118, if n is it is determined that the show-through image information are mixed, the elements of the observation noise vector corresponding to the pixel value y m, n v ym, n Is substituted with the standard deviation of the variance σ 2 y calculated in step 110. On the other hand, the pixel value y m in step 118, if the show-through image information is determined not to be mixed in n, the pixel value y m, the element v ym of measurement noise vector corresponding to n, n is a constant value Is substituted.

次に、ステップ124で、推定部65が、上記ステップ120で算出された状態量(状態方程式)及び上記ステップ122で算出された観測量(観測方程式)により、下記に示す有色性駆動源を含む状態空間モデルに基づく予測法を導出する。   Next, in step 124, the estimation unit 65 includes the following colored drive sources based on the state quantity (state equation) calculated in step 120 and the observation quantity (observation equation) calculated in step 122. A prediction method based on the state space model is derived.

上記のアルゴリズムは、初期設定の過程[Initialization]と反復の過程[Iteration]とに大別され、反復の過程では、1〜5の手順を逐次繰り返す。以下、図13を参照して、有色性駆動源を含む状態空間モデルに基づく予測法のアルゴリズムの詳細について説明する。   The above algorithm is roughly divided into an initialization process [Initialization] and an iterative process [Iteration]. In the iterative process, steps 1 to 5 are sequentially repeated. The details of the prediction algorithm based on the state space model including the colored drive source will be described below with reference to FIG.

ステップ1240で、アルゴリズムの処理が初回か否かを判定する。初回の場合には、ステップ1242へ移行し、2回目以降の場合には、ステップ1244へ移行する。   In step 1240, it is determined whether or not the algorithm processing is the first time. If it is the first time, the process proceeds to step 1242, and if it is the second time or later, the process proceeds to step 1244.

ステップ1242では、初期設定を行う。具体的には、状態ベクトル、つまり、状態量である所望信号(原画像信号)ベクトルの最適推定値(以下「所望信号の最適推定値ベクトル」という)の初期値x^ p1(0|0)、所望信号ベクトルの推定誤差(以下「所望信号の推定誤差ベクトル」という)の相関行列の初期値Pp1(0|0)、駆動源ベクトルの共分散の値Rδp1(n)[i,j]、及び観測雑音ベクトルの共分散の値Rεp1(n)[i,j]を、上述の初期設定の過程[Initialization]に示した初期状態に設定する。 In step 1242, initial setting is performed. Specifically, an initial value x ^ f p1 (0 | 0) of an optimum estimated value of a state vector, that is, a desired signal (original image signal) vector that is a state quantity (hereinafter referred to as an “optimum estimated value vector of a desired signal”). ), The initial value P p1 (0 | 0) of the correlation matrix of the estimation error of the desired signal vector (hereinafter referred to as “estimation error vector of the desired signal”), and the covariance value R δp1 (n) [i, j] and the covariance value R εp1 (n) [i, j] of the observed noise vector are set to the initial state shown in the above-described initial setting process [Initialization].

ただし、ベクトル0は、J次元の零ベクトルであり、行列Iは、J次の単位行列である。また、Jは、処理領域の画素数である。本実施の形態では、処理領域nの画素サイズp×q=3×3=9である。また、E[x^ p1(n),x^ p1 (n)]は、駆動源ベクトルx^ p1(n)の自己相関行列の期待値である。E[ε p1(n)ε p1 (n)][i,j]は、観測雑音ベクトルεp1の自己相関行列の期待値であり、ここでは分散値σ εを裏写りの自己相関値としている。裏写り画像情報が白色信号の場合は、E[ε p1(n)ε p1 (n)]は対角のみ要素を有する。同様に、裏写り画像情報が有色信号の場合は、E[ε p1(n)ε p1 (n)]はゼロを要素に持たない帯行列を有する。裏写り画像情報が、例えば、変化のない紙の地色のような一定の場合は、E[ε p1(n)ε p1 (n)]は、行列の全て要素に一定値を有する。なお、ベクトル及び行列の要素を示す場合、ベクトルa(n)のi番目の要素をa(n)[i]と表記し、行列A(n)のi行j列の要素をA(n)[i,j]と表記することとする。 However, the vector 0 J is a J-dimensional zero vector, and the matrix I J is a J-order unit matrix. J is the number of pixels in the processing area. In the present embodiment, the pixel size p × q = 3 × 3 = 9 of the processing region n. Also, E [x ^ f p1 (n), x ^ f p1 T (n)] is an expected value of the autocorrelation matrix of the drive source vector x ^ f p1 (n). E [ε f p1 (n) ε f p1 T (n)] [i, j] is the expected value of the autocorrelation matrix of the observed noise vector ε p1 , and here the variance σ 2 ε Correlation value. When the show-through image information is a white signal, E [ε f p1 (n) ε f p1 T (n)] has only a diagonal element. Similarly, when the show-through image information is a colored signal, E [ε f p1 (n) ε f p1 T (n)] has a band matrix that does not have zero as an element. When the show-through image information is constant, for example, the background color of paper without change, E [ε f p1 (n) ε f p1 T (n)] has a constant value for all elements of the matrix. . In addition, when showing the element of a vector and a matrix, the i-th element of vector a (n) is described as a (n) [i], and the element of i row j column of matrix A (n) is A (n). It shall be written as [i, j].

次に、ステップ1244で、上記ステップ 104で定義した状態空間モデルにおける状態遷移行列Φp1、上記ステップ1242で設定した所望信号の推定誤差ベクトルの相関行列の初期値Pp1(0|0)(n=2の場合)、または処理領域(n−1)におけるステップ1250で更新された相関行列Pp1(n|n)(n>2の場合)、及び駆動源ベクトルの共分散の値Rδp1(n)[i,j]を用いて、処理領域(n−1)までの情報により処理領域nの状態ベクトルを推定した場合の誤差である相関行列Pp1(n|n−1)を計算する(上述の反復の過程[Iteration]の手順1)。 Next, in Step 1244, the state transition matrix Φ p1 in the state space model defined in Step 104 above, and the initial value P p1 (0 | 0) (n of the correlation matrix of the estimation error vector of the desired signal set in Step 1242 above. = 2), or the correlation matrix P p1 (n | n) (when n> 2) updated in step 1250 in the processing region (n−1), and the covariance value R δp1 of the driving source vector ( n) Using [i, j], a correlation matrix P p1 (n | n−1), which is an error when the state vector of the processing region n is estimated from information up to the processing region (n−1), is calculated. (Procedure 1 of the above iteration process [Iteration]).

次に、ステップ1246で、上記ステップ1244で計算した相関行列Pp1(n|n−1)、上記ステップ110で定義した状態空間モデルにおける観測行列M、及び観測雑音ベクトルの共分散の値Rεp1(n)[i,j]を用いて、重み係数行列Kp1(n)を計算する(同手順2)。 Next, in step 1246, the correlation matrix P p1 (n | n−1) calculated in step 1244, the observation matrix M f in the state space model defined in step 110, and the covariance value R of the observation noise vector A weighting coefficient matrix K p1 (n) is calculated using εp1 (n) [i, j] (same procedure 2).

次に、ステップ1248で、状態遷移行列Φp1、及び上記ステップ1242で設定した所望信号の最適推定値ベクトルの初期値x^ p1(0|0)(n=2の場合)、または処理領域(n−1)において、本ステップで得られた所望信号の最適推定値ベクトルx^ p1(n|n)(n>2の場合)を用いて、処理領域(n−1)までの情報による処理領域nでの所望信号の最適推定値ベクトルx^ p1(n|n−1)を計算する(同手順3)。そして、計算した所望信号の最適推定値ベクトルx^ p1(n|n−1)、上記ステップ1246で計算した重み係数行列Kp1(n)、観測ベクトルy p1(n)、及び観測行列Mを用いて、処理領域nまでの情報における所望信号の最適推定値ベクトルx^ p1(n|n)を計算する(同手順4)。 Next, in step 1248, the state transition matrix Φ p1 and the initial value x ^ f p1 (0 | 0) (when n = 2) of the optimum estimated value vector of the desired signal set in step 1242, or the processing region In (n−1), information up to the processing region (n−1) is obtained using the optimum estimated value vector x ^ f p1 (n | n) (when n> 2) of the desired signal obtained in this step. The optimal estimated value vector x ^ f p1 (n | n-1) of the desired signal in the processing region n is calculated (same procedure 3). Then, the calculated optimal estimated value vector x ^ f p1 (n | n−1) of the desired signal, the weight coefficient matrix K p1 (n) calculated in step 1246, the observation vector y f p1 (n), and the observation matrix Using M f , the optimum estimated value vector x ^ f p1 (n | n) of the desired signal in the information up to the processing region n is calculated (same procedure 4).

次に、ステップ1250で、単位行列I、重み係数行列Kp1(n)、観測行列M、及び上記ステップ1244で計算された相関行列Pp1(n|n−1)を用いて、処理領域nまでの情報における相関行列Pp1(n|n)を更新する(同手順5)。次に、ステップ1252で、上記ステップ1248で計算された所望信号の最適推定値ベクトルx^ p1(n|n)を、現在設定されている処理領域の処理結果として一旦被写体領域メモリ45に記憶する。 Next, in step 1250, the processing region n is calculated using the unit matrix I, the weighting coefficient matrix K p1 (n), the observation matrix M, and the correlation matrix P p1 (n | n−1) calculated in step 1244. The correlation matrix P p1 (n | n) in the information up to is updated (same procedure 5). Next, in step 1252, the optimum estimated value vector x ^ f p1 (n | n) of the desired signal calculated in step 1248 is temporarily stored in the subject area memory 45 as the processing result of the currently set processing area. To do.

有色性駆動源を含む状態空間モデルに基づく予測法のアルゴリズムが終了すると、画像処理ルーチンへリターンして、ステップ126へ移行し、上記ステップ102で設定された部分領域Lの全処理領域について画像復元が終了したか否かを判定する。部分領域Lの全処理領域について処理が終了していない場合には、ステップ128へ移行して処理領域nを1インクリメントして、ステップ116へ戻り、次の処理領域(n+1)を設定して処理を繰り返す。全部分領域Lの全処理領域について処理が終了した場合には、ステップ130へ移行して、上記ステップ100において画像がRGB画像と設定された場合には、全ての色(RGB)について処理が終了したか否かを判定する。全ての色について処理が終了していない場合には、ステップ108へ戻って、次の色について処理を繰り返す。全ての色について処理が終了した場合には、ステップ132へ移行する。なお、上記ステップ100において画像が白黒画像と設定された場合には、ステップ130の処理は行わず、ステップ132へ移行する。   When the algorithm of the prediction method based on the state space model including the colored drive source is completed, the process returns to the image processing routine, proceeds to step 126, and image restoration is performed for all the processing areas of the partial area L set in step 102. It is determined whether or not the process has ended. If the processing has not been completed for all the processing areas of the partial area L, the process proceeds to step 128, the processing area n is incremented by 1, and the process returns to step 116 to set and process the next processing area (n + 1). repeat. When processing is completed for all processing regions of all partial regions L, the process proceeds to step 130. When the image is set as an RGB image in step 100, processing is completed for all colors (RGB). Determine whether or not. If the processing has not been completed for all colors, the process returns to step 108 to repeat the processing for the next color. When the processing is completed for all colors, the process proceeds to step 132. If the image is set as a black and white image in step 100, the process proceeds to step 132 without performing step 130.

ステップ132では、上記ステップ1252で被写体領域メモリ45に記憶された処理領域の処理結果から部分領域Lの画像情報を復元し、被写体領域メモリ45に記憶すると共に、当該部分領域の復元画像を復元画像出力部66へ出力する。   In step 132, the image information of the partial area L is restored from the processing result of the processing area stored in the subject area memory 45 in step 1252, and is stored in the subject area memory 45, and the restored image of the partial area is restored to the restored image. Output to the output unit 66.

次に、ステップ134で、上記ステップ100で取り込んだ表面画像内の全ての部分領域について画像復元が終了したか否かを判定する。全部分領域について処理が終了していない場合には、ステップ136へ移行してLを1インクリメントして、ステップ106へ戻って、次の部分領域(L+1)における処理領域nを再設定して処理を繰り返す。全部分領域について処理が終了した場合には、ステップ138へ移行する。   Next, in step 134, it is determined whether or not the image restoration has been completed for all partial areas in the surface image captured in step 100. If the processing has not been completed for all partial areas, the process proceeds to step 136, L is incremented by 1, and the process returns to step 106 to reset the processing area n in the next partial area (L + 1) and perform processing. repeat. When the processing is completed for all partial areas, the process proceeds to step 138.

次に、ステップ138で、復元画像出力部66が、上記ステップ1252で被写体領域メモリ45に記憶された各部分領域の処理領域の処理結果を被写体領域メモリ45に記憶する。   Next, in step 138, the restored image output unit 66 stores the processing result of the processing area of each partial area stored in the subject area memory 45 in step 1252 in the subject area memory 45.

そして、ステップ140で、画像復元処理部60が、被写体領域メモリ45に記憶された表面画像の復元画像情報を、出力インタフェース部70を介して出力して、画像出力装置に表示して、画像復元処理ルーチンを終了する。   In step 140, the image restoration processing unit 60 outputs the restored image information of the surface image stored in the subject area memory 45 via the output interface unit 70, and displays it on the image output device for image restoration. The processing routine ends.

以上説明したように、第1の実施の形態の画像復元装置10によれば、表面画像の各画素の画素値に基づいて各部分領域の分散値を算出し、当該分散値から算出された基準値に基づき表面画像の各画素に裏写り画像情報が混在しているか否かを判定し、処理領域nにおける状態量を、処理領域(n−1)の状態量、処理領域(n−1)から処理領域nへの状態遷移、及び処理領域(n−1)の状態量に含まれない処理領域nの状態量の要素を含む有色性駆動源を用いて算出し、裏写り画像情報が混在していると判定された画素について、分散値の標準偏差を雑音として用い、観測画像情報における処理領域nの観測量を算出し、算出された状態量、及び算出された観測量に基づき、状態空間モデルによる予測法を用い、処理領域nの状態量の最適値から画像情報を復元し、表面画像情報のみから裏写り画像情報を除去することができる。   As described above, according to the image restoration apparatus 10 of the first embodiment, the variance value of each partial region is calculated based on the pixel value of each pixel of the surface image, and the reference calculated from the variance value Based on the value, it is determined whether or not show-through image information is mixed in each pixel of the surface image, and the state quantity in the processing area n is set as the state quantity in the processing area (n−1) and the processing area (n−1). Calculation using a chromaticity driving source that includes an element of the state quantity of the processing region n not included in the state transition of the processing region (n−1) and the state transition from the processing region n to the processing region n, and show-through image information is mixed For the pixel determined to be, the standard deviation of the variance value is used as noise, and the observed amount of the processing region n in the observed image information is calculated. Based on the calculated state amount and the calculated observed amount, Using a prediction method based on a spatial model, the state quantity of the processing region n Restoring image data from the appropriate value, it is possible to remove show-through image information from only the surface image information.

また、各部分領域を処理していくことで、逐次処理が可能となる。更に、処理領域のサイズを再設定すると演算量を抑えることができ、高速に実行することができる。また、部分領域Lを設定することにより、処理領域ごとに適した分散値を使用可能であり、画像1枚の読み込みを待つことなく処理開始が可能であり、また並列処理が適用できることにより高速な画像処理を実行することができる。   Further, sequential processing is possible by processing each partial area. Furthermore, if the size of the processing area is reset, the amount of calculation can be suppressed and execution can be performed at high speed. Also, by setting the partial area L, it is possible to use a dispersion value suitable for each processing area, it is possible to start processing without waiting for one image to be read, and parallel processing can be applied to achieve high speed. Image processing can be performed.

<シミュレーション1>
次に、第1の実施の形態に係る画像復元装置10の効果を実証するためのシミュレーションについて説明する。本シミュレーションでは、観測画像として、図14に示す画像を用いた。観測画像(表面画像)は、階調24ビットのカラー画像で、解像度は3508×2480画素である。観測画像の原画像(裏写りのない画像)は、左上に小さな文字列と中心部分に「表面 210mm×297mm A4」とがプリントされた画像である。一方、裏写りの画像(裏面画像)は、左上に小さな文字列と中心部分に「裏面 210mm×297mm A4」とがプリントされた画像である。観測画像上では、左右反転した状態で裏写りの画像が現れている。上記の画像について、同一の上記シミュレーション条件の下で、第1の実施の形態における手法(発明手法1:Prop.1)と、非特許文献1による手法(従来手法1:Conv.1)と、特許文献1による手法(従来手法2:Conv.2)とを、視覚評価によって比較した。なお、画像復元処理は、R、G、Bの各色について行った。
<Simulation 1>
Next, a simulation for verifying the effect of the image restoration apparatus 10 according to the first embodiment will be described. In this simulation, the image shown in FIG. 14 was used as the observation image. The observation image (surface image) is a color image with a gradation of 24 bits, and the resolution is 3508 × 2480 pixels. The original image (image without show-through) of the observed image is an image in which a small character string is printed at the upper left and “surface 210 mm × 297 mm A4” is printed at the center. On the other hand, the show-through image (back side image) is an image in which a small character string is printed on the upper left and “back side 210 mm × 297 mm A4” is printed at the center. On the observed image, a show-through image appears in a state of being reversed left and right. For the above image, under the same simulation conditions, the method in the first embodiment (invention method 1: Prop. 1), the method according to non-patent document 1 (conventional method 1: Conv. 1), The method according to Patent Document 1 (conventional method 2: Conv. 2) was compared by visual evaluation. Note that the image restoration processing was performed for each of R, G, and B colors.

(1)視覚評価
観測画像についてのシミュレーション結果を図15及び図16に示す。なお、図16は図15の一部を拡大したものである。
(1) Visual evaluation FIGS. 15 and 16 show the simulation results for the observed image. FIG. 16 is an enlarged view of a part of FIG.

図15に示すように、従来手法1及び2は、裏写りを除去できず、原画像情報を復元できていない。一方、発明手法1は、従来手法1及び2に比べ、裏写り画像情報を除去できており、原画像情報を復元できている。また、図16に示すように、従来手法1及び2は、表面画像情報よりも色が薄くなっている。一方、発明手法1は、従来手法1及び2に比べ、色がはっきりと復元できている。このように、発明手法1の有効性を確認することができる。   As shown in FIG. 15, the conventional methods 1 and 2 cannot remove show-through and cannot restore original image information. On the other hand, the invention method 1 can remove the show-through image information and can restore the original image information as compared with the conventional methods 1 and 2. Further, as shown in FIG. 16, the conventional methods 1 and 2 are lighter than the surface image information. On the other hand, the color of the inventive method 1 can be clearly restored as compared with the conventional methods 1 and 2. Thus, the effectiveness of Invention Method 1 can be confirmed.

以上のシミュレーション結果により、第1の実施の形態に係る画像復元装置10における手法(発明手法1)は、従来手法1及び2に比べて高い画像復元能力を発揮していることがわかる。   From the above simulation results, it can be seen that the technique (invention technique 1) in the image restoration apparatus 10 according to the first embodiment exhibits higher image restoration ability than the conventional techniques 1 and 2.

<第2の実施の形態>
次に、第2の実施の形態について説明する。第2の実施の形態では、文書紙面の地色を含む画像から、地色を除去する画像復元装置に本発明を適用した場合について説明する。
具体的には、第2の実施の形態では、片面の文書紙面の地色を含む画像を有する文書、及び両面に画像を有する文書を対象とし、文書の一方の面の原画像情報にぼけ、雑音および地色を含む裏写り画像情報からなる劣化画像情報から、原画像情報を推定する画像復元装置に本発明を適用する。
<Second Embodiment>
Next, a second embodiment will be described. In the second embodiment, a case will be described in which the present invention is applied to an image restoration apparatus that removes a ground color from an image including a ground color on a document sheet.
Specifically, in the second embodiment, a document having an image including a ground color of one side of document paper and a document having an image on both sides are blurred, and the original image information on one side of the document is blurred. The present invention is applied to an image restoration apparatus that estimates original image information from deteriorated image information including show-through image information including noise and ground color.

すなわち、第2の実施の形態に係る画像復元装置は、原画像情報にぼけ、雑音および地色を含む裏写り画像情報からなる劣化画像情報が混在した観測画像情報を用いた状態空間モデルであって、かつ、原画像情報を駆動源として含む状態空間モデルに基づく予測法を用いて、観測画像情報から、原画像情報を推定する。   That is, the image restoration apparatus according to the second embodiment is a state space model using observed image information in which original image information is blurred and deteriorated image information composed of show-through image information including noise and ground color is mixed. The original image information is estimated from the observed image information using a prediction method based on a state space model including the original image information as a drive source.

本実施の形態では、文書紙面の地色とは、印刷紙の下地の色、又は画像の背景に存在する塗りつぶされた領域の色をいう。この地色は、文字の識別を困難にするため、印刷する際には不要となる場合が多い。   In the present embodiment, the background color of the document paper surface is the color of the background of the printing paper or the color of the filled area existing in the background of the image. Since this ground color makes it difficult to identify characters, it is often unnecessary when printing.

第2の実施の形態に係る画像復元装置210の構成について、第1の実施の形態に係る画像復元装置10と異なる部分について説明し、他の部分については第1の実施の形態と同一符号を付して詳細な説明を省略する。   The configuration of the image restoration apparatus 210 according to the second embodiment will be described with respect to parts that are different from the image restoration apparatus 10 according to the first embodiment, and the other parts are denoted by the same reference numerals as those in the first embodiment. Detailed description will be omitted.

図17に示すように、第2の実施の形態における画像復元処理部260は、領域設定部61と、地色判定部262と、状態量算出部63と、観測量算出部64と、推定部65と、復元画像出力部66とを含んだ構成である。   As illustrated in FIG. 17, the image restoration processing unit 260 in the second embodiment includes an area setting unit 61, a ground color determination unit 262, a state quantity calculation unit 63, an observation amount calculation unit 64, and an estimation unit. 65 and a restored image output unit 66.

地色判定部262は、観測画像情報の部分領域Lの各画素の画素値に基づいて分散値を算出し、分散値から算出された当該部分領域の基準値(閾値)に基づいて、当該部分領域L内の各画素に地色情報が混在しているか否かを判定する。   The ground color determination unit 262 calculates a variance value based on the pixel value of each pixel in the partial region L of the observation image information, and based on the reference value (threshold value) of the partial region calculated from the variance value, It is determined whether or not ground color information is mixed in each pixel in the region L.

次に、図18及び上記図7を参照して、第2の実施の形態に係る画像復元装置210の作用について説明する。なお、図18及び上記図7に示す画像復元処理ルーチンは、記憶部40に制御プログラムとして格納されており、図示しないCPUによって実行される。   Next, with reference to FIG. 18 and FIG. 7, the operation of the image restoration apparatus 210 according to the second embodiment will be described. The image restoration processing routine shown in FIG. 18 and FIG. 7 is stored as a control program in the storage unit 40 and is executed by a CPU (not shown).

ステップ210では、地色判定部262が、上記ステップ106で設定された部分領域Lの画素サイズM×Nにおいて、処理領域nの画素サイズを変更する場合はp‘×q’に再生設定でき、また注目画素領域の画素数をも再設定する場合には変更設定する。   In step 210, the ground color determination unit 262 can reproduce and set p ′ × q ′ when changing the pixel size of the processing region n in the pixel size M × N of the partial region L set in step 106, If the number of pixels in the target pixel area is also reset, it is changed and set.

ステップ218では、地色判定部262が、上記ステップ116で設定された処理領域nを構成する各画素について、上記ステップ110で算出された基準値ythに基づいて、当該画素に地色情報が混在しているか否かを判定する。 In step 218, the ground color determination unit 262 has the ground color information for each pixel constituting the processing region n set in step 116 based on the reference value y th calculated in step 110. It is determined whether they are mixed or not.

具体的には、地色判定部262は、処理領域nを構成する各画素の上記ステップ108で設定された色の画素値ym,n、及び当該画素の濃淡値ygrayと、基準値ythとを比較する。そして、上記(5)式を満たす場合には、当該画素値ym,nには裏写り画像情報が混在していると判断する。 Specifically, the ground color determination unit 262 determines the pixel value y m, n of the color set in step 108 for each pixel constituting the processing region n, the gray value y gray of the pixel, and the reference value y. Compare th . If the above equation (5) is satisfied, it is determined that show-through image information is mixed in the pixel value ym , n .

なお、第2の実施の形態に係る画像復元装置の他の構成及び作用については、第1の実施の形態と同様であるため、説明を省略する。   Note that other configurations and operations of the image restoration apparatus according to the second embodiment are the same as those of the first embodiment, and thus the description thereof is omitted.

以上説明したように、第2の実施の形態の画像復元装置210によれば、観測画像情報の各画素の画素値に基づいて分散値を算出し、当該分散値から算出された基準値に基づいて、観測画像情報の各画素に地色情報が混在しているか否かを判定し、観測画像情報の処理領域nにおける状態ベクトルx p1(n)は表面画像を原画像情報とする状態量からなるベクトル、状態遷移行列Φp1は処理領域(n−1)の)状態量からなるベクトルx p1(n)、処理領域(n−1)から処理領域nへの遷移を表す行列、及び処理領域(n−1)の状態量に含まれない処理領域nの状態量の要素を含む有色性駆動源を用いて算出し、地色情報が混在していると判定された画素について、分散値の標準偏差を雑音として用い観測画像情報の処理領域nの観測量を算出し、算出された状態量及び算出された観測量に基づいて、状態空間モデルに基づく予測法により、処理領域nの状態量の最適値を、処理領域nの原画像情報として推定し、地色情報を除去する。 As described above, according to the image restoration apparatus 210 of the second embodiment, the variance value is calculated based on the pixel value of each pixel of the observed image information, and based on the reference value calculated from the variance value. Thus, it is determined whether or not ground color information is mixed in each pixel of the observed image information, and the state vector x f p1 (n) in the processing region n of the observed image information is a state quantity whose surface image is the original image information. A state transition matrix Φ p1 is a vector x f p1 (n) consisting of state quantities (of the processing region (n−1)), a matrix representing a transition from the processing region (n−1) to the processing region n, and The calculation is performed using a chromaticity driving source including an element of the state quantity of the processing area n that is not included in the state quantity of the processing area (n−1), and the dispersion is performed on the pixels that are determined to include ground color information. Processing of observed image information using standard deviation of values as noise The observed amount of the region n is calculated, and the optimum value of the state amount of the processing region n is calculated based on the calculated state amount and the calculated observed amount by the prediction method based on the state space model. Estimate as information and remove ground color information.

<シミュレーション2>
次に、第2の実施の形態に係る画像復元装置210の効果を実証するためのシミュレーションについて説明する。本シミュレーションでは、観測画像として、図19に示す2つの画像を用いた。図19に示す2つの画像は、片面に画像を有し、かつ地色を含む文書画の像(Text1画像)と、両面に画像を有し、かつ地色を含む文書面の画像(Text2画像)とである。図19に示す2つの画像は、いずれも階調24ビットのカラー画像で、解像度は3508×2480画素である。上記の画像について、第2の実施の形態における手法(発明手法2:Prop.2)のシミュレーションを行い、視覚評価を行った。なお、画像復元処理は、R、G、Bの各色について行った。
<Simulation 2>
Next, a simulation for verifying the effect of the image restoration apparatus 210 according to the second embodiment will be described. In this simulation, two images shown in FIG. 19 were used as observation images. The two images shown in FIG. 19 have an image on one side and a document image including a ground color (Text1 image), and an image on a document surface having both sides and a ground color (Text2 image). ). Each of the two images shown in FIG. 19 is a color image having a gradation of 24 bits, and the resolution is 3508 × 2480 pixels. The above image was subjected to a visual evaluation by performing a simulation of the method (Invention Method 2: Prop. 2) in the second embodiment. Note that the image restoration processing was performed for each of R, G, and B colors.

(1)視覚評価
観測画像についてのシミュレーション結果を図20〜図23に示す。なお、図21は図20の一部を拡大したものであり、図23は図22の一部を拡大したものである。
(1) Visual Evaluation FIGS. 20 to 23 show simulation results for the observed image. 21 is an enlarged view of a part of FIG. 20, and FIG. 23 is an enlarged view of a part of FIG.

図20に示すように、発明手法2は、地色情報を除去できている。また、図21に示すように、発明手法2は、文書面の画像の文字部分、及び曲線の模様部分をはっきりと復元しつつ、地色情報を除去できている。このように、発明手法2の有効性を確認することができる。   As shown in FIG. 20, Invention Method 2 can remove ground color information. Further, as shown in FIG. 21, Invention Method 2 can remove ground color information while clearly restoring the character portion of the image on the document surface and the curved pattern portion. Thus, the effectiveness of Invention Method 2 can be confirmed.

また、図22に示すように、両面に画像を有し、かつ地色を含む文書面の画像であるText2画像に対しても、地色情報を除去できていることがわかる。図21に示す拡大図では、発明手法2は、表面画像情報の文字部分をはっきりと復元しつつ、地色情報のみならず、裏写り画像情報も除去できている。このように、発明手法2の有効性を確認することができる。   Further, as shown in FIG. 22, it can be seen that the ground color information can be removed even from the Text2 image which is an image of the document surface including the ground color on both sides. In the enlarged view shown in FIG. 21, Invention Method 2 can remove not only the ground color information but also the show-through image information while clearly restoring the character portion of the surface image information. Thus, the effectiveness of Invention Method 2 can be confirmed.

以上のシミュレーション結果により、第2の実施の形態に係る画像復元装置210における手法(発明手法2)は、高い画像復元能力を発揮していることがわかる。   From the above simulation results, it can be seen that the technique (invention technique 2) in the image restoration apparatus 210 according to the second embodiment exhibits a high image restoration capability.

<第3の実施の形態>
次に、第3の実施の形態について説明する。第3の実施の形態では、両面に画像がプリントされた文書について、表面画像と裏面画像とを両面から同時にスキャンし、表面画像情報と裏面画像情報とに基づいて、表面画像情報にぼけ、雑音および地色を含む裏写り画像情報からなる劣化画像情報を除去する画像復元装置に本発明を適用した場合について説明する。
<Third Embodiment>
Next, a third embodiment will be described. In the third embodiment, for a document having images printed on both sides, a front image and a back image are scanned simultaneously from both sides. Based on the front image information and the back image information, the front image information is blurred and noisy. A case in which the present invention is applied to an image restoration apparatus that removes degraded image information including show-through image information including ground color will be described.

具体的には、第3の実施の形態に係る画像復元装置は、両面に画像を有する文書の一方の面の原画像情報にぼけ、雑音および地色を含む裏写り画像情報からなる劣化画像情報が混在した観測画像情報の状態空間モデルであって、かつ、原画像情報を駆動源として含む状態空間モデルに基づく予測法を用いて、観測画像情報から原画像情報を推定する。   Specifically, the image restoration apparatus according to the third embodiment is deteriorated in the original image information on one side of a document having images on both sides, and deteriorated image information including show-through image information including noise and ground color. The original image information is estimated from the observed image information using a prediction method based on a state space model of observed image information in which the image data is mixed and includes the original image information as a drive source.

第3の実施の形態に係る画像復元装置310の構成について、第1の実施の形態に係る画像復元装置10と異なる部分について説明し、他の部分については第1の実施の形態と同一符号を付して詳細な説明を省略する。   The configuration of the image restoration apparatus 310 according to the third embodiment will be described with respect to parts different from those of the image restoration apparatus 10 according to the first embodiment, and the other parts are denoted by the same reference numerals as those in the first embodiment. Detailed description will be omitted.

第3の実施の形態における入力インタフェース部320は、文書の両面を同時に読み取ることにより得られた表面画像情報及び裏面画像情報を取得し、表面画像情報を観測画像情報とする。   The input interface unit 320 according to the third embodiment acquires front surface image information and back surface image information obtained by simultaneously reading both sides of a document, and uses the front surface image information as observation image information.

また、第3の実施の形態における主記憶部341は、図24に示すように、取込表画像メモリ342と、取込裏画像メモリ343と、被写体領域メモリ45と、処理パラメータメモリ46とを含んだ構成で表すことができる。   In addition, as shown in FIG. 24, the main storage unit 341 in the third embodiment includes a capture table image memory 342, a capture back image memory 343, a subject area memory 45, and a processing parameter memory 46. It can be expressed in a configuration that includes it.

取込表画像メモリ342には、入力インタフェース部20を介して取り込んだ画像情報うち表面画像情報が記憶される。また、取込裏画像メモリ343には、入力インタフェース部20を介して取り込んだ画像情報のうち裏面画像情報が記憶される。   The capture table image memory 342 stores surface image information among the image information captured via the input interface unit 20. Further, the back side image information of the image information captured via the input interface unit 20 is stored in the captured back image memory 343.

第3の実施の形態における画像復元処理部360は、図25に示すように、スキャン情報受付部361と、領域設定部61と、位置変化量設定部362と、状態量算出部363と、観測量算出部364と、推定部365と、復元画像出力部66とを含んだ構成で表すことができる。   As shown in FIG. 25, the image restoration processing unit 360 according to the third embodiment includes a scan information receiving unit 361, a region setting unit 61, a position change amount setting unit 362, a state amount calculation unit 363, and an observation. It can be expressed by a configuration including an amount calculation unit 364, an estimation unit 365, and a restored image output unit 66.

スキャン情報受付部361は、入力インタフェース部20を介して取り込んだ画像情報が、両面スキャンによって取得されたものであるか、片面ずつのスキャンによって取得されたものであるかを示すスキャン情報を受け付ける。   The scan information receiving unit 361 receives scan information indicating whether the image information acquired via the input interface unit 20 is acquired by double-sided scanning or single-sided scanning.

位置変化量設定部362は、スキャン情報受付部361によって、片面ずつのスキャンによって取得されたものであるかを示すスキャン情報を受け付けた場合に、入力インタフェース部20により取得された裏写り画像情報を含む表面画像情報と裏面画像情報との間の位置合わせをブロックマッチッング法、あるいはLucas−Kanade法といった既存の手法を用いて行い、観測画像情報に設定される処理領域nの位置情報に対応して裏面画像情報に対する処理領域nを設定する。添え字Fは、表面画像情報であることを表し、添え字Bは、裏面画像情報であることを表す。なお、両面スキャンである場合には、観測画像情報の処理領域nに対応する裏面画像情報の処理領域nは、予め定められている。 The position change amount setting unit 362 receives the show-through image information acquired by the input interface unit 20 when the scan information receiving unit 361 receives scan information indicating whether the scan is acquired by single-sided scanning. block matching Tsu packaging method alignment between the surface image information and the back surface image information including, or performed using existing techniques such Lucas-Kanade method, the position information of the processing area n F set in the observed image information Correspondingly, the processing area n B for the back image information is set. The subscript F represents the front surface image information, and the subscript B represents the back surface image information. In the case of double-sided scanning, the processing area n B of the back surface image information corresponding to the processing area n of the observation image information is determined in advance.

状態量算出部363は、観測画像情報の処理領域nにおける状態量を、処理領域(n−1)の状態量、処理領域(n−1)から処理領域nへの状態遷移行列Φp1、及び処理領域(n−1)の状態量に含まれない処理領域nの状態量の要素を含む有色性駆動源を用いて算出する。 State quantity calculating unit 363, a state quantity in the processing area n F of the observation image information processing area (n-1) state quantity F, the processing region (n-1) state transition matrix from F to the processing region n F calculated using the [Phi p1, and processing region (n-1) colored driving source including a state of elements of the processing region n F which is not included in the state of F.

観測量算出部364は、観測画像情報における処理領域nの状態量、及び裏面画像情報に基づいて、裏面画像情報を水平方向に反転させた画像情報における処理領域nに対応する領域に基づき算出された値をぼけ、雑音および裏写り画像情報からなる劣化画像情報として用いて、原画像情報に上記劣化画像情報が加わって観測画像情報となる過程を観測量として算出する。 Observation amount calculating unit 364, state quantity of the processing region n F of the observed image information, and based on the back surface image information, based on the region corresponding to the processing region n B in the image information obtained by inverting the back surface image information in the horizontal direction Using the calculated value as degraded image information including blur and noise and show-through image information, the process of adding the degraded image information to the original image information to become observed image information is calculated as an observation amount.

推定部365は、表面画像情報の観測画像情報の処理領域nについて、状態量算出部363により算出された状態量、及び観測量算出部364により算出された観測量からなる状態空間モデルに基づく予測法により、処理領域nの状態量の最適値を処理領域nの原画像情報として推定し復元する。 The estimation unit 365 is based on the state space model including the state quantity calculated by the state quantity calculation unit 363 and the observation quantity calculated by the observation quantity calculation unit 364 for the processing region n F of the observation image information of the surface image information. the prediction method, estimated to restore the optimum value of the state quantity of the processing region n F as an original image information processing regions n F.

次に、第3の実施の形態における画像復元の理論となる状態空間モデルについて説明する。   Next, a state space model that is the theory of image restoration in the third embodiment will be described.

例えば、両面に画像がプリントされた文書をスキャンした場合、表面画像の原画像情報に裏面画像の画像情報が裏写りして、図4の右端に示す劣化画像となる。裏写りは図4に示すように、原画像(表面画像)をスキャンした画像情報に裏面画像が透過し、ぼけ、雑音および裏写り画像情報からなる劣化画像情報が重畳された画像情報である。なお、裏面画像が透過する透過率は、文書紙面の厚さ、画像の濃度、スキャン時の照明強度等に依存する。従って、第3の実施の形態にける劣化画像情報の復元は、第1の実施の形態と同様に、劣化画像情報から裏写りした裏面画像情報を取り除くことである。   For example, when a document with images printed on both sides is scanned, the image information of the back image is shown through to the original image information of the front image, resulting in a deteriorated image shown at the right end of FIG. As shown in FIG. 4, show-through is image information in which a back image is transmitted through image information obtained by scanning an original image (front image) and deteriorated image information including blur, noise, and show-through image information is superimposed. Note that the transmittance through which the back image is transmitted depends on the thickness of the document paper surface, the density of the image, the illumination intensity during scanning, and the like. Therefore, the restoration of the deteriorated image information in the third embodiment is to remove the show-through back image information from the deteriorated image information, as in the first embodiment.

第3の実施の形態では、原画像情報のみを用いて状態量を算出し、かつ、観測画像情報、原画像情報、ぼけ、雑音および裏写り画像情報からなる劣化画像情報を用いて観測量を算出した状態空間モデルであって、有色性駆動源を含む状態空間モデルに基づく予測法により、状態量の最適推定値を求めることにより、観測画像情報から復元画像情報を生成する。   In the third embodiment, the state quantity is calculated using only the original image information, and the observation quantity is calculated using the degraded image information including the observation image information, the original image information, blur, noise, and show-through image information. Reconstructed image information is generated from the observed image information by obtaining an optimum estimated value of the state quantity by a prediction method based on the calculated state space model and including a colored drive source.

上記の状態空間モデルは、下記(6)式の状態方程式と、下記(7)式の観測方程式とで表される。ただし、状態方程式において、ベクトルx p3(n)は状態ベクトル(表面画像情報を原画像情報とする状態量からなるベクトル)、状態遷移行列Φp3は処理領域n−1)から処理領域nへの遷移を表す行列、駆動源ベクトルδ p3(n)は原画像情報である。また、観測方程式において、ベクトルy p3(n)は観測ベクトル(観測画像情報)、観測行列Mは表面画像情報に生ずるぼけを表す行列、sは透過率、HはぼけのPSF、ベクトルybr p3(n)は状態ベクトル(裏面画像情報を水平方向に反転させた場合の状態量)である。添え字p3は第3の実施の形態に係るものであることを表す。また、添え字fは表面画像情報であることを表し、添え字bは裏面画像情報であることを表し、添え字rは水平方向への反転を表す。すなわち添え字brは、裏面画像情報を水平方向に反転させたことを表す。 The state space model is represented by the following equation (6) and the following equation (7). However, in the state equation, the vector x f p3 (n) is a state vector (a vector composed of a state quantity having surface image information as original image information), and the state transition matrix Φ p3 is a processing region n−1) to the processing region n. The drive source vector δ f p3 (n) representing the transition of the original image information. Further, in the observation equation, the vector y f p3 (n) is an observation vector (observation image information), the observation matrix M is a matrix representing a blur occurring in the surface image information, s is a transmittance, H is a blur PSF, and a vector y br p3 (n) is a state vector (a state quantity when the reverse side image information is inverted in the horizontal direction). The subscript p3 represents that it relates to the third embodiment. Further, the subscript f represents the front surface image information, the subscript b represents the back surface image information, and the subscript r represents the inversion in the horizontal direction. That is, the subscript br represents that the reverse side image information is inverted in the horizontal direction.

(6)式の状態方程式は、観測対象の状態空間モデルを記述したものであり、状態変数(ここでは、状態ベクトルx p3(n−1)、x p3(n))は生成過程を表している。また、(7)式の観測方程式は、何らかの観測装置を通じて観測する過程を記述したものであり、観測結果(ここでは、観測ベクトルy p3(n))が、被観測量つまり入力(ここでは、状態ベクトルx p3(n))に依存して生成される。 The state equation (6) describes the state space model to be observed, and state variables (here, state vectors x f p3 (n−1), x f p3 (n)) Represents. The observation equation (7) describes the process of observation through some kind of observation device, and the observation result (here, the observation vector y f p3 (n)) is the observed quantity, that is, the input (here) , State vector x f p3 (n)).

ここで、上記(7)式に示した観測方程式の導出方法について説明する。上記図4に示すように、裏写りは、原画像(表面画像)をスキャンした画像情報に、裏面画像が透過しぼけ、雑音および裏写り画像情報からなる劣化画像情報が重畳された画像情報である。従って、原則として、観測方程式は、以下の(8)式で表すことができる。   Here, a method for deriving the observation equation shown in the equation (7) will be described. As shown in FIG. 4, show-through is image information in which the original image (front image) is scanned with image information in which the back image is blurred and deteriorated image information including noise and show-through image information is superimposed. is there. Therefore, in principle, the observation equation can be expressed by the following equation (8).

上記(8)式では、裏面画像情報に対応する状態ベクトルx p3(n)に、透過率sとぼけのPSFである行列Hとが重畳されている。 In the above equation (8), the transmittance s and the matrix H that is a blurred PSF are superimposed on the state vector x b p3 (n) corresponding to the back surface image information.

一方、裏面画像情報を基準とし、裏面画像情報の観測方程式を算出すると、以下の(9)式で表すことができる。以下の(9)式の観測方程式において、ベクトルy(n)は裏面画像情報の観測ベクトル(観測画像情報)、行列Mは観測行列、sは透過率、HはぼけのPSF、ベクトルx(n)は状態ベクトル(裏面画像情報を原画像情報とする状態量)、ベクトルx(n)は状態ベクトル(表面画像情報を原画像情報とする状態量)である。添え字bは裏面画像情報であることを表し、添え字fは表面画像情報であることを表す。 On the other hand, when an observation equation of the back surface image information is calculated based on the back surface image information, it can be expressed by the following equation (9). In the following observation equation (9), the vector y b (n) is the observation vector (observation image information) of the back surface image information, the matrix M is the observation matrix, s is the transmittance, H is the blurred PSF, and the vector x b (N) is a state vector (a state quantity having the back image information as the original image information), and a vector x f (n) is a state vector (a state quantity having the front image information as the original image information). The subscript b represents the back surface image information, and the subscript f represents the front surface image information.

上記(9)式において、透過率sは小さいため、以下の(10)式を満たす。   In the above formula (9), the transmittance s is small, so the following formula (10) is satisfied.

従って、上記(9)式は、上記(10)式を考慮すると、以下の(11)式となる。   Therefore, the above formula (9) becomes the following formula (11) in consideration of the above formula (10).

上記(11)を変形すると、以下の(12)式となる。   When the above (11) is modified, the following equation (12) is obtained.

そして、裏面画像情報は、水平方向に反転して表面画像情報に付加されることを考慮して上記(12)式を上記(8)式に代入すると、上記(7)式となる。   Then, considering that the back surface image information is inverted in the horizontal direction and added to the front surface image information, the above equation (12) is substituted into the above equation (8) to obtain the above equation (7).

次に、図26及び上記図7を参照して、第3の実施の形態に係る画像復元装置310の作用について説明する。なお、図26及び上記図7に示す画像復元処理ルーチンは、記憶部40に制御プログラムとして格納されており、図示しないCPUによって実行される。   Next, with reference to FIG. 26 and FIG. 7, the operation of the image restoration apparatus 310 according to the third embodiment will be described. The image restoration processing routine shown in FIG. 26 and FIG. 7 is stored as a control program in the storage unit 40 and executed by a CPU (not shown).

まず、ステップ300では、画像入力装置であるスキャナにより、両面に画像がプリントされた文書から読み取られた表面画像及び裏面画像の画像情報を、入力インタフェース部20を介して取り込み、主記憶部41の取込画像メモリ42に記憶する。なお、表面画像の画像情報には表面画像のカラー情報も含まれているため、画像情報設定部33によって、入力された画像を白黒画像、又はRGB画像の何れかとするかを設定してもよい。   First, in step 300, image information of a front image and a back image read from a document having images printed on both sides thereof by a scanner serving as an image input device is acquired via the input interface unit 20, and stored in the main storage unit 41. Store in the captured image memory 42. Since the image information of the surface image includes color information of the surface image, the image information setting unit 33 may set whether the input image is a monochrome image or an RGB image. .

次に、ステップ301で、スキャン情報受付部361が、入力インタフェース部20を介して取り込んだ画像情報が、両面スキャンによって取得されたものであるか、片面ずつのスキャンによって取得されたものであるかを示すスキャン情報を受け付ける。   Next, in step 301, whether the image information acquired by the scan information receiving unit 361 via the input interface unit 20 is acquired by double-sided scanning or acquired by single-sided scanning. Scan information indicating is received.

次に、ステップ302で、領域設定部61が、部分領域Lの画素サイズと、画像復元の処理単位となる処理領域nの画素サイズとを設定する。
なお、処理領域nの画素サイズの設定は、ユーザにより操作部30の領域指定部32から指定された値を設定するようにしてもよい。
Next, in step 302, the region setting unit 61 sets the pixel size of the partial region L and the pixel size of the processing region n that is a unit of image restoration processing.
Note that the pixel size of the processing region n may be set by a value designated by the user from the region designation unit 32 of the operation unit 30.

次に、ステップ303で、上記ステップ301で受け付けたスキャン情報に基づいて、取り込んだ画像情報が、両面スキャンによって取得されたものであるか、片面ずつのスキャンによって取得されたものであるかを判定する。取り込んだ画像情報が、両面スキャンによって取得されたものである場合には、ステップ104に移行する。一方、取り込んだ画像情報が、片面ずつのスキャンによって取得されたものである場合には、ステップ304へ移行する。   Next, in step 303, based on the scan information received in step 301, it is determined whether the captured image information has been acquired by double-sided scanning or single-sided scanning. To do. If the captured image information is acquired by double-sided scanning, the process proceeds to step 104. On the other hand, if the captured image information has been acquired by single-sided scanning, the process proceeds to step 304.

次に、ステップ304で、位置変化量設定部362が、取込表画像メモリ342に記憶されている表面画像情報と、取込裏画像メモリ343とに記憶されている裏面画像情報とを読み出し、裏写り画像情報を含む表面画像情報と裏面画像情報との間の位置合わせを行い、処理領域nの各領域を裏面画像情報に対して設定する。画像情報の位置合わせには、ブロックマッチングやLucas−Kanade法といった既存の手法を用いることができる。本実施の形態では、ブロックマッチングを用いる場合について説明する。   Next, in step 304, the position change amount setting unit 362 reads the front surface image information stored in the capture table image memory 342 and the back surface image information stored in the capture back image memory 343, Position alignment is performed between the front surface image information including the show-through image information and the back surface image information, and each region of the processing region n is set for the back surface image information. Existing methods such as block matching and the Lucas-Kanade method can be used for the alignment of image information. In this embodiment, a case where block matching is used will be described.

ブロックマッチングとは、表面画像情報で設定した探索範囲内において、裏面画像情報で類似する領域を探す手法であり、表面画像情報の小領域の画素値と裏面画像情報で取り出した小領域の画素値との誤差の総和が最小となる領域を求め、対応する位置を探す手法である。画素値の誤差の総和を取る手段として、下記(13)式に示す各画素値の2乗距離の総和を取るSSD(Sum of Squared Distance)や、下記(14)式に示す各画素値の絶対値距離の総和を取るSAD(Sum of Absolute Distance)が挙げられる(参考特許文献「藤原 慎矢、田口 亮、“ブロックマッチング動き推定に基づくフレームレート向上に関する一手法”、IEICE Technical Report SIS2006-15, Jun. 2006」参照)。なお、(13)式及び(14)式におけるxi,jは画素(i,j)の画素値である。 Block matching is a method of searching for similar areas in the back image information within the search range set in the front image information. The pixel values of the small area extracted from the back image information and the pixel values of the small area extracted from the back image information This is a method of finding a region where the sum of errors with the minimum is found and searching for a corresponding position. As means for calculating the sum of error of pixel values, an SSD (Sum of Squared Distance) that calculates the sum of square distances of the respective pixel values shown in the following formula (13) or an absolute value of each pixel value shown in the following formula (14) SAD (Sum of Absolute Distance) that takes the sum of the value distances is mentioned (reference patent literature “Shinya Fujiwara, Ryo Taguchi,“ A method for improving frame rate based on block matching motion estimation ”, IEICE Technical Report SIS2006-15, Jun. 2006 ”). Note that x i, j in the equations (13) and (14) is the pixel value of the pixel (i, j).

次に、ステップ320で、状態量算出部363が、状態量算出処理を実行する。ここで、上記図9を参照して、状態量算出処理ルーチンについて説明する。   Next, in step 320, the state quantity calculation unit 363 executes state quantity calculation processing. Here, the state quantity calculation processing routine will be described with reference to FIG.

ステップ1200で、状態量算出部263が、処理領域(n−1)の各画素の状態量を要素とする状態ベクトルと、処理領域nの各画素の状態量を要素とする状態ベクトルとを導出する。以下、状態ベクトルの導出方法を具体的に説明する。   In step 1200, the state quantity calculation unit 263 derives a state vector whose element is the state quantity of each pixel in the processing area (n−1) and a state vector whose element is the state quantity of each pixel in the processing area n. To do. Hereinafter, a method for deriving the state vector will be specifically described.

まず、図27に示す状態ベクトルは、画素サイズp×qの処理領域(n−1)の各画素の状態量を組み合わせて構成される。すなわち、状態ベクトルは9次元のベクトルx p3(n−1)=[x 1,1(n−1) x 2,1(n−1)・・・x 3,3(n−1)]となる。次に、画素サイズp×qの処理領域nの各画素の状態量を組み合わせて構成される。すなわち、状態nの状態ベクトルは9次元のベクトルx p3(n)=[x 1,1(n) x 2,1(n)・・・x 3,3(n)]となる。ただし、Tはベクトルの転置を表す。また、状態ベクトルx p3(n−1)及びx p3(n)のサイズ(次元数)は設定された処理領域nの画素サイズp×qによって変化する。 First, the state vector shown in FIG. 27 is configured by combining the state quantities of the respective pixels in the processing area (n−1) having the pixel size p × q. That is, the state vector is a 9-dimensional vector x f p3 (n−1) = [x f 1,1 (n−1) x f 2,1 (n−1)... X f 3,3 (n− 1)] T Next, the state quantities of the respective pixels in the processing area n having the pixel size p × q are combined. That is, the state vector of state n is a nine-dimensional vector x f p3 (n) = [x f 1,1 (n) x f 2,1 (n)... X f 3,3 (n)] T Become. However, T represents transposition of a vector. In addition, the size (number of dimensions) of the state vectors x f p3 (n−1) and x f p3 (n) varies depending on the pixel size p × q of the set processing region n.

次に、ステップ1202で、状態量算出部263が、駆動源ベクトルを構成する。上記図27に示すように、状態量x1,3(n),x2,3(n),x3,3(n)は、処理領域(n−1)の情報からは構成することができないため、本実施の形態では、駆動源ベクトルに状態量x1,3(n−1),x2,3(n−1),x3,3(n−1)を用いることで、駆動源ベクトルδ p3(n)を構成する。これは、処理領域が変化した際に、処理領域(n−1)の状態量では表せられない状態量を、処理領域nの状態量で構成することを表しており、表面画像情報の原画像情報が含まれることから、駆動源ベクトルδ p3(n)は有色性駆動源となる。 Next, in step 1202, the state quantity calculation unit 263 configures a drive source vector. As shown in FIG. 27, the state quantities x 1,3 (n), x 2,3 (n), x 3,3 (n) can be configured from information in the processing area (n−1). In this embodiment, since the state quantities x 1,3 (n-1), x 2,3 (n-1), x 3,3 (n-1) are used as the drive source vector, the driving is performed. A source vector δ f p3 (n) is constructed. This means that when the processing area changes, the state quantity that cannot be represented by the state quantity of the processing area (n−1) is constituted by the state quantity of the processing area n, and the original image of the surface image information Since the information is included, the drive source vector δ f p3 (n) is a colored drive source.

次に、ステップ1204で、状態量算出部363が、ステップ1200で導出した状態ベクトルx p3(n−1)及びx p3(n)、ステップ105で構成した状態遷移行列Φp3、及びステップ1202で構成した駆動源ベクトルδ p3(n)に基づいて、状態量を算出する。上記図27に示すように、本実施の形態における状態方程式は、原画像情報からなる状態ベクトルx p3(n)と、0及び1からなる状態遷移行列Φp3と、有色信号である原画像情報からなる駆動源ベクトルδ p3(n)とから構成されるため、所望の状態量は原画像情報(復元画像情報)のみで構成されることになる。 Next, in step 1204, the state quantity calculation unit 363 uses the state vectors x f p3 (n−1) and x f p3 (n) derived in step 1200, the state transition matrix Φ p3 configured in step 105, and step The state quantity is calculated based on the drive source vector δ f p3 (n) configured at 1202. As shown in FIG. 27, the state equation in the present embodiment includes a state vector x f p3 (n) composed of original image information, a state transition matrix Φ p3 composed of 0 and 1, and an original image that is a colored signal. Since it is composed of the drive source vector δ f p3 (n) consisting of information, the desired state quantity is composed only of the original image information (restored image information).

状態量算出処理ルーチンが終了すると、画像復元処理ルーチンにリターンして、ステップ322へ移行し、観測量算出部364が、上記図4に示した観測画像モデルに基づいて、図28及び図29に示すように、表面画像の原画像情報に裏面画像の裏写り画像情報が加わって観測画像情報となる過程を、観測量(観測方程式)として算出する。観測ベクトルy p3(n)は、観測画像情報を含む観測量として表面画像情報の処理領域nの各画素の画素値を要素とする9次元のベクトルである。また、観測行列Mは、観測方程式を満たすための単位行列であり、M−1は、観測行列Mの一般化逆行列である。ベクトルx p3(n)は、表面画像の原画像情報における処理領域nの各画素の状態量を要素とするベクトルである。また、sは裏写りに関する透過率であり、Hは画像の劣化モデルにおけるぼけの点拡がり関数(PSF)に対応した値を要素とする行列である。ベクトルybr p3(n)は、裏面画像の観測画像情報を水平方向に反転させた画像情報における処理領域nの各画素の状態量を要素とするベクトルである。 When the state quantity calculation process routine ends, the process returns to the image restoration process routine and proceeds to step 322, where the observation quantity calculation unit 364 performs the process shown in FIGS. 28 and 29 based on the observation image model shown in FIG. As shown, a process in which the show-through image information of the back image is added to the original image information of the front image and becomes observation image information is calculated as an observation amount (observation equation). The observation vector y f p3 (n) is a nine-dimensional vector whose element is the pixel value of each pixel in the processing region n of the surface image information as an observation amount including the observation image information. The observation matrix M is a unit matrix for satisfying the observation equation, and M −1 is a generalized inverse matrix of the observation matrix M. The vector x f p3 (n) is a vector whose element is the state quantity of each pixel in the processing region n in the original image information of the surface image. Further, s is a transmittance relating to the show-through, and H is a matrix having elements corresponding to the blur point spread function (PSF) in the image degradation model. The vector y br p3 (n) is a vector whose element is the state quantity of each pixel in the processing area n in the image information obtained by inverting the observed image information of the back image in the horizontal direction.

次に、ステップ124で、推定部65が、上記ステップ320で算出された状態量(状態方程式)及び上記ステップ322で算出された観測量(観測方程式)により、第1の実施の形態と同様に、有色性駆動源を含む状態空間モデルに基づく予測法を導出する。なお、状態空間モデルに基づく予測法においては、第1の実施の形態における観測雑音ベクトルε p1(n)は、上記(7)式におけるsHM−1br p3(n)に対応する。 Next, in step 124, the estimation unit 65 uses the state quantity (state equation) calculated in step 320 and the observation quantity (observation equation) calculated in step 322 as in the first embodiment. A prediction method based on a state space model including a colored drive source is derived. In the prediction method based on the state space model, the observed noise vector ε f p1 (n) in the first embodiment corresponds to sHM −1 y br p3 (n) in the above equation (7).

以下、ステップ126〜140を実行して、画像復元処理ルーチンを終了する。   Thereafter, steps 126 to 140 are executed, and the image restoration processing routine is terminated.

なお、第3の実施の形態に係る画像復元装置の他の構成及び作用については、第1の実施の形態と同様であるため、説明を省略する。   Note that other configurations and operations of the image restoration apparatus according to the third embodiment are the same as those of the first embodiment, and thus description thereof is omitted.

以上説明したように、第3の実施の形態の画像復元装置310によれば、文書の両面を読み取ることにより得られた表面画像情報及び裏面画像情報を取得し、表面画像情報を観測画像情報とし、観測画像情報の処理領域nにおける状態量を、処理領域(n−1)の状態量、処理領域(n−1)から処理領域nへの状態遷移、及び処理領域(n−1)の状態量に含まれない処理領域nの状態量の要素を含む有色性駆動源を用いて算出し、観測画像情報の処理領域nについて、観測画像情報における処理領域nの状態量、及び裏面画像に情報基づき裏面画像情報を水平方向に反転させた画像情報における処理領域nで算出された値をぼけ、雑音および裏写り画像情報からなる劣化画像情報として用い、原画像情報に前記劣化画像情報が加わって観測画像情報となる過程を観測量として算出し、算出された状態量、及び算出された観測量に基づいて、状態空間モデルに基づく予測法により、処理領域nの状態量の最適値から画像情報を復元し、劣化画像情報を除去できる。   As described above, according to the image restoration apparatus 310 of the third embodiment, the front side image information and the back side image information obtained by reading both sides of a document are acquired, and the front side image information is used as observation image information. , The state quantity in the processing area n of the observed image information, the state quantity in the processing area (n−1), the state transition from the processing area (n−1) to the processing area n, and the state of the processing area (n−1). Calculated using a chromaticity driving source including an element of the state quantity of the processing area n not included in the quantity, and for the processing area n of the observation image information, information about the state quantity of the processing area n in the observation image information and the back image Based on this, the value calculated in the processing area n in the image information obtained by inverting the reverse image information in the horizontal direction is used as degraded image information including noise and show-through image information, and the degraded image information is added to the original image information. View The process that becomes the image information is calculated as an observation amount, and based on the calculated state amount and the calculated observation amount, the image information is obtained from the optimum value of the state amount of the processing region n by a prediction method based on the state space model. It is possible to restore and remove the degraded image information.

<シミュレーション3> <Simulation 3>

次に、第3の実施の形態に係る画像復元装置310の効果を実証するためのシミュレーションについて説明する。本シミュレーションでは、第3の実施の形態に係る画像復元装置10の画像復元能力を評価するために、(1)視覚評価、(2)客観評価、及び(3)主観評価を行った。視覚評価は、原画像と復元画像とを視覚により比較した評価である。客観評価は、数値による評価である。主観評価は、聞き取り調査である。以下、これらを順に説明する。   Next, a simulation for verifying the effect of the image restoration apparatus 310 according to the third embodiment will be described. In this simulation, (1) visual evaluation, (2) objective evaluation, and (3) subjective evaluation were performed in order to evaluate the image restoration capability of the image restoration apparatus 10 according to the third embodiment. The visual evaluation is an evaluation in which an original image and a restored image are compared visually. Objective evaluation is numerical evaluation. Subjective evaluation is an interview survey. Hereinafter, these will be described in order.

まず、シミュレーションの条件について説明する。本シミュレーションでは、原画像として、図30に示す3つの画像(「Flowchart」、「Lenna」及び「Word」)を用いた。   First, simulation conditions will be described. In this simulation, three images (“Flowchart”, “Lenna”, and “Word”) shown in FIG. 30 were used as original images.

ここで、画像「Flowchart」は、表面画像1として用いることとする。画像「Flowchart」は、階調8ビットのグレースケール画像で、解像度は256×256画素である。また、画像「Lenna」は、表面画像2として用いることとする。画像「Lenna」は、階調24ビットのカラー画像で、解像度は256×256画素である。また、画像「Word」は、裏面画像として用いることとする。画像「Word」は、階調8ビットのグレースケール画像で、解像度は256×256画素である。   Here, the image “Flowchart” is used as the surface image 1. The image “Flowchart” is a grayscale image having a gradation of 8 bits and has a resolution of 256 × 256 pixels. The image “Lenna” is used as the surface image 2. The image “Lenna” is a color image having a gradation of 24 bits and has a resolution of 256 × 256 pixels. The image “Word” is used as a back image. The image “Word” is a grayscale image having a gradation of 8 bits and has a resolution of 256 × 256 pixels.

そして、同一の上記シミュレーション条件の下で、第3の実施の形態における手法(発明手法3:Prop.1)と、非特許文献1による手法(従来手法1:Conv.1)と、特許文献1による手法(従来手法2:Conv.2)とを比較した。   Under the same simulation conditions, the method in the third embodiment (invention method 3: Prop. 1), the method according to Non-Patent Document 1 (conventional method 1: Conv. 1), and Patent Document 1 The method according to the above (conventional method 2: Conv. 2) was compared.

(1)視覚評価
画像「Flowchart」についてのシミュレーション結果を図31及び図32に、画像「Lenna」についてのシミュレーション結果を図33及び図34に示す。なお、図32は図31の一部を拡大したもの、図34は図33の一部を拡大したものである。
(1) Visual Evaluation FIGS. 31 and 32 show simulation results for the image “Flowchart”, and FIGS. 33 and 34 show simulation results for the image “Lenna”. 32 is an enlarged view of a part of FIG. 31, and FIG. 34 is an enlarged view of a part of FIG.

画像「Flowchart」についてのシミュレーション結果では、図32に示すように、従来手法1は、裏写りが完全には消えておらず、不完全であることがわかる。また、従来手法2は、裏写りは消えているものの、表面画像の情報が劣化していることがわかる。一方、発明手法3は、表面画像の情報を維持しつつ、裏写りの鮮明な除去をすることができている。   From the simulation result for the image “Flowchart”, as shown in FIG. 32, it can be seen that in the conventional method 1, the show-through has not completely disappeared and is incomplete. Further, it can be seen that in the conventional method 2, the show-through has disappeared, but the information of the surface image has deteriorated. On the other hand, Invention Method 3 can clearly remove the show-through while maintaining the information of the surface image.

画像「Lenna」についてのシミュレーション結果では、図34に示すように、従来手法1は、画像全体が白くなっており、裏写りの除去も不完全であることがわかる。また、従来手法2は、完全には裏写りが除去できておらず、不鮮明な結果となっている。一方、発明手法3は、裏写りが除去できており、鮮明な画像となっている。   From the simulation result for the image “Lenna”, as shown in FIG. 34, it can be seen that the conventional method 1 is white as a whole and the show-through removal is incomplete. Further, in the conventional method 2, the show-through is not completely removed, and the result is unclear. On the other hand, Invention Method 3 can remove the show-through and has a clear image.

このように、発明手法3の有効性を確認することができる。 Thus, the effectiveness of Invention Method 3 can be confirmed.

(2)客観評価(数値による評価)
下表1に、原画像に対するシミュレーション結果(客観評価)を示す。
(2) Objective evaluation (numerical evaluation)
Table 1 below shows the simulation results (objective evaluation) for the original image.

ここでは、従来手法1、従来手法2及び発明手法3の画像復元能力を数値により評価するため、下記(15)式に示すPSNR[dB]を用いて画像復元能力を評価した。なお、PSNR(Peak Signal-to-Noise Ratio)は、画像の信号に対する雑音の比であり、数値が大きいほど劣化(ぼけや雑音など)が少なく画像として良好であるといえる。   Here, in order to evaluate the image restoration capability of the conventional method 1, the conventional method 2, and the invention method 3 by numerical values, the image restoration capability was evaluated using PSNR [dB] expressed by the following equation (15). PSNR (Peak Signal-to-Noise Ratio) is the ratio of noise to image signal, and the larger the value, the less degradation (blur, noise, etc.), and the better the image.

表1に示すように、「Flowchart」及び「Lenna」のどちらの画像についても、発明手法3は、従来手法1及び従来手法2よりもPSNRの数値が大きいことが確認できる。これにより、発明手法3は、客観評価の点でも、従来手法1及び従来手法2に比べて画像復元能力が高いことがわかる。   As shown in Table 1, it can be confirmed that the invention method 3 has a larger PSNR value than the conventional method 1 and the conventional method 2 for both “Flowchart” and “Lenna” images. Thus, it can be seen that Invention Method 3 has higher image restoration capability than Objective Method 1 and Conventional Method 2 in terms of objective evaluation.

(3)主観評価(聞き取り調査)
図35に、原画像に対するシミュレーション結果(主観評価)を示す。
(3) Subjective evaluation (interview survey)
FIG. 35 shows a simulation result (subjective evaluation) for the original image.

ここでは、従来手法1、従来手法2及び発明手法3の画像復元能力を評価するために、聞き取り調査による主観評価を行った。画像復元の性能評価は、下表2に示すように、MOS(Mean Opinion Score)評価基準に基づく5段階の評価値を用いた聞き取り調査により行った。50人(男性25人、女性25人)の聴取者が画像復元により得られた画像(図18〜図21参照)を評価した。各々の聴取者は、評価値「1」から「5」を決定する。評価値「5」が最良である。   Here, in order to evaluate the image restoration ability of the conventional method 1, the conventional method 2, and the inventive method 3, subjective evaluation was performed by interview survey. As shown in Table 2 below, the performance evaluation of image restoration was performed by an interview survey using evaluation values in five stages based on MOS (Mean Opinion Score) evaluation criteria. 50 listeners (25 men and 25 women) evaluated images (see FIGS. 18 to 21) obtained by image restoration. Each listener determines an evaluation value “1” to “5”. The evaluation value “5” is the best.

図35に示すように、「Flowchart」及び「Lenna」のどちらの画像についても、発明手法3は、従来手法1及び従来手法2よりも高いMOS評価値を得ていることが確認できる。これにより、発明手法3は、主観評価の点でも、従来手法1及び従来手法2に比べて画像復元能力が高いことがわかる。   As shown in FIG. 35, it can be confirmed that the invention method 3 obtains a higher MOS evaluation value than the conventional method 1 and the conventional method 2 for both “Flowchart” and “Lenna” images. Thus, it can be seen that Invention Method 3 has higher image restoration capability than Subject Method 1 and Conventional Method 2 also in terms of subjective evaluation.

以上の実験結果により、第3の実施の形態に係る画像復元装置310における手法(発明手法3)は、従来手法1及び従来手法2に比べて高い画像復元能力を発揮していることがわかる。   From the above experimental results, it can be seen that the technique (invention technique 3) in the image restoration apparatus 310 according to the third embodiment exhibits a higher image restoration capability than the conventional technique 1 and the conventional technique 2.

<シミュレーション4> <Simulation 4>

次に、第1の実施の形態に係る画像復元装置10と比較して、第3の実施の形態に係る画像復元装置310の効果を実証するためのシミュレーションについて説明する。本シミュレーションでは、第3の実施の形態に係る画像復元装置10の画像復元能力を評価するために、視覚評価を行った。   Next, a simulation for demonstrating the effect of the image restoration apparatus 310 according to the third embodiment as compared with the image restoration apparatus 10 according to the first embodiment will be described. In this simulation, visual evaluation was performed in order to evaluate the image restoration capability of the image restoration apparatus 10 according to the third embodiment.

まず、シミュレーションの条件について説明する。本シミュレーションでは、原画像として、図36に示す2つの画像(「Front」、及び「Back」)を用いた。   First, simulation conditions will be described. In this simulation, two images (“Front” and “Back”) shown in FIG. 36 were used as original images.

ここで、画像「Front」は、表面画像として用い、画像「Back」は、裏面画像として用いることとする。いずれの画像も、階調24ビットのカラー画像で、解像度は3508×2480画素である。   Here, the image “Front” is used as a front image, and the image “Back” is used as a back image. Each image is a color image having a gradation of 24 bits, and the resolution is 3508 × 2480 pixels.

そして、同一の上記シミュレーション条件の下で、第1の実施の形態における手法(発明手法1:Prop.1)と、第3の実施の形態における手法(発明手法3:Prop.3)と、非特許文献1による手法(従来手法1:Conv.1)と、特許文献1による手法(従来手法2:Conv.2)とを比較した。   Under the same simulation conditions, the method in the first embodiment (invention method 1: Prop. 1), the method in the third embodiment (invention method 3: Prop. 3), non- The method according to Patent Document 1 (Conventional Method 1: Conv. 1) and the method according to Patent Document 1 (Conventional Method 2: Conv. 2) were compared.

(1)視覚評価
第3の実施の形態における手法(発明手法3:Prop.3)と、非特許文献1による手法(従来手法1:Conv.1)と、特許文献1による手法(従来手法2:Conv.2)とについてのシミュレーション結果を図37及び図38に示す。なお、図38は図37の一部を拡大したものである。
また、第1の実施の形態における手法(発明手法1:Prop.1)と、第3の実施の形態における手法(発明手法3:Prop.3)とについてのシミュレーション結果を図39〜図41に示す。なお、図40及び図41は図39の一部を拡大したものである。
(1) Visual evaluation The method in the third embodiment (invention method 3: Prop. 3), the method according to Non-Patent Document 1 (conventional method 1: Conv. 1), and the method according to Patent Document 1 (conventional method 2) : Conv.2) and the simulation results are shown in FIGS. FIG. 38 is an enlarged view of a part of FIG.
39 to 41 show simulation results for the technique in the first embodiment (invention technique 1: Prop. 1) and the technique in the third embodiment (invention technique 3: Prop. 3). Show. 40 and 41 are enlarged views of a part of FIG.

第3の実施の形態における手法(発明手法3:Prop.3)と、非特許文献1による手法(従来手法1:Conv.1)と、特許文献1による手法(従来手法2:Conv.2)とについてのシミュレーション結果では、図38に示すように、従来手法1及び従来手法2では、裏写りが完全には消えておらず、不完全であることがわかる。一方、発明手法3は、表面画像の情報を維持しつつ、裏写りの鮮明な除去をすることができている。   The method according to the third embodiment (invention method 3: Prop. 3), the method according to Non-Patent Document 1 (conventional method 1: Conv. 1), and the method according to Patent Document 1 (conventional method 2: Conv. 2) As shown in FIG. 38, the simulation results for and show that in the conventional method 1 and the conventional method 2, the show-through has not completely disappeared and is incomplete. On the other hand, Invention Method 3 can clearly remove the show-through while maintaining the information of the surface image.

また、第1の実施の形態における手法(発明手法1:Prop.1)と、第3の実施の形態における手法(発明手法3:Prop.3)とについてのシミュレーション結果では、図41に示すように、発明手法1では、背景については裏写りを除去できているが、文字「A」の中に裏写りが混在していることがわかる。一方、発明手法3では、背景の裏写りが除去されていると共に、文字「A」の中に裏写りについても除去できていることがわかる。   In addition, simulation results for the method in the first embodiment (invention method 1: Prop. 1) and the method in the third embodiment (invention method 3: Prop. 3) are as shown in FIG. In the invention method 1, the show-through can be removed from the background, but it can be seen that the show-through is mixed in the letter “A”. On the other hand, it can be seen that, in Invention Method 3, the show-through of the background is removed and the show-through is also removed in the letter “A”.

このように、発明手法3の有効性を確認することができる。 Thus, the effectiveness of Invention Method 3 can be confirmed.

なお、本発明は、上述した実施形態に限定されるものではなく、この発明の要旨を逸脱しない範囲内で様々な変形や応用が可能である。   Note that the present invention is not limited to the above-described embodiment, and various modifications and applications are possible without departing from the gist of the present invention.

例えば、上記の実施の形態では、部分領域毎に各処理を行う場合を例に説明したが、これに限定されるものではなく、観測画像全体について処理を行ってもよい。   For example, in the above embodiment, the case where each process is performed for each partial region has been described as an example. However, the present invention is not limited to this, and the entire observation image may be processed.

また、第1及び第2の実施の形態では、部分領域の各々について、当該部分領域内の画素の各々の画素値に基づいて分散値を算出する場合を例に説明したが、これに限定されるものではなく、観測画像全体について、観測画像内の画素の各々の画素値に基づいて分散値を算出してもよい。   In the first and second embodiments, the case where the dispersion value is calculated based on the pixel value of each pixel in the partial area has been described as an example. However, the present invention is not limited to this. Instead, the variance value may be calculated for the entire observation image based on the pixel value of each pixel in the observation image.

なお、上記実施の形態では、CPUによりプログラムを実行することで各部の処理を実行する場合について説明したが、各部をハードウエアにより構成するようにしてもよい。   In the above-described embodiment, the case where the processing of each unit is executed by executing a program by the CPU has been described, but each unit may be configured by hardware.

10,210,310 画像復元装置
20,320 入力インタフェース部
30 操作部
31 パラメータ設定部
32 領域指定部
34 画像情報設定部
40 記憶部
41,341 主記憶部
42 取込画像メモリ
45 被写体領域メモリ
46 処理パラメータメモリ
47 補助記憶部
48 表示メモリ
49 取込画像メモリ
50 処理メモリ
51 復元画像メモリ
60,260,360 画像復元処理部
61 領域設定部
62 劣化画像情報判定部
63,263,363 状態量算出部
64,364 観測量算出部
65,365 推定部
66 復元画像出力部
70 出力インタフェース部
262 地色判定部
342 取込表画像メモリ
343 取込裏画像メモリ
361 スキャン情報受付部
362 位置変化量設定部
10, 210, 310 Image restoration device 20, 320 Input interface unit 30 Operation unit 31 Parameter setting unit 32 Area specifying unit 34 Image information setting unit 40 Storage unit 41, 341 Main storage unit 42 Captured image memory 45 Subject area memory 46 Processing Parameter memory 47 Auxiliary storage unit 48 Display memory 49 Captured image memory 50 Processing memory 51 Restored image memory 60, 260, 360 Image restoration processing unit 61 Area setting unit 62 Degraded image information determination unit 63, 263, 363 State quantity calculation unit 64 , 364 Observation amount calculation unit 65, 365 Estimation unit 66 Restored image output unit 70 Output interface unit 262 Ground color determination unit 342 Capture table image memory 343 Captured back image memory 361 Scan information reception unit 362 Position change amount setting unit

Claims (14)

原画像情報にぼけおよび雑音が混在した観測画像情報に対し、前記原画像情報を駆動源として含む状態空間モデルに基づく予測法を用い、前記観測画像情報から前記原画像情報を推定する画像復元装置であって、
文書を読み取ことにより得られた表面画像情報を、前記観測画像情報として取得する画像取得手段と、
前記観測画像情報の各画素の画素値に基づいて分散値を算出し、前記分散値から算出された閾値に基づき、前記各画素にぼけおよび雑音が混在しているか否かを判定する判定手段と、
前記観測画像情報の時刻nでの処理領域nにおける状態量を時刻(n−1)での処理領域(n−1)の状態量、前記処理領域(n−1)から前記処理領域nへの状態遷移、及び前記処理領域(n−1)の状態量に含まれない時刻nにおける処理領域nの状態量の要素を含む前記駆動源を用いて算出する状態量算出手段と、
時刻nにおける処理領域nの状態量に基づき、前記判定手段によりぼけおよび雑音が混在していると判定された前記処理領域nの各画素の画素値について、前記原画像情報にぼけおよび雑音が加わって観測画像情報となる過程を観測量として算出する観測量算出手段と、
時刻nにおける処理領域nを前記状態量算出手段により算出された状態量、及び前記観測量算出手段により算出された観測量に基づいて、前記状態空間モデルに基づく予測法により、時刻nにおける処理領域nの状態量の最適値を原画像情報として推定する推定手段と、
を含む画像復元装置。
An image restoration device that estimates the original image information from the observed image information by using a prediction method based on a state space model including the original image information as a drive source for the observed image information in which blur and noise are mixed in the original image information Because
Image acquisition means for acquiring surface image information obtained by reading a document as the observation image information;
Determining means for calculating a variance value based on a pixel value of each pixel of the observed image information, and determining whether blur and noise are mixed in each pixel based on a threshold value calculated from the variance value; ,
The state quantity in the processing area n at the time n of the observation image information is the state quantity in the processing area (n-1) at the time (n-1), and the state quantity from the processing area (n-1) to the processing area n. State quantity calculating means for calculating using the drive source including state transition and an element of the state quantity of the processing area n at time n not included in the state quantity of the processing area (n-1);
Based on the state quantity of the processing area n at time n, the blur and noise are added to the original image information for the pixel value of each pixel of the processing area n determined by the determination means to be mixed. Observation amount calculating means for calculating the process that becomes observation image information as an observation amount;
Based on the state quantity calculated by the state quantity calculation means and the observation quantity calculated by the observation quantity calculation means, the processing area n at the time n is predicted by the prediction method based on the state space model. estimating means for estimating the optimum value of the state quantity of n as original image information;
An image restoration apparatus including:
両面に画像を有する文書の一方の面の原画像情報に不必要な情報である他方の面の裏写り画像情報を含むぼけおよび雑音が混在した観測画像情報に対し、前記原画像情報を駆動源として含む状態空間モデルに基づく予測法を用い、前記観測画像情報から前記原画像情報を推定する画像復元装置であって、
前記文書の一方の面を読み取ることにより得られた表面画像情報を前記観測画像情報として取得する画像取得手段と、
前記観測画像情報の各画素の画素値に基づいて分散値を算出し、前記分散値から算出された閾値に基づき、前記観測画像情報の各画素に裏写り画像情報を含むぼけおよび雑音からなる劣化画像情報が混在しているか否かを判定する裏写り判定手段と、
前記観測画像情報における時刻nでの処理領域nの状態量を、時刻(n−1)における処理領域(n−1)の状態量、前記処理領域(n−1)から前記処理領域nへの状態遷移、及び前記処理領域(n−1)の状態量に含まれない前記処理領域nの状態量の要素を含む前記駆動源を用いて算出する状態量算出手段と、
前記処理領域nを前記裏写り判定手段によって算出された分散値及び前記処理領域nの状態量に基づいて、前記裏写り判定手段により前記劣化画像情報が混在していると判定された前記処理領域nの各画素について、前記算出された分散値の標準偏差を前記雑音として用いて、前記原画像情報に前記雑音が加わって観測画像情報となる過程を観測量として算出する観測量算出手段と、
前記状態量算出手段により算出された状態量、及び前記観測量算出手段により算出された観測量に基づいて、前記状態空間モデルに基づく予測法により、前記処理領域nの状態量の最適値を前記処理領域nの原画像情報として推定する推定手段と、
を含む画像復元装置。
The original image information is used as a driving source for the observed image information including blur and noise including the show-through image information on the other side, which is unnecessary information on the original image information on one side of the document having images on both sides. An image restoration device that estimates the original image information from the observed image information using a prediction method based on a state space model including:
Image acquisition means for acquiring surface image information obtained by reading one side of the document as the observation image information;
A variance value is calculated based on a pixel value of each pixel of the observed image information, and a deterioration including blur and noise including show-through image information in each pixel of the observed image information based on a threshold value calculated from the variance value Show-through determination means for determining whether image information is mixed,
The state quantity of the processing area n at the time n in the observation image information is the state quantity of the processing area (n-1) at the time (n-1) and the processing area (n-1) to the processing area n. State quantity calculation means for calculating using the drive source including state transition and an element of the state quantity of the processing region n not included in the state quantity of the processing region (n-1);
The processing region in which the deteriorated image information is determined to be mixed by the show-through determination unit based on the variance value calculated by the show-through determination unit and the state quantity of the processing region n. For each pixel of n, an observation amount calculation means for calculating, as an observation amount, a process in which the noise is added to the original image information to become observation image information, using the standard deviation of the calculated dispersion value as the noise;
Based on the state quantity calculated by the state quantity calculation means and the observation quantity calculated by the observation quantity calculation means, the optimal value of the state quantity of the processing region n is calculated by the prediction method based on the state space model. Estimating means for estimating the original image information of the processing area n;
An image restoration apparatus including:
原画像情報に文書の地色を含むぼけおよび雑音を含む劣化画像情報が混在した観測画像情報に対し、前記原画像情報を駆動源として含む状態空間モデルに基づく予測法を用いて、前記観測画像情報から前記原画像情報を推定する画像復元装置であって、
文書を読み取り取得した表面画像情報を前記観測画像情報として取得する画像取得手段と、
前記観測画像情報の各画素の画素値に基づき分散値を算出し、前記分散値から算出された閾値に基づいて前記観測画像情報の各画素に前記劣化画像情報が混在しているか否かを判定する地色判定手段と、
前記観測画像情報の時刻nにおける処理領域nの状態量を、時刻(n−1)における処理領域(n−1)の状態量、処理領域(n−1)から処理領域nへの状態遷移、及び処理領域(n−1)の状態量に含まれない処理領域nの状態量の要素を含む前記駆動源を用いて算出する状態量算出手段と、
時刻nにおける処理領域nの情報及び状態量に基づき、前記地色判定手段により前記劣化画像情報が混在していると判定された前記処理領域nの各画素の画素値を前記劣化画像情報として用い、前記原画像情報に前記劣化画像情報が加わって観測画像情報となる過程を観測量として算出する観測量算出手段と、
前記状態量算出手段により算出された状態量、及び前記観測量算出手段により算出された観測量に基づいて、前記状態空間モデルに基づく予測法により、前記処理領域nの状態量の最適値を原画像情報として推定する推定手段と、
を含む画像復元装置。
Using the prediction method based on a state space model including the original image information as a driving source for the observed image information in which the original image information includes a blurred image including the background color of the document and deteriorated image information including noise, the observed image is used. An image restoration device for estimating the original image information from information,
Image acquisition means for acquiring surface image information obtained by reading a document as the observation image information;
A variance value is calculated based on the pixel value of each pixel of the observed image information, and it is determined whether or not the degraded image information is mixed in each pixel of the observed image information based on a threshold value calculated from the variance value Ground color determination means to perform,
The state quantity of the processing area n at time n of the observed image information is represented by the state quantity of the processing area (n−1) at time (n−1), the state transition from the processing area (n−1) to the processing area n, And a state quantity calculating means for calculating using the drive source including an element of the state quantity of the processing area n not included in the state quantity of the processing area (n−1),
Based on the information and state quantity of the processing area n at time n, the pixel value of each pixel in the processing area n determined by the ground color determination means to be mixed is used as the deteriorated image information. An observation amount calculating means for calculating, as an observation amount, a process in which the degraded image information is added to the original image information to become observation image information;
Based on the state quantity calculated by the state quantity calculation means and the observation quantity calculated by the observation quantity calculation means, an optimal value of the state quantity of the processing region n is generated by a prediction method based on the state space model. Estimating means for estimating as image information;
An image restoration apparatus including:
両面に画像を有する文書の一方の面の読取り原画像情報に劣化画像情報である他方の面の裏写り情報を含む、ぼけおよび雑音が混在した観測画像情報に対し、原画像情報を駆動源として含む状態空間モデルに基づく予測法を用い、前記観測画像情報から前記原画像情報を推定する画像復元装置であって、
前記文書の両面を各々読み取り表面画像情報及び裏面画像情報を取得し、前記表面画像情報を前記観測画像情報とする画像取得手段と、
前記観測画像情報の時刻nでの処理領域nにおける状態量を、時刻(n−1)における処理領域(n−1)の状態量、処理領域(n−1)から処理領域nへの状態遷移、及び処理領域(n−1)の状態量に含まれない前記処理領域nの状態量の要素を含む前記駆動源を用いて算出する状態量算出手段と、
前記観測画像情報の時刻nにおける処理領域nの状態量、及び前記裏面画像情報に基づいて、前記裏面画像情報を水平方向に反転させた画像情報における時刻nにおける処理領域nに対応する領域の情報に基づき算出された値を前記劣化画像情報として用い、前記原画像情報に前記劣化画像情報が加わって観測画像情報となる過程を観測量として算出する観測量算出手段と、
前記表面画像情報の時刻nにおける処理領域nを前記状態量算出手段により算出された状態量、及び前記観測量算出手段により算出された観測量に基づいて、前記状態空間モデルに基づく予測法により、前記処理領域nの状態量の最適値を前記処理領域nの原画像情報として推定する推定手段と、
を含む画像復元装置。
Using original image information as a drive source for observed image information with mixed blur and noise, including original image information on one side of a document having images on both sides and show-through information on the other side, which is degraded image information An image restoration apparatus that estimates the original image information from the observed image information using a prediction method based on a state space model including:
Image acquisition means for reading both sides of the document to obtain front side image information and back side image information, and using the front side image information as the observation image information;
The state quantity in the processing area n at time n of the observed image information is the state quantity in the processing area (n-1) at time (n-1), and the state transition from the processing area (n-1) to the processing area n. And a state quantity calculating means for calculating using the drive source including an element of the state quantity of the processing area n not included in the state quantity of the processing area (n−1),
Information on the region corresponding to the processing region n at time n in the image information obtained by inverting the back surface image information in the horizontal direction based on the state quantity of the processing region n at time n of the observation image information and the back surface image information. An observation amount calculation means for calculating, as the observation image information, a process in which the deterioration image information is added to the original image information to obtain observation image information.
Based on the state quantity calculated by the state quantity calculation means for the processing region n at time n of the surface image information and the observation quantity calculated by the observation quantity calculation means, by a prediction method based on the state space model, Estimating means for estimating an optimum value of the state quantity of the processing region n as original image information of the processing region n;
An image restoration apparatus including:
前記画像取得手段により取得された前記表面画像情報と前記裏面画像情報との間の位置合わせを行い、前記観測画像情報内の時刻nにおける処理領域nの領域を、前記裏面画像情報に対して設定する位置変化量設定手段を更に含む請求項4に記載の画像復元装置。   Alignment is performed between the front surface image information and the back surface image information acquired by the image acquisition means, and a region of the processing region n at time n in the observation image information is set for the back surface image information. The image restoration device according to claim 4, further comprising position change amount setting means for performing the operation. 前記裏写り判定手段は、前記観測画像情報の部分領域の各画素値に基づいて分散値を算出し、前記分散値から算出された閾値に基づき前記部分領域の各画素に前記劣化画像情報が混在しているか否かを判定し、
前記観測量算出手段は、前記観測画像情報の時刻nにおける処理領域nが前記裏写り判定手段により、前記処理領域nを含む部分領域について算出された前記分散値及び処理領域nの状態量に基づき、前記裏写り判定手段によって前記劣化画像情報が混在していると判定された前記処理領域nの各画素が前記部分領域について算出された前記分散値の標準偏差を前記雑音として用い、前記原画像情報に前記雑音が加わって観測画像情報となる過程を観測量として算出する請求項2記載の画像復元装置。
The show-through determination unit calculates a variance value based on each pixel value of the partial region of the observed image information, and the degraded image information is mixed in each pixel of the partial region based on a threshold value calculated from the variance value. Determine whether or not
The observation amount calculation means is based on the variance value calculated for the partial region including the processing region n and the state amount of the processing region n by the show-through determination means for the processing region n at time n of the observation image information. The standard deviation of the variance value calculated for the partial area by each pixel of the processing area n determined by the show-through determination means that the deteriorated image information is mixed is used as the noise. The image restoration apparatus according to claim 2, wherein a process in which the noise is added to the information to form observation image information is calculated as an observation amount.
前記地色判定手段は、前記観測画像情報の各部分領域の各画素値に基づいて分散値を算出し、前記分散値から算出された閾値に基づき前記部分領域の各画素に前記地色が混在しているか否かを判定し、
前記観測量算出手段は、前記観測画像情報の処理領域nに前記地色判定手段によって処理領域nを含む部分領域について算出された前記分散値及び前記処理領域nの状態量に基づいて、前記地色判定手段によって前記地色が混在していると判定された処理領域nの各画素について、部分領域について算出された前記分散値の標準偏差を前記雑音として用いて、前記原画像情報に前記雑音が加わって観測画像情報となる過程を観測量として算出する請求項3記載の画像復元装置。
The ground color determination means calculates a variance value based on each pixel value of each partial area of the observed image information, and the ground color is mixed in each pixel of the partial area based on a threshold value calculated from the variance value. Determine whether or not
The observation amount calculation means is based on the variance value calculated for the partial area including the processing area n in the processing area n of the observation image information by the ground color determination means and the state quantity of the processing area n. For each pixel of the processing area n determined that the ground color is mixed by the color determination means, the standard deviation of the variance value calculated for the partial area is used as the noise, and the noise is included in the original image information. The image restoration apparatus according to claim 3, wherein a process in which observation image information is added by adding as an observation amount is calculated.
各手段の処理を、前記観測画像情報に対して設定した部分領域L毎に行う請求項1〜請求項7のいずれか1項記載の画像復元装置。   The image restoration apparatus according to any one of claims 1 to 7, wherein processing of each unit is performed for each partial region L set for the observation image information. 前記処理領域nは、前記処理領域(n−1)と一部重複するように設定される請求項1〜請求項8のいずれか1項記載の画像復元装置。   The image restoration device according to any one of claims 1 to 8, wherein the processing area n is set to partially overlap the processing area (n-1). 原画像情報にぼけおよび雑音が混在した観測画像情報に対し、前記原画像情報を駆動源として含む状態空間モデルに基づく予測法を用い、前記観測画像情報から前記原画像情報を推定する画像復元装置であって、かつ、画像取得手段、判定手段、状態量算出手段、観測量算出手段、及び推定手段を含む画像復元装置における画像復元方法であって、
前記画像取得手段が、文書を読み取ことにより得られた表面画像情報を、前記観測画像情報として取得するステップと、
前記判定手段が、前記観測画像情報の各画素の画素値に基づいて分散値を算出し、前記分散値から算出された閾値に基づき、前記各画素にぼけおよび雑音が混在しているか否かを判定するステップと、
前記状態量算出手段が、前記観測画像情報の時刻nでの処理領域nにおける状態量を時刻(n−1)での処理領域(n−1)の状態量、前記処理領域(n−1)から前記処理領域nへの状態遷移、及び前記処理領域(n−1)の状態量に含まれない時刻nにおける処理領域nの状態量の要素を含む前記駆動源を用いて算出するステップと、
前記観測量算出手段が、時刻nにおける処理領域nの状態量に基づき、前記判定手段によりぼけおよび雑音が混在していると判定された前記処理領域nの各画素の画素値について、前記原画像情報にぼけおよび雑音が加わって観測画像情報となる過程を観測量として算出するステップと、
前記推定手段が、時刻nにおける処理領域nを前記状態量算出手段により算出された状態量、及び前記観測量算出手段により算出された観測量に基づいて、前記状態空間モデルに基づく予測法により、時刻nにおける処理領域nの状態量の最適値を原画像情報として推定するステップと、
を含む画像復元方法。
An image restoration device that estimates the original image information from the observed image information by using a prediction method based on a state space model including the original image information as a drive source for the observed image information in which blur and noise are mixed in the original image information And an image restoration method in an image restoration apparatus including an image acquisition unit, a determination unit, a state amount calculation unit, an observation amount calculation unit, and an estimation unit,
The image acquisition means acquiring surface image information obtained by reading a document as the observation image information;
The determination unit calculates a variance value based on a pixel value of each pixel of the observation image information, and determines whether blur and noise are mixed in each pixel based on a threshold value calculated from the variance value. A determining step;
The state quantity calculation means determines the state quantity in the processing area n at time n of the observation image information as the state quantity in the processing area (n-1) at time (n-1), and the processing area (n-1). Calculating using the drive source including the state transition from the processing region n to the processing region n and the state quantity of the processing region n at time n not included in the processing region (n-1) state amount;
For the pixel value of each pixel in the processing region n determined by the determining unit based on the state quantity of the processing region n at time n, the observation amount calculation unit determines that the blur and noise are mixed. Calculating a process in which blur and noise are added to the information to form observation image information as an observation amount;
The estimation means uses the prediction method based on the state space model based on the state quantity calculated by the state quantity calculation means for the processing region n at time n and the observation quantity calculated by the observation quantity calculation means, Estimating an optimal value of the state quantity of the processing region n at time n as original image information;
Image restoration method including:
両面に画像を有する文書の一方の面の原画像情報に不必要な情報である他方の面の裏写り画像情報を含むぼけおよび雑音が混在した観測画像情報に対し、前記原画像情報を駆動源として含む状態空間モデルに基づく予測法を用い、前記観測画像情報から前記原画像情報を推定する画像復元装置であって、かつ、画像取得手段、裏写り判定手段、状態量算出手段、観測量算出手段、及び推定手段を含む画像復元装置における画像復元方法であって、
前記画像取得手段が、前記文書の一方の面を読み取ることにより得られた表面画像情報を前記観測画像情報として取得するステップと、
前記裏写り判定手段が、前記観測画像情報の各画素の画素値に基づいて分散値を算出し、前記分散値から算出された閾値に基づき、前記観測画像情報の各画素に裏写り画像情報を含むぼけおよび雑音を含む劣化画像情報が混在しているか否かを判定するステップと、
前記状態量算出手段が、前記観測画像情報における時刻nでの処理領域nの状態量を、時刻(n−1)における処理領域(n−1)の状態量、前記処理領域(n−1)から前記処理領域nへの状態遷移、及び前記処理領域(n−1)の状態量に含まれない前記処理領域nの状態量の要素を含む前記駆動源を用いて算出するステップと、
前記観測量算出手段が、前記処理領域nを前記裏写り判定手段によって算出された分散値及び前記処理領域nの状態量に基づいて、前記裏写り判定手段により前記劣化画像情報が混在していると判定された前記処理領域nの各画素を、前記算出された分散値の標準偏差を前記雑音として用いて、前記原画像情報に前記雑音が加わって観測画像情報となる過程を観測量として算出するステップと、
前記推定手段が、前記状態量算出手段により算出された状態量、及び前記観測量算出手段により算出された観測量に基づいて、前記状態空間モデルに基づく予測法により、前記処理領域nの状態量の最適値を前記処理領域nの原画像情報として推定するステップと、
を含む画像復元方法。
The original image information is used as a driving source for the observed image information including blur and noise including the show-through image information on the other side, which is unnecessary information on the original image information on one side of the document having images on both sides. An image restoration apparatus that estimates the original image information from the observed image information using a prediction method based on a state space model included as an image acquisition unit, a show-through determination unit, a state amount calculation unit, and an observation amount calculation And an image restoration method in an image restoration apparatus including an estimation means,
The image acquisition means acquiring surface image information obtained by reading one side of the document as the observation image information;
The show-through determination means calculates a variance value based on a pixel value of each pixel of the observation image information, and shows-through image information to each pixel of the observation image information based on a threshold value calculated from the variance value. Determining whether or not degraded image information including blur and noise is mixed;
The state quantity calculating means calculates the state quantity of the processing area n at time n in the observation image information, the state quantity of the processing area (n-1) at time (n-1), and the processing area (n-1). A state transition from the processing region n to the processing region n, and a calculation using the driving source including an element of the state amount of the processing region n not included in the state amount of the processing region (n−1);
Based on the variance value calculated by the show-through determination unit and the state quantity of the processing region n in the observed amount calculation unit, the deteriorated image information is mixed by the show-through determination unit. Using the standard deviation of the calculated variance value as the noise, the process of adding the noise to the original image information to become observation image information is calculated as an observation amount for each pixel in the processing region n determined as And steps to
Based on the state quantity calculated by the state quantity calculation means and the observation quantity calculated by the observation quantity calculation means, the estimation means performs a state quantity of the processing region n based on a prediction method based on the state space model. Estimating the optimal value of the original image information of the processing region n;
Image restoration method including:
原画像情報に文書の地色を含むぼけおよび雑音を含む劣化画像情報が混在した観測画像情報に対し、前記原画像情報を駆動源として含む状態空間モデルに基づく予測法を用いて、前記観測画像情報から前記原画像情報を推定する画像復元装置であって、かつ、画像取得手段、地色判定手段、状態量算出手段、観測量算出手段、及び推定手段を含む画像復元装置における画像復元方法であって、
前記画像取得手段が、文書を読み取り取得した表面画像情報を前記観測画像情報として取得するステップと、
前記地色判定手段が、前記観測画像情報の各画素の画素値に基づき分散値を算出し、前記分散値から算出された閾値に基づいて前記観測画像情報の各画素に前記劣化画像情報が混在しているか否かを判定するステップと、
前記状態量算出手段が、前記観測画像情報の時刻nにおける処理領域nの状態量を、時刻(n−1)における処理領域(n−1)の状態量、処理領域(n−1)から処理領域nへの状態遷移、及び処理領域(n−1)の状態量に含まれない処理領域nの状態量の要素を含む前記駆動源を用いて算出するステップと、
前記観測量算出手段が、時刻nにおける処理領域nの情報及び状態量に基づき、前記地色判定手段により前記劣化画像情報が混在していると判定された前記処理領域nの各画素の画素値を前記劣化画像情報として用い、前記原画像情報に前記劣化画像情報が加わって観測画像情報となる過程を観測量として算出するステップと、
前記推定手段が、前記状態量算出手段により算出された状態量、及び前記観測量算出手段により算出された観測量に基づいて、前記状態空間モデルに基づく予測法により、前記処理領域nの状態量の最適値を原画像情報として推定するステップと、
を含む画像復元方法。
Using the prediction method based on a state space model including the original image information as a driving source for the observed image information in which the original image information includes a blurred image including the background color of the document and deteriorated image information including noise, the observed image is used. An image restoration apparatus for estimating the original image information from information, and an image restoration method in an image restoration apparatus including an image acquisition means, a ground color determination means, a state quantity calculation means, an observation amount calculation means, and an estimation means There,
The image acquisition means acquires the surface image information obtained by reading a document as the observation image information;
The ground color determination means calculates a variance value based on a pixel value of each pixel of the observed image information, and the degraded image information is mixed in each pixel of the observed image information based on a threshold value calculated from the variance value. Determining whether or not
The state quantity calculation means processes the state quantity of the processing area n at time n of the observation image information from the state quantity of the processing area (n-1) at time (n-1), the processing area (n-1). A step of calculating using the drive source including a state transition to the region n and an element of the state amount of the processing region n not included in the state amount of the processing region (n−1);
Based on the information and state quantity of the processing region n at time n, the observation amount calculation unit determines the pixel value of each pixel in the processing region n determined by the ground color determination unit to include the degraded image information. Using as the degraded image information, calculating the process of adding the degraded image information to the original image information to become observed image information as an observation amount;
Based on the state quantity calculated by the state quantity calculation means and the observation quantity calculated by the observation quantity calculation means, the estimation means performs a state quantity of the processing region n based on a prediction method based on the state space model. Estimating an optimal value of as original image information;
Image restoration method including:
両面に画像を有する文書の一方の面の読取り原画像情報に劣化画像情報である他方の面の裏写り情報を含む、ぼけおよび雑音が混在した観測画像情報に対し、原画像情報を駆動源として含む状態空間モデルに基づく予測法を用い、前記観測画像情報から前記原画像情報を推定する画像復元装置であって、かつ、画像取得手段、状態量算出手段、観測量算出手段、及び推定手段を含む画像復元装置における画像復元方法であって、
前記画像取得手段が、前記文書の両面を各々読み取り表面画像情報及び裏面画像情報を取得し、前記表面画像情報を前記観測画像情報とするステップと、
前記状態量算出手段が、前記観測画像情報の時刻nでの処理領域nにおける状態量を、時刻(n−1)における処理領域(n−1)の状態量、処理領域(n−1)から処理領域nへの状態遷移、及び処理領域(n−1)の状態量に含まれない前記処理領域nの状態量の要素を含む前記駆動源を用いて算出するステップと、
前記観測量算出手段が、前記観測画像情報の時刻nにおける処理領域nの状態量、及び前記裏面画像情報に基づいて、前記裏面画像情報を水平方向に反転させた画像情報における時刻nにおける処理領域nに対応する領域の情報に基づき算出された値を前記劣化画像情報として用い、前記原画像情報に前記劣化画像情報が加わって観測画像情報となる過程を観測量として算出するステップと、
前記推定手段が、前記表面画像情報の時刻nにおける処理領域nを前記状態量算出手段により算出された状態量、及び前記観測量算出手段により算出された観測量に基づいて、前記状態空間モデルに基づく予測法により、前記処理領域nの状態量の最適値を前記処理領域nの原画像情報として推定するステップと、
を含む画像復元方法。
Using original image information as a drive source for observed image information with mixed blur and noise, including original image information on one side of a document having images on both sides and show-through information on the other side, which is degraded image information An image restoration apparatus that estimates the original image information from the observed image information using a prediction method based on a state space model including an image acquisition unit, a state amount calculation unit, an observation amount calculation unit, and an estimation unit. An image restoration method in an image restoration apparatus including:
The image acquisition means reads both sides of the document, acquires front surface image information and back surface image information, and sets the front surface image information as the observation image information;
The state quantity calculation means calculates the state quantity in the processing area n at time n of the observation image information from the state quantity, processing area (n-1) in the processing area (n-1) at time (n-1). Calculating using the drive source including the state transition to the processing region n and the state amount element of the processing region n not included in the processing region (n−1) state amount;
The processing area at the time n in the image information obtained by inverting the back surface image information in the horizontal direction based on the state quantity of the processing area n at the time n of the observation image information and the back surface image information. using a value calculated based on information of a region corresponding to n as the degraded image information, calculating a process in which the degraded image information is added to the original image information to become observed image information as an observation amount;
The estimation means adds the processing region n at time n of the surface image information to the state space model based on the state quantity calculated by the state quantity calculation means and the observation quantity calculated by the observation quantity calculation means. Estimating an optimum value of the state quantity of the processing region n as original image information of the processing region n by a prediction method based on
Image restoration method including:
コンピュータを、請求項1〜請求項9のいずれか1項記載の画像復元装置の各手段として機能させるためのプログラム。   The program for functioning a computer as each means of the image restoration apparatus of any one of Claims 1-9.
JP2014030104A 2014-02-19 2014-02-19 Image restoration apparatus, method, and program Active JP6308496B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014030104A JP6308496B2 (en) 2014-02-19 2014-02-19 Image restoration apparatus, method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014030104A JP6308496B2 (en) 2014-02-19 2014-02-19 Image restoration apparatus, method, and program

Publications (2)

Publication Number Publication Date
JP2015156539A true JP2015156539A (en) 2015-08-27
JP6308496B2 JP6308496B2 (en) 2018-04-11

Family

ID=54775628

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014030104A Active JP6308496B2 (en) 2014-02-19 2014-02-19 Image restoration apparatus, method, and program

Country Status (1)

Country Link
JP (1) JP6308496B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018097211A1 (en) * 2016-11-28 2018-05-31 学校法人東京理科大学 Image recovery device, method, and program

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000253250A (en) * 1999-03-02 2000-09-14 Seiko Epson Corp Picture data ground judging method, device therefor and medium recording picture data ground control program
JP2006197445A (en) * 2005-01-17 2006-07-27 Ricoh Co Ltd Image processor
JP2011165013A (en) * 2010-02-10 2011-08-25 Tokyo Univ Of Science Image restoration device and image restoration method

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000253250A (en) * 1999-03-02 2000-09-14 Seiko Epson Corp Picture data ground judging method, device therefor and medium recording picture data ground control program
JP2006197445A (en) * 2005-01-17 2006-07-27 Ricoh Co Ltd Image processor
JP2011165013A (en) * 2010-02-10 2011-08-25 Tokyo Univ Of Science Image restoration device and image restoration method

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018097211A1 (en) * 2016-11-28 2018-05-31 学校法人東京理科大学 Image recovery device, method, and program
JPWO2018097211A1 (en) * 2016-11-28 2019-11-07 学校法人東京理科大学 Image restoration apparatus, method, and program
JP7029140B2 (en) 2016-11-28 2022-03-04 学校法人東京理科大学 Image restorer, method, and program

Also Published As

Publication number Publication date
JP6308496B2 (en) 2018-04-11

Similar Documents

Publication Publication Date Title
JP4799428B2 (en) Image processing apparatus and method
US8379120B2 (en) Image deblurring using a combined differential image
EP2164040B1 (en) System and method for high quality image and video upscaling
JP2012208553A (en) Image processing device, image processing method, and program
JP2017010092A (en) Image processing apparatus, imaging device, image processing method, image processing program, and recording medium
JP5918200B2 (en) Ultrasonic diagnostic equipment
JP2020061080A (en) Image processing device, imaging device, and image processing method
JP2010134700A (en) Image evaluation device and image evaluation method
JP2011250013A (en) Image quality evaluation method, image quality evaluation apparatus, and program
JP4763525B2 (en) Video alignment method
JP2019169000A (en) Image processing apparatus, image processing method, and program
JP2021043874A (en) Image processing apparatus, image processing method, and program
JP6308496B2 (en) Image restoration apparatus, method, and program
JP2017010094A (en) Image processing apparatus, imaging device, image processing method, image processing program, and recording medium
JP5431501B2 (en) Image processing apparatus and method
Sadhar et al. Image estimation in film-grain noise
JP5963166B2 (en) Image restoration apparatus, method, and program
JP6661491B2 (en) Image processing apparatus and image processing method
JP5447867B2 (en) Image restoration apparatus and image restoration method
JP7029140B2 (en) Image restorer, method, and program
JP2019045996A (en) Image processing device, image processing method and program
JP5934019B2 (en) Gradation restoration device and program thereof
WO2010131296A1 (en) Image processing device
JP2007060464A (en) Method and system for estimating halftone image
JP4729127B2 (en) Image evaluation device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20161007

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170710

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170829

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20171030

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180206

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180305

R150 Certificate of patent or registration of utility model

Ref document number: 6308496

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313114

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250