JP4140519B2 - Image processing apparatus, program, and recording medium - Google Patents

Image processing apparatus, program, and recording medium Download PDF

Info

Publication number
JP4140519B2
JP4140519B2 JP2003425540A JP2003425540A JP4140519B2 JP 4140519 B2 JP4140519 B2 JP 4140519B2 JP 2003425540 A JP2003425540 A JP 2003425540A JP 2003425540 A JP2003425540 A JP 2003425540A JP 4140519 B2 JP4140519 B2 JP 4140519B2
Authority
JP
Japan
Prior art keywords
image
angle
image data
data
overall
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2003425540A
Other languages
Japanese (ja)
Other versions
JP2005184685A (en
Inventor
俊哉 小山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Business Innovation Corp
Original Assignee
Fuji Xerox Co Ltd
Fujifilm Business Innovation Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Xerox Co Ltd, Fujifilm Business Innovation Corp filed Critical Fuji Xerox Co Ltd
Priority to JP2003425540A priority Critical patent/JP4140519B2/en
Publication of JP2005184685A publication Critical patent/JP2005184685A/en
Application granted granted Critical
Publication of JP4140519B2 publication Critical patent/JP4140519B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Image Processing (AREA)
  • Editing Of Facsimile Originals (AREA)
  • Image Analysis (AREA)

Description

本発明は、文書を示す画像の傾きを検知し、その傾きを補正する技術に関する。   The present invention relates to a technique for detecting an inclination of an image showing a document and correcting the inclination.

文書をイメージスキャナで読み取った際に得られる画像データや、ファクシミリ装置が受信する画像データを解析し、画像中の文字が記されている領域に対して文字認識処理を施し、画像として読み取った文書から文章を抽出する技術が知られている。この技術においては、読み取った画像に傾きが無いこと、すなわちスキューが無いことが、元の文章を正確に抽出するための前提としてあり、読み取った画像にスキューがある場合には、スキューを補正する必要がある。従来、このスキューを補正する技術として、例えば、特許文献1乃至4に記載されている技術が知られている。   Image data obtained when the document is read by an image scanner or image data received by a facsimile machine is analyzed, character recognition processing is performed on the area where characters in the image are written, and the document is read as an image A technique for extracting sentences from a document is known. In this technique, the fact that the read image has no inclination, that is, no skew, is a precondition for accurately extracting the original text. If the read image has skew, the skew is corrected. There is a need. Conventionally, as a technique for correcting the skew, for example, techniques described in Patent Documents 1 to 4 are known.

特許文献1に記載されている文書傾き補正装置は、まず、角度を順次変えて2値画像を回転させ、回転させた画像に外接する矩形を作成する。次に、この文書傾き補正装置は、この矩形の面積が最小となる角度を画像のスキュー角度とし、このスキュー角度に基づいて画像の傾きを補正する。   The document tilt correction apparatus described in Patent Document 1 first rotates a binary image by sequentially changing the angle, and creates a rectangle that circumscribes the rotated image. Next, the document tilt correction apparatus sets an angle at which the rectangular area is minimum as an image skew angle, and corrects the image tilt based on the skew angle.

特許文献2に記載されている画像処理装置は、まず、画像を示す画素の連結性を調べながら矩形領域を設定し、画像内で矩形領域の存在する範囲を想定しながら、この範囲内で矩形領域の端点の座標値を所定方向に射影し、射影のヒストグラムを求める。次に、この画像処理装置は、この射影のヒストグラムが最大となる角度をスキュー角度として検知する。   The image processing apparatus described in Patent Document 2 first sets a rectangular area while examining the connectivity of pixels representing an image, and assumes a range where the rectangular area exists in the image, and within this range, a rectangular area is set. The coordinate values of the end points of the area are projected in a predetermined direction, and a projection histogram is obtained. Next, the image processing apparatus detects an angle at which the histogram of the projection is maximized as a skew angle.

特許文献3には、ハフ変換を利用してスキュー角度を検知する技術が記載されている。特許文献3に記載されているデータ処理装置は、まず、入力画像に対してフィルタリング処理を行い、この処理により濃淡差が強調された画像に対して2値化処理を行い2値画像を生成する。次に、このデータ処理装置は、生成した2値画像の各画素に対してハフ変換を行い、ハフ空間上にヒストグラムを作成し、ハフ空間上で頻度が所定の閾値以上となる座標を抽出する。データ処理装置は、抽出した座標をグループ化した後、グループ毎に代表点座標を抽出し、抽出した座標から画像の傾斜角度を推定する。また、特許文献3には、ハフ空間上で頻度が所定の閾値以上となる座標を抽出した後、抽出した座標の個数を角度ごとに積算してヒストグラムを作成し、頻度が最大となる角度を画像の傾斜角度を推定する技術も記載されている。   Patent Document 3 describes a technique for detecting a skew angle using Hough transform. The data processing apparatus described in Patent Document 3 first performs a filtering process on an input image and generates a binary image by performing a binarization process on an image in which the density difference is emphasized by this process. . Next, this data processing device performs a Hough transform on each pixel of the generated binary image, creates a histogram on the Hough space, and extracts coordinates whose frequency is equal to or higher than a predetermined threshold in the Hough space. . The data processing apparatus groups the extracted coordinates, then extracts representative point coordinates for each group, and estimates the tilt angle of the image from the extracted coordinates. Further, in Patent Document 3, after extracting coordinates having a frequency equal to or higher than a predetermined threshold in the Hough space, a histogram is created by adding the number of extracted coordinates for each angle, and the angle at which the frequency is maximum is obtained. A technique for estimating the tilt angle of an image is also described.

特許文献4には、特許文献3と同様にハフ変換を利用してスキュー角度を検知する技術が記載されている。特許文献4に記載されている画像処理装置は、まず、入力画像に対して2値化処理を行って2値画像を生成し、生成した2値画像の各画素に対してハフ変換を行い、ハフ空間上にヒストグラムを作成する。次に、この画像処理装置は、ハフ空間上の頻度に対して所定の演算処理を行った後、演算処理の行われた頻度を角度ごとに積算してヒストグラムを作成し、頻度が最大となる角度を画像の傾斜角度とする。
特開平2−170280号公報 特開平6−203202号公報 特開平11−328408号公報 特開2002−84420号公報
Patent Document 4 describes a technique for detecting a skew angle using Hough transform, as in Patent Document 3. The image processing apparatus described in Patent Document 4 first performs a binarization process on an input image to generate a binary image, performs a Hough transform on each pixel of the generated binary image, Create a histogram on the Hough space. Next, this image processing apparatus performs a predetermined calculation process on the frequency in the Hough space, and then accumulates the frequency of the calculation process for each angle to create a histogram, so that the frequency becomes maximum. Let the angle be the tilt angle of the image.
JP-A-2-170280 JP-A-6-203202 JP 11-328408 A JP 2002-84420 A

特許文献1乃至4に記載されている技術によれば、文書を示す画像のスキューを補正することができる。しかしながら、特許文献1乃至4に記載されている技術には、以下に示す問題があった。   According to the techniques described in Patent Documents 1 to 4, it is possible to correct the skew of an image indicating a document. However, the techniques described in Patent Documents 1 to 4 have the following problems.

特許文献1に記載されている技術では、傾きを求める際、2値画像を角度を変えて順次回転させる必要がある。この画像を回転させる処理は、回転により黒画素とする画素を、画素毎に求めなければならないため、長い処理時間を要するという問題がある。また、特許文献1に記載されている技術では、回転させた画像に外接する矩形を作成し、この矩形の面積が最小となる角度を画像のスキュー角度とする。例えば、図22に例示したように、画像の一部が、突出している画像の場合、画像を回転させても、外接する矩形の面積が殆ど変らないため、正確にスキュー角度を検知できないという問題がある。   In the technique described in Patent Document 1, it is necessary to sequentially rotate the binary image at different angles when obtaining the inclination. The process of rotating the image has a problem that it takes a long processing time because a pixel to be a black pixel by rotation must be obtained for each pixel. In the technique described in Patent Document 1, a rectangle circumscribing the rotated image is created, and an angle at which the area of the rectangle is minimized is set as an image skew angle. For example, as illustrated in FIG. 22, when a part of the image is a protruding image, even if the image is rotated, the area of the circumscribed rectangle is hardly changed, so that the skew angle cannot be accurately detected. There is.

特許文献2に記載されている技術は、矩形領域の端点の座標値を所定方向に射影し、射影のヒストグラムを求め、このヒストグラムからスキュー角度を検知するため、文書が多段組で構成され、且つ、段組間で行の位置がずれている場合には、正確にスキュー角度を検知できないという問題がある。また、特許文献2に記載されている技術は、基本的に文字領域を対象とした技術であるため、画像中に含まれる文字が少ない場合には、正確にスキュー角度を検知できないという問題がある。   The technique described in Patent Document 2 projects a coordinate value of an end point of a rectangular area in a predetermined direction, obtains a histogram of projection, and detects a skew angle from this histogram. When the row position is shifted between columns, there is a problem that the skew angle cannot be detected accurately. Further, since the technique described in Patent Document 2 is basically a technique for a character area, there is a problem that a skew angle cannot be accurately detected when there are few characters included in an image. .

特許文献3に記載されている技術では、2値化処理を行う際、写真画像や網点で示された画像が文書中に含まれていると、写真画像や網点で示された画像中に黒画素が存在する2値画像を生成したり、各網点を黒画素とした2値画像を生成してしまう。このような2値画像に対してハフ変換を実施した場合、処理時間が増大したり、スキュー角度を誤って検知するという問題がある。   In the technique described in Patent Document 3, when a binarization process is performed, if a photographic image or an image indicated by a halftone dot is included in the document, the photographic image or the halftone dot is included in the image. In other words, a binary image in which black pixels are present is generated, or a binary image in which each halftone dot is a black pixel is generated. When the Hough transform is performed on such a binary image, there are problems that the processing time increases and the skew angle is detected erroneously.

特許文献4に記載されている技術は、入力された画像全体に対してハフ変換やヒストグラム処理を行う。このため、図23に例示したように、文書が多段組で、且つ、段の間で行が均等にずれている場合、このずれが生じている方向をスキュー角度として誤って検知してしまうという問題がある。   The technique described in Patent Document 4 performs Hough transform and histogram processing on the entire input image. For this reason, as illustrated in FIG. 23, when a document has a multi-column set and lines are evenly shifted between the stages, the direction in which the shift occurs is erroneously detected as a skew angle. There's a problem.

本発明は、このような課題に鑑みてなされたものであり、入力された画像が示す文書が、文字以外の要素を含み、段組みなどにより多数の領域に分けられている場合でも、画像のスキュー角度を検知し補正することができる技術を提供することを目的とする。   The present invention has been made in view of such problems, and even when a document indicated by an input image includes elements other than characters and is divided into a large number of regions by columns or the like, An object of the present invention is to provide a technique capable of detecting and correcting a skew angle.

上述した課題を解決するために本発明は、画像データを記憶する記憶手段と、前記記憶手段に記憶されている画像データを2値化し、2値画像データを生成する2値化手段と、前記2値化手段により生成された2値画像データが示す画像を複数の領域に分割し、分割した画像を示す分割2値画像データを生成する領域分割手段と、前記分割2値画像データに対してハフ変換を行い、ハフ変換により得られた極座標上の座標の頻度を表すヒストグラムデータを、分割された画像領域毎に生成するハフ変換手段と、前記ハフ変換手段が生成したヒストグラムデータ毎に、極座標上の各角度における頻度の密集度を表す投影ヒストグラムデータを生成する頻度演算手段と、前記頻度演算手段が生成した投影ヒストグラムデータを加算し、全体ヒストグラムデータを生成する全体頻度演算手段と、前記全体頻度演算手段によって生成された全体ヒストグラムデータに基づき画像データが示す画像の傾き角度を検知する全体角度検知手段と、前記記憶手段に記憶されている画像データが示す画像を、前記全体角度検知手段が求めた傾き角度に従って回転させる画像回転手段とを有する画像処理装置を提供する。
また、本発明は、コンピュータを、画像データを記憶する記憶手段と、前記記憶手段に記憶されている画像データを2値化し、2値画像データを生成する2値化手段と、前記2値化手段により生成された2値画像データが示す画像を複数の領域に分割し、分割した画像を示す分割2値画像データを生成する領域分割手段と、前記分割2値画像データに対してハフ変換を行い、ハフ変換により得られた極座標上の座標の頻度を表すヒストグラムデータを、分割された画像領域毎に生成するハフ変換手段と、前記ハフ変換手段が生成したヒストグラムデータ毎に、極座標上の各角度における頻度の密集度を表す投影ヒストグラムデータを生成する頻度演算手段と、前記頻度演算手段が生成した投影ヒストグラムデータを加算し、全体ヒストグラムデータを生成する全体頻度演算手段と、前記全体頻度演算手段によって生成された全体ヒストグラムデータに基づき画像データが示す画像の傾き角度を検知する全体角度検知手段と、前記記憶手段に記憶されている画像データが示す画像を、前記全体角度検知手段が求めた傾き角度に従って回転させる画像回転手段として機能させるためのプログラムと、該プログラムを記録したコンピュータ読み取り可能な記録媒体を提供する。
この画像処理装置、プログラムおよび記録媒体によれば、画像データが表す画像が複数の領域に分割され、分割された領域毎にハフ変換が行われてヒストグラムデータが生成され、生成されたヒストグラムデータから極座標上の各角度における頻度の密集度を表す投影ヒストグラムデータが生成される。投影ヒストグラムデータが生成されると、生成された投影ヒストグラムデータの加算が行われ、全体ヒストグラムデータが生成される。全体ヒストグラムデータが生成されると、全体ヒストグラムデータにおいて、頻度が最大となる角度が求められ、この角度が画像データが表す画像のスキュー角度とされる。
In order to solve the above-described problems, the present invention includes a storage unit that stores image data, a binarization unit that binarizes image data stored in the storage unit, and generates binary image data. An area dividing unit that divides an image indicated by the binary image data generated by the binarizing unit into a plurality of areas and generates divided binary image data indicating the divided image, and the divided binary image data Hough transform for generating histogram data representing the frequency of coordinates on polar coordinates obtained by Hough transform for each divided image area, and polar coordinates for each histogram data generated by the Hough transform means The frequency calculation means for generating projection histogram data representing the frequency density at each angle above, and the projection histogram data generated by the frequency calculation means are added together to obtain a total histogram Stored in the storage means, an overall frequency detecting means for generating Ram data, an overall angle detecting means for detecting an inclination angle of the image indicated by the image data based on the overall histogram data generated by the overall frequency calculating means, and There is provided an image processing apparatus having image rotation means for rotating an image indicated by image data in accordance with an inclination angle obtained by the overall angle detection means.
According to another aspect of the present invention, there is provided a computer including a storage unit that stores image data, a binarization unit that binarizes image data stored in the storage unit, and generates binary image data, and the binarization. An area dividing unit that divides an image indicated by the binary image data generated by the unit into a plurality of areas and generates divided binary image data indicating the divided image, and a Hough transform on the divided binary image data. Histogram data representing the frequency of polar coordinates obtained by the Hough transform is generated for each divided image area, and for each histogram data generated by the Hough transform means each polar coordinate A frequency calculation means for generating projection histogram data representing the frequency density in the angle, and the projection histogram data generated by the frequency calculation means are added to obtain an overall histogram. Stored in the storage means, an overall frequency calculating means for generating data, an overall angle detecting means for detecting an inclination angle of the image indicated by the image data based on the overall histogram data generated by the overall frequency calculating means, and There are provided a program for causing an image indicated by image data to function as an image rotating unit that rotates an image according to an inclination angle obtained by the overall angle detecting unit, and a computer-readable recording medium on which the program is recorded.
According to this image processing apparatus, program, and recording medium, the image represented by the image data is divided into a plurality of regions, and Hough transform is performed for each divided region to generate histogram data. From the generated histogram data Projection histogram data representing the frequency density at each angle on the polar coordinates is generated. When the projection histogram data is generated, the generated projection histogram data is added to generate whole histogram data. When the whole histogram data is generated, an angle at which the frequency is maximum is obtained in the whole histogram data, and this angle is set as the skew angle of the image represented by the image data.

また、本発明は、画像データを記憶する記憶手段と、前記記憶手段に記憶されている画像データを2値化し、2値画像データを生成する2値化手段と、前記2値化手段により生成された2値画像データが表す画像を複数の領域に分割し、分割した画像を示す分割2値画像データを生成する領域分割手段と、前記分割2値画像データ毎に、分割2値画像データが表す画像の角度を求める領域角度検知手段と、前記領域角度検知手段が分割2値画像データ毎に求めた角度から、画像全体の傾き角度を求める全体角度検知手段と、前記記憶手段に記憶されている画像データが示す画像を、前記全体角度検知手段が求めた傾き角度に従って回転させる画像回転手段とを有する画像処理装置を提供する。
また、本発明は、コンピュータを、画像データを記憶する記憶手段と、前記記憶手段に記憶されている画像データを2値化し、2値画像データを生成する2値化手段と、前記2値化手段により生成された2値画像データが表す画像を複数の領域に分割し、分割した画像を示す分割2値画像データを生成する領域分割手段と、前記分割2値画像データ毎に、分割2値画像データが表す画像の角度を求める領域角度検知手段と、前記領域角度検知手段が分割2値画像データ毎に求めた角度から、画像全体の傾き角度を求める全体角度検知手段と、前記記憶手段に記憶されている画像データが示す画像を、前記全体角度検知手段が求めた傾き角度に従って回転させる画像回転手段として機能させるためにプログラムと、該プログラムを記録したコンピュータ読み取り可能な記録媒体を提供する。
この画像処理装置、プログラムおよび記録媒体によれば、画像データが表す画像が複数の領域に分割され、分割された領域毎にハフ変換が行われてヒストグラムデータが生成され、生成されたヒストグラムデータから極座標上の各角度における頻度の密集度を表す投影ヒストグラムデータが生成される。投影ヒストグラムデータが生成されると、投影ヒストグラムデータ毎に、頻度が最大となる角度が求められ、求められた角度を使用して、画像データが表す画像のスキュー角度が求められる。
Further, the present invention provides storage means for storing image data, binarization means for binarizing image data stored in the storage means, and generating binary image data, and generation by the binarization means. The divided binary image data is divided into a plurality of regions, divided into a plurality of regions, region dividing means for generating divided binary image data indicating the divided images, and divided binary image data for each of the divided binary image data. An area angle detecting means for obtaining an angle of the image to be represented, an overall angle detecting means for obtaining an inclination angle of the entire image from the angles obtained by the area angle detecting means for each divided binary image data, and stored in the storage means An image processing apparatus having image rotation means for rotating an image indicated by existing image data according to an inclination angle obtained by the overall angle detection means.
According to another aspect of the present invention, there is provided a computer including a storage unit that stores image data, a binarization unit that binarizes image data stored in the storage unit, and generates binary image data, and the binarization. A region dividing unit that divides an image represented by the binary image data generated by the unit into a plurality of regions and generates divided binary image data indicating the divided image; and a divided binary for each of the divided binary image data. An area angle detection means for obtaining an angle of an image represented by the image data, an overall angle detection means for obtaining an inclination angle of the entire image from the angles obtained by the area angle detection means for each divided binary image data, and the storage means A program for causing the image indicated by the stored image data to function as an image rotation means for rotating the image according to the inclination angle obtained by the overall angle detection means, and a computer storing the program. Yuta provide readable recording medium.
According to the image processing device, the program, and the recording medium, the image represented by the image data is divided into a plurality of regions, and Hough transform is performed for each divided region to generate histogram data. From the generated histogram data Projection histogram data representing the frequency density at each angle on the polar coordinates is generated. When the projection histogram data is generated, an angle at which the frequency is maximum is obtained for each projection histogram data, and the skew angle of the image represented by the image data is obtained using the obtained angle.

本発明によれば、入力された画像が示す文書が、文字以外の要素を含み、段組みなどにより多数の領域に分けられている場合でも、画像のスキュー角度を検知し補正することができる。   According to the present invention, it is possible to detect and correct an image skew angle even when a document indicated by an input image includes elements other than characters and is divided into a large number of regions by columns or the like.

以下、図面を参照し、本発明の実施の形態について説明する。   Embodiments of the present invention will be described below with reference to the drawings.

[1.第1実施形態]
<構成>
図1は、本発明の実施形態に係わる画像処理装置の構成を例示するブロック図である。図1に示したように、画像処理装置の各部は、バス9に接続されており、このバス9を介して各部間でデータの授受を行う。
[1. First Embodiment]
<Configuration>
FIG. 1 is a block diagram illustrating the configuration of an image processing apparatus according to an embodiment of the present invention. As shown in FIG. 1, each unit of the image processing apparatus is connected to a bus 9, and data is exchanged between the units via this bus 9.

演算制御部3は、CPU(Central Processing Unit)、RAM(Random Access Memory)、画像処理装置の各部を制御するための制御プログラムを記憶しているROM(Read Only Memory)などを有している(いずれも図示略)。CPUは、図示を省略した電源から電力が供給されると、ROMから制御プログラムを読み出して実行し、RAMを作業エリアとして画像処理装置の各部の制御を行う。   The arithmetic control unit 3 includes a CPU (Central Processing Unit), a RAM (Random Access Memory), a ROM (Read Only Memory) storing a control program for controlling each part of the image processing apparatus ( (All are not shown). When power is supplied from a power supply (not shown), the CPU reads and executes a control program from the ROM, and controls each unit of the image processing apparatus using the RAM as a work area.

画像入力部1は、例えば、イメージスキャナを具備しており、演算制御部3の制御の下、イメージスキャナのプラテン上に載置された文書をR(Red)、G(Green)およびB(Blue)の色成分毎に読み取る。画像入力部1は、文書を読み取ると、読み取った文書を示すデータであって、個々の画素において各色成分の濃淡を複数ビットで表した画像データ(以下、RGB画像データと称する)を生成する。   The image input unit 1 includes, for example, an image scanner, and a document placed on the platen of the image scanner under the control of the arithmetic control unit 3 is R (Red), G (Green), and B (Blue). ) For each color component. When the document is read, the image input unit 1 generates data representing the read document, and image data (hereinafter referred to as RGB image data) in which each pixel is represented by a plurality of bits in each pixel.

データ記憶部2は、例えば、データを永続的に記憶するハードディスク装置を有しており、演算制御部3の制御の下、画像入力部1が生成したRGB画像データや、階調補正部4、スキュー補正部5、色信号変換部6において画像処理が行われた画像データなどを記憶する。   The data storage unit 2 includes, for example, a hard disk device that permanently stores data. Under the control of the arithmetic control unit 3, the RGB image data generated by the image input unit 1, the tone correction unit 4, The image data subjected to image processing in the skew correction unit 5 and the color signal conversion unit 6 is stored.

階調補正部4は、画像入力部1が生成したRGB画像データの階調を補正するものである。階調補正部4は、画像入力部1が具備するイメージスキャナの装置特性を考慮し、データ記憶部2に記憶されたRGB画像データが示す画像の階調を、各種画像処理を行うのに適した階調に補正する。   The gradation correction unit 4 corrects the gradation of the RGB image data generated by the image input unit 1. The gradation correction unit 4 is suitable for performing various image processing on the gradation of the image indicated by the RGB image data stored in the data storage unit 2 in consideration of the device characteristics of the image scanner included in the image input unit 1. Correct the tone.

スキュー補正部5は、RGB画像データが示す画像のスキューを補正するものである。スキュー補正部5は、バス9を介してデータ記憶部2から供給されるRGB画像データに対してスキューを補正する処理を行い、スキューを補正した画像データを生成する。スキュー補正部5の詳細については、後に説明する。   The skew correction unit 5 corrects the skew of the image indicated by the RGB image data. The skew correction unit 5 performs a process of correcting the skew on the RGB image data supplied from the data storage unit 2 via the bus 9, and generates image data with the skew corrected. Details of the skew correction unit 5 will be described later.

画像表示部7は、例えば、CRT(Cathode Ray Tube)ディスプレイ装置または液晶ディスプレイ装置といったディスプレイ装置を有しており、演算制御部3の制御の下、データ記憶部2に記憶されている画像データに従って、画像データが示す文書を表示する。   The image display unit 7 includes, for example, a display device such as a CRT (Cathode Ray Tube) display device or a liquid crystal display device, and is controlled according to image data stored in the data storage unit 2 under the control of the arithmetic control unit 3. The document indicated by the image data is displayed.

色信号変換部6は、紙に印刷行う際に用いる画像データを生成するものである。具体的には、RGB画像データが示すカラー画像を、カラー印刷におけるインクの基本色である、Y(Yellow)、M(Magenta)、C(Cyan)、K(黒版/Black)の色成分を用いて表す画像データ(以下、YMCK画像データと称する)に変換する。   The color signal converter 6 generates image data used when printing on paper. Specifically, the color image indicated by the RGB image data is converted into color components of Y (Yellow), M (Magenta), C (Cyan), and K (Black / Black), which are basic colors of ink in color printing. The image data is converted into image data (hereinafter referred to as YMCK image data).

画像出力部8は、印刷用紙に文字や画像を印刷する印刷機構を有しており、演算制御部3の制御の下、色信号変換部6が生成したYMCK画像データに従って、YMCK画像データが示す画像を紙に印刷する。   The image output unit 8 has a printing mechanism for printing characters and images on printing paper, and the YMCK image data indicates according to the YMCK image data generated by the color signal conversion unit 6 under the control of the arithmetic control unit 3. Print the image on paper.

<スキュー補正部5の構成>
次に、スキュー補正部5の構成について、図2を用いて説明する。図2に示したように、スキュー補正部5は、2値化部100と、輪郭抽出部101と、スキュー角検知部102と、画像回転部103とを具備しており、2値化部100と画像回転部103には、データ記憶部2に記憶されているRGB画像データが入力される。
<Configuration of Skew Correction Unit 5>
Next, the configuration of the skew correction unit 5 will be described with reference to FIG. As shown in FIG. 2, the skew correction unit 5 includes a binarization unit 100, a contour extraction unit 101, a skew angle detection unit 102, and an image rotation unit 103, and the binarization unit 100. The image rotation unit 103 receives the RGB image data stored in the data storage unit 2.

2値化部100は、RGB画像データにおいて、濃淡が複数ビットで表されている画素を2値化するものであり、図3に例示したように、色成分選択部300と、浮動2値化部301と、膨張部302と、収縮部303とを具備している。
色成分選択部300は、入力されたRGB画像データから、画像の持つ情報に対する寄与度が最も高いG成分(Green成分)のデータを抽出するものである。色成分選択部300は、抽出した画像データをG画像データとして浮動2値化部301へ出力する。
The binarization unit 100 binarizes pixels in which the shading is represented by a plurality of bits in RGB image data. As illustrated in FIG. 3, the binarization unit 100 and the floating binarization are performed. A part 301, an expansion part 302, and a contraction part 303 are provided.
The color component selection unit 300 extracts G component (Green component) data having the highest contribution to the information of the image from the input RGB image data. The color component selection unit 300 outputs the extracted image data to the floating binarization unit 301 as G image data.

浮動2値化部301は、注目画素周辺の画素を用いて、注目画素の浮動2値化処理、即ち、動的閾値2値化処理を行うものである。浮動2値化部301は、例えば、本願出願人に係わる特開2002−84420号公報に記載されているように、注目画素周辺の画素を用いて注目画素の動的2値化処理を行い、G画像データのうち濃い領域に属する画素、即ち、文字や線、絵柄や写真などを示す画素の値を「1」とし、文字や線、絵柄や写真などの背景に相当する画素の値を「0」とした、2値画像データを生成し、生成した2値画像データを膨張部302へ出力する(以下、画素値が「0」である画素をLOW画素、画素値が「1」である画素をHIGH画素と称する。)。   The floating binarization unit 301 performs floating binarization processing of the target pixel, that is, dynamic threshold binarization processing, using pixels around the target pixel. The floating binarization unit 301 performs dynamic binarization processing of the target pixel using pixels around the target pixel, as described in, for example, Japanese Patent Application Laid-Open No. 2002-84420 related to the applicant of the present application, The value of a pixel belonging to a dark area in the G image data, that is, the value of a pixel indicating a character, a line, a picture or a photograph is “1”, and the value of a pixel corresponding to the background such as a character, a line, a picture or a photograph is “ Binary image data set to “0” is generated, and the generated binary image data is output to the expansion unit 302 (hereinafter, a pixel having a pixel value “0” is a LOW pixel, and a pixel value is “1”). The pixel is referred to as a HIGH pixel.)

膨張部302は、浮動2値化部301から出力された2値画像データが示す画像の画素を順次操作し、HIGH画素に対して膨張処理を行うものである。膨張部302は、図4に示したように、注目画素を“X”、その周囲8近傍の画素を“A”〜“H”とした場合、注目画素“X”および周囲8近傍の画素のうち、一つでもHIGH画素があれば、注目画素“X”をHIGH画素とし、注目画素“X”および周囲8近傍の全ての画素がLOW画素であれば、注目画素をLOW画素とする。膨張部302で生成された2値画像データは、収縮部303へ出力される。なお、この膨張処理は、注目画素と、その周囲8近傍の画素に着目して膨張処理を行う態様に限定されるものではなく、例えば、注目画素を中心とする5×5画素の領域、あるいは、さらに大きな領域に着目して膨張処理を行うようにしても良いのは勿論である。
このように、膨張部302が2値画像データに対してHIGH画素の膨張処理を行うことにより、画像中に含まれている写真や網点領域内の画素が浮動2値化部301での2値化処理により部分的にLOW画素となっても、LOW画素となった画素をHIGH画素とすることができ、写真や網点領域全体をHIGH画素で連続化することができる。
The expansion unit 302 sequentially operates pixels of the image indicated by the binary image data output from the floating binarization unit 301, and performs expansion processing on the HIGH pixels. As shown in FIG. 4, when the pixel of interest is “X” and the pixels near its periphery 8 are “A” to “H”, the expansion unit 302 is configured to display the pixel of interest “X” and the pixels near the periphery 8. Among them, if there is at least one HIGH pixel, the target pixel “X” is set as a HIGH pixel, and if the target pixel “X” and all the pixels in the vicinity of the surrounding 8 are LOW pixels, the target pixel is set as a LOW pixel. The binary image data generated by the expansion unit 302 is output to the contraction unit 303. The dilation processing is not limited to the mode in which the dilation processing is performed by paying attention to the pixel of interest and the pixels in the vicinity of the surrounding 8; for example, a 5 × 5 pixel area centered on the pixel of interest, or Of course, the expansion process may be performed focusing on a larger area.
As described above, the expansion unit 302 performs the HIGH pixel expansion process on the binary image data, so that the pixels included in the image and the pixels in the halftone area are changed to 2 in the floating binarization unit 301. Even if a LOW pixel is partially formed by the value conversion processing, a pixel that has become a LOW pixel can be a HIGH pixel, and the entire photograph or halftone dot region can be continued with the HIGH pixel.

収縮部303は、膨張部302から出力された2値画像データが示す画像の画素を順次操作し、HIGH画素に対して収縮処理を行うものである。膨張部302は、図4に示したように、注目画素を“X”、その周囲8近傍の画素を“A”〜“H”とした場合、注目画素“X”および周囲8近傍の画素のうち、一つでもLOW画素があれば、注目画素“X”をLOW画素とし、注目画素“X”および周囲8近傍の全ての画素がHIGH画素であれば、注目画素をHIGH画素とする。収縮部303で生成された2値画像データは、図2に示した輪郭抽出部101へ出力される。なお、この収縮処理は、注目画素と、その周囲8近傍の画素に着目して収縮処理を行う態様に限定されるものではなく、例えば、注目画素を中心とする5×5画素の領域、あるいは、さらに大きな領域に着目して収縮処理を行うようにしても良いのは勿論である。
このように、収縮部303が2値画像データに対してHIGH画素の収縮処理を行うことにより、膨張処理により、他の領域と接続(結合)してしまった写真や網点領域を切り離すことができる。
The contraction unit 303 sequentially operates the pixels of the image indicated by the binary image data output from the expansion unit 302, and performs contraction processing on the HIGH pixels. As shown in FIG. 4, when the pixel of interest is “X” and the pixels near its periphery 8 are “A” to “H”, the expansion unit 302 is configured to display the pixel of interest “X” and the pixels near the periphery 8. Among these, if there is at least one LOW pixel, the target pixel “X” is set as the LOW pixel, and if all the pixels in the vicinity of the target pixel “X” and the surrounding 8 are HIGH pixels, the target pixel is set as the HIGH pixel. The binary image data generated by the contraction unit 303 is output to the contour extraction unit 101 shown in FIG. The contraction process is not limited to the aspect in which the contraction process is performed by focusing on the pixel of interest and the pixels in the vicinity of the surrounding 8; for example, a 5 × 5 pixel region centered on the pixel of interest, or Of course, the contraction process may be performed focusing on a larger area.
As described above, the contraction unit 303 performs the HIGH pixel contraction process on the binary image data, so that the expansion process can separate a photograph or halftone dot region that has been connected (coupled) with another region. it can.

次に、図2に戻り、輪郭抽出部101について説明する。輪郭抽出部101は、2値化部100の収縮部303から出力された2値画像データのうち、HIGH画素で構成される領域の輪郭を抽出するものである。図4に示したように、注目画素を“X”、その周囲8近傍の画素を“A”〜“H”とすると、輪郭抽出部101は、注目画素“X”がLOW画素である場合、注目画素はHIGH画素で構成される領域の輪郭を示す画素では無いと判断する。また、輪郭抽出部101は、注目画素“X”がHIGH画素であり、且つ、周囲8近傍の全ての画素がHIGH画素である場合も、注目画素はHIGH画素で構成される領域の輪郭を示す画素では無いと判断する。一方、輪郭抽出部101は、注目画素“X”がHIGH画素であり、周囲8近傍のいずれかの画素がLOW画素である場合、注目画素はHIGH画素で構成される領域の輪郭を示す画素であると判断する。
輪郭抽出部101は、この処理により画像中のHIGH画素で構成される領域の輪郭を示す画素を抽出し、HIGH画素で構成される領域の輪郭を示す輪郭2値画像データを生成する。例えば、図5に例示したような画像を示す2値画像データが入力されると、図6に例示した画像を示す輪郭2値画像データを生成する。輪郭抽出部101は、生成した輪郭2値画像データをスキュー角検知部102へ出力する。
Next, returning to FIG. 2, the contour extraction unit 101 will be described. The contour extraction unit 101 extracts a contour of a region composed of HIGH pixels from the binary image data output from the contraction unit 303 of the binarization unit 100. As illustrated in FIG. 4, when the target pixel is “X” and the pixels in the vicinity of the surrounding 8 are “A” to “H”, the contour extraction unit 101 determines that the target pixel “X” is a LOW pixel. It is determined that the pixel of interest is not a pixel indicating the outline of a region composed of HIGH pixels. In addition, the contour extraction unit 101 indicates the contour of a region formed by HIGH pixels even when the pixel of interest “X” is a HIGH pixel and all the pixels in the vicinity of the surrounding 8 are HIGH pixels. Judge that it is not a pixel. On the other hand, when the pixel of interest “X” is a HIGH pixel and any of the pixels in the vicinity of the surrounding 8 is a LOW pixel, the contour extraction unit 101 is a pixel indicating the contour of an area composed of HIGH pixels. Judge that there is.
The contour extraction unit 101 extracts pixels indicating the contour of the region composed of HIGH pixels in the image by this process, and generates contour binary image data indicating the contour of the region composed of HIGH pixels. For example, when binary image data indicating an image as illustrated in FIG. 5 is input, contour binary image data indicating an image illustrated in FIG. 6 is generated. The contour extraction unit 101 outputs the generated contour binary image data to the skew angle detection unit 102.

スキュー角検知部102は、入力された輪郭2値画像データから、輪郭2値画像データが示す画像のスキュー角度を求めるものである。スキュー角検知部102は、図7に示したように、領域分割部200と、ハフ変換部201と、ハフ空間データ記憶部202と、ハフ空間データ演算投影部203と、演算投影データ記憶部204と、全体データ演算部205と、角度検知部206とを具備しており、スキュー角検知部102に入力された輪郭2値画像データは、領域分割部200とハフ空間データ演算部203に供給される。   The skew angle detection unit 102 obtains the skew angle of the image indicated by the contour binary image data from the input contour binary image data. As shown in FIG. 7, the skew angle detection unit 102 includes an area dividing unit 200, a Hough transform unit 201, a Hough space data storage unit 202, a Hough space data calculation projection unit 203, and a calculation projection data storage unit 204. And the whole data calculation unit 205 and the angle detection unit 206, and the binary contour image data input to the skew angle detection unit 102 is supplied to the region division unit 200 and the Hough space data calculation unit 203. The

領域分割部200は、輪郭抽出部101から出力された輪郭2値画像データが示す画像を複数の領域に分割するものである。領域分割部200は、例えば、図8に示したように、画像中のオブジェクト、即ち、段落、図形、写真を認識し、文字がある領域と、図形がある領域と、写真がある領域とに画像を分割する。領域分割部200は、分割された画像を示す分割画像データを、分割した画像毎に生成し、生成した分割画像データをハフ変換部201へ出力する。   The region dividing unit 200 divides the image indicated by the contour binary image data output from the contour extracting unit 101 into a plurality of regions. For example, as shown in FIG. 8, the area dividing unit 200 recognizes an object in an image, that is, a paragraph, a figure, and a photograph. Divide the image. The area dividing unit 200 generates divided image data indicating the divided image for each divided image, and outputs the generated divided image data to the Hough transform unit 201.

ハフ変換部201は、領域分割部200から出力された分割画像データに対してハフ変換処理を行うものである。ここで、まずハフ変換処理について説明する。画素の位置をx座標とy座標とで表した場合、原点から画素までの直線距離をρ、原点から画素への直線とx軸とのなす角度をθとすると、x−y座標上において座標(x,y)に位置する画素を通る全ての直線は下記式(1)で表すことができる。
ρ=xcosθ+ysinθ (0≦θ<π) ・・・・・(1)
The Hough conversion unit 201 performs a Hough conversion process on the divided image data output from the region dividing unit 200. Here, the Hough conversion process will be described first. When the position of a pixel is represented by an x coordinate and ay coordinate, if the straight line distance from the origin to the pixel is ρ, and the angle between the straight line from the origin to the pixel and the x axis is θ, the coordinate on the xy coordinate All straight lines passing through the pixel located at (x, y) can be expressed by the following formula (1).
ρ = x cos θ + ysin θ (0 ≦ θ <π) (1)

そして、図9に示したように座標(x,y)の位置に位置する画素について、式(1)のθを0〜πまで順次変化させ、このθの変化に対応して得られるρを、図10に示したようにρ−θ座標上にプロットしていくと、ある画素を通る全ての直線を、ρ−θ座標上(極座標上)で曲線として表すことができる。この、曲線をハフ曲線と呼び、ハフ曲線を求める処理をハフ変換と呼ぶ。   Then, as shown in FIG. 9, for the pixel located at the position of the coordinates (x, y), θ in Expression (1) is sequentially changed from 0 to π, and ρ obtained corresponding to the change in θ is changed. When plotted on the ρ-θ coordinates as shown in FIG. 10, all straight lines passing through a certain pixel can be expressed as curves on the ρ-θ coordinates (on the polar coordinates). This curve is called a Hough curve, and the process for obtaining a Hough curve is called a Hough transform.

次に、ハフ変換部201が行う処理の流れについて、図11を用いて説明する。ハフ変換部201は、分割画像データが入力されると、図12に示したように、θとρからなる二次元の配列テーブルをハフ空間データ記憶部202に生成する。ハフ変換部201は、まず、この配列テーブルの全ての配列要素に「0」を代入し、配列テーブルを初期化する(ステップS101)。   Next, the flow of processing performed by the Hough transform unit 201 will be described with reference to FIG. When the divided image data is input, the Hough transform unit 201 generates a two-dimensional array table composed of θ and ρ in the Hough space data storage unit 202 as shown in FIG. First, the Hough transform unit 201 assigns “0” to all the array elements of the array table, and initializes the array table (step S101).

次に、ハフ変換部201は、供給された分割画像データにおいて、ハフ変換処理が行われていないHIGH画素があるか否か判断する(ステップS102)。ハフ変換部201は、ハフ変換処理が行われていないHIGH画素が無いと判断すると(ステップS102;NO)、入力された分割画像データに対するハフ変換処理を終了する。ハフ変換部201は、ハフ変換処理が行われていないHIGH画素があると判断すると(ステップS102;YES)、ハフ変換処理が行われていないHIGH画素を分割画像データから抽出し、抽出したHIGH画素のx座標を変数xに、HIGH画素のy座標を変数yに代入する(ステップS103)。   Next, the Hough conversion unit 201 determines whether there is a HIGH pixel that has not been subjected to the Hough conversion process in the supplied divided image data (step S102). When the Hough conversion unit 201 determines that there is no HIGH pixel that has not been subjected to the Hough conversion process (step S102; NO), the Hough conversion process for the input divided image data is terminated. If the Hough transforming unit 201 determines that there is a HIGH pixel that has not been subjected to the Hough transform process (step S102; YES), the HIGH pixel that has not been subjected to the Hough transform process is extracted from the divided image data, and the extracted HIGH pixel Is substituted for the variable x, and the y coordinate of the HIGH pixel is substituted for the variable y (step S103).

次にハフ変換部201は、式(1)の演算を角度θを順次変更しながら行うため、初期値として変数θに0(rad)を代入する(ステップS104)。次にハフ変換部201は、θの値がθ≧πであるか否かを判断する(ステップS105)。ハフ変換部201は、θの値がθ≧πであると判断すると、抽出したHIGH画素に対するハフ変換処理を終了し、ステップS102へ戻る。ハフ変換部201は、ステップS105において、θの値がθ<πであると判断すると、変数x、変数yおよび変数θを用い、式(1)の右辺の演算を行い、その演算結果を変数ρに代入する。なお、ρの値は、通常、少数点以下の値を有するため、少数点以下の値の切り捨て、切り上げ、四捨五入などを行い、整数に変換する。   Next, the Hough transform unit 201 assigns 0 (rad) to the variable θ as an initial value in order to perform the calculation of Expression (1) while sequentially changing the angle θ (step S104). Next, the Hough transform unit 201 determines whether the value of θ is θ ≧ π (step S105). When determining that the value of θ is θ ≧ π, the Hough conversion unit 201 ends the Hough conversion process for the extracted HIGH pixel, and returns to Step S102. If the Hough transforming unit 201 determines in step S105 that the value of θ is θ <π, it uses the variable x, the variable y, and the variable θ to perform the calculation of the right side of the equation (1), and the calculation result is represented as a variable. Substitute for ρ. Since the value of ρ usually has a value less than the decimal point, the value less than the decimal point is rounded down, rounded up, rounded off, etc., and converted into an integer.

ハフ変換部201は、式(1)の右辺の演算を行うと、変数ρおよび変数θで特定される配列要素に格納されている数値に「1」を加算する(ステップS107)。具体的には、例えば、座標(x,y)の位置に位置する画素について、θがA3である時、ρがaであると算出したとする。この場合、図12に示したように配列テーブルにおいて、θ=A3、ρ=aに対応する配列要素に格納されている数値を1だけ増加させ、頻度を「1」とする。   When performing the calculation of the right side of Expression (1), the Hough transform unit 201 adds “1” to the numerical value stored in the array element specified by the variable ρ and the variable θ (step S107). Specifically, for example, assume that ρ is calculated to be a when θ is A3 for a pixel located at the coordinates (x, y). In this case, as shown in FIG. 12, in the array table, the numerical value stored in the array element corresponding to θ = A3 and ρ = a is increased by 1, and the frequency is set to “1”.

次にハフ変換部201は、角度θを順次変化させてハフ変換を行うため、予め定めた値step_aを変数θの値に加算し、加算の結果得られた値を変数θに代入する(ステップS108)。この値は、求めようとするスキュー角度の分解能によって定められ、1度単位でスキュー角度を求ようとする場合は、step_a=π/180(rad)とする。   Next, in order to perform the Hough transform by sequentially changing the angle θ, the Hough transform unit 201 adds a predetermined value step_a to the value of the variable θ, and substitutes the value obtained as a result of the addition into the variable θ (Step). S108). This value is determined by the resolution of the skew angle to be obtained. When the skew angle is to be obtained in units of 1 degree, step_a = π / 180 (rad).

ハフ変換部201は、ステップS108の処理が終了したら、ステップS105に戻り、ステップS105からステップS108の処理を繰り返す。ハフ変換部201は、θがθ≧πとなるまでステップS105からステップS105の処理を行い、一つのHIGH画素に対するハフ変換処理が終了すると、ステップS102へ戻り、全てのHIGH画素に対してハフ変換処理が行われるまで、ステップS102からステップS108の処理を繰り返す。   When the process of step S108 ends, the Hough conversion unit 201 returns to step S105, and repeats the process from step S105 to step S108. The Hough transforming unit 201 performs the processing from Step S105 to Step S105 until θ becomes θ ≧ π. When the Hough transforming process for one HIGH pixel is completed, the process returns to Step S102, and the Hough transform is performed on all HIGH pixels. Until the processing is performed, the processing from step S102 to step S108 is repeated.

以上説明した処理により、ハフ空間データ記憶部202に生成された配列テーブルには、図12に例示したように、角度θおよび距離ρで特定される座標の頻度を示すデータが格納される。ハフ変換部201は、この処理を、入力される分割画像データ毎に行い、分割画像データ毎に、配列テーブルを生成する。なお、配列テーブルに格納されたデータは、図13に例示したように、ρ−θ座標上における各座標の頻度の分布を表すことができるため、以下、配列テーブルに格納されたデータをヒストグラムデータと称する。   Through the processing described above, the array table generated in the Hough space data storage unit 202 stores data indicating the frequency of coordinates specified by the angle θ and the distance ρ, as illustrated in FIG. The Hough transform unit 201 performs this process for each input divided image data, and generates an array table for each divided image data. Since the data stored in the array table can represent the frequency distribution of each coordinate on the ρ-θ coordinate as illustrated in FIG. 13, hereinafter, the data stored in the array table is referred to as histogram data. Called.

次にハフ空間データ演算投影部203について説明する。ハフ空間データ演算投影部203は、ハフ空間データ記憶部202に記憶されたヒストグラムデータを分割された画像領域毎に読み出し、所定の計算式を用いて角度θ毎に頻度の密集度を求めるものである。   Next, the Hough space data calculation projection unit 203 will be described. The Hough space data calculation projection unit 203 reads the histogram data stored in the Hough space data storage unit 202 for each divided image area, and obtains a frequency density for each angle θ using a predetermined calculation formula. is there.

ハフ空間データ演算部203が行う処理の流れを図14に示す。ハフ空間データ演算部203は、図15に示したように、角度θ毎に頻度の密集度を格納する投影データテーブルを演算投影データ記憶部204に生成する。ハフ空間データ演算部203は、まず、この投影データテーブルの全ての配列要素に「0」を代入し、投影データテーブルを初期化する(ステップS201)。   The flow of processing performed by the Hough space data calculation unit 203 is shown in FIG. As shown in FIG. 15, the Hough space data calculation unit 203 generates a projection data table that stores the frequency density for each angle θ in the calculation projection data storage unit 204. First, the Hough space data calculation unit 203 assigns “0” to all array elements of the projection data table to initialize the projection data table (step S201).

次にハフ空間データ演算部203は、入力される輪郭2値画像データが示す画像の幅と高さを求め、変数widthに輪郭2値画像データの幅を示す値を代入し、変数hightに輪郭2値画像データの高さを示す値を代入する。この後、ハフ空間データ演算部203は、下記式(2)の演算を行う(ステップS202)。
max_d=sqrt(width2+hight2) ・・・・・(2)
Next, the Hough space data calculation unit 203 obtains the width and height of the image indicated by the input contour binary image data, substitutes a value indicating the width of the contour binary image data for the variable width, and sets the contour to the variable high. A value indicating the height of the binary image data is substituted. Thereafter, the Hough space data calculation unit 203 performs the calculation of the following equation (2) (step S202).
max_d = sqrt (width 2 + high 2 ) (2)

ここで、sqrtは、平方根を表すものである。max_dは、輪郭2値画像が示す画像の対角線の長さを示し、ハフ変換により求められた距離ρの最大値は≦max_dとなり、ハフ変換により求められた距離ρの最小値は≧−max_dとなる。
次にハフ空間データ演算部203は、角度θ毎に頻度の密集度を求めるために、変数θに「0」を代入し、変数θを初期化する(ステップS203)。次に、ハフ空間データ演算部203は、θの値がθ≧πであるか否かを判断する(ステップS204)。ハフ空間データ演算部203は、θの値がθ≧πであると判断すると、処理を終了する。ハフ空間データ演算部203は、θの値がθ<πであると判断すると、変数ρに「−max_d」を代入し、変数wに「0」を代入する。
Here, sqrt represents a square root. max_d indicates the length of the diagonal line of the image indicated by the contour binary image, the maximum value of the distance ρ determined by the Hough transform is ≦ max_d, and the minimum value of the distance ρ determined by the Hough transform is ≧ −max_d Become.
Next, the Hough space data computing unit 203 initializes the variable θ by substituting “0” into the variable θ in order to obtain the frequency density for each angle θ (step S203). Next, the Hough space data calculation unit 203 determines whether the value of θ is θ ≧ π (step S204). When the Hough space data calculation unit 203 determines that the value of θ is θ ≧ π, the process is terminated. When determining that the value of θ is θ <π, the Hough space data calculation unit 203 substitutes “−max_d” for the variable ρ and “0” for the variable w.

次にハフ空間データ演算部203は、変数ρの値と、変数max_dが示す値とを比較する(ステップS206)。ハフ空間データ演算部203は、変数ρ≦max_dであると判断すると(ステップS206;NO)、ハフ空間データ記憶部202に記憶されている配列テーブルにおいて、変数θおよび変数ρで特定される配列要素に格納されている頻度を読み出し、読み出した頻度を変数vに代入する。次にハフ空間データ演算部203は、変数v代入された値に対し所定の演算f()をおこない、その演算結果を変数wに加算する(ステップS208)。なお、ステップS208で行う演算は、角度θ毎に頻度の密集度を算出できるものであればどのようなものでも構わない。なお、ここで所定の演算f()は例えば、f(v)=v*vなどがある。次に、ハフ空間データ演算部203は、変数ρの値に「1」を加算し、ステップS206に戻る。   Next, the Hough space data calculation unit 203 compares the value of the variable ρ with the value indicated by the variable max_d (step S206). When the Hough space data calculation unit 203 determines that the variable ρ ≦ max_d is satisfied (step S206; NO), the array element specified by the variable θ and the variable ρ in the array table stored in the Hough space data storage unit 202 Is read, and the read frequency is assigned to the variable v. Next, the Hough space data calculation unit 203 performs a predetermined calculation f () on the value substituted with the variable v, and adds the calculation result to the variable w (step S208). The calculation performed in step S208 may be any calculation as long as the frequency density can be calculated for each angle θ. Here, the predetermined calculation f () includes, for example, f (v) = v * v. Next, the Hough space data calculation unit 203 adds “1” to the value of the variable ρ, and the process returns to step S206.

一方、ハフ空間データ演算部203は、ステップS206において、変数ρ>max_dであると判断すると(ステップS206;YES)、変数θに特定される角度における頻度の密集度の演算を終了し、変数wに代入されている値を、変数θで特定される投影データテーブルの配列要素に格納する(ステップS210)。次にハフ空間データ演算部203は、角度θを順次変化させてステップS204からステップS210の処理を行うため、予め定めた値step_aを変数θの値に加算し、加算の結果得られた値を変数θに代入する(ステップS211)。ハフ空間データ演算部203は、ステップS211の処理が終了したら、ステップS204に戻り、θがθ≧πとなるまでステップS204からステップS211の処理を行う。   On the other hand, when the Hough space data calculation unit 203 determines in step S206 that the variable ρ> max_d is satisfied (step S206; YES), the calculation of the frequency density at the angle specified by the variable θ ends, and the variable w Is stored in the array element of the projection data table specified by the variable θ (step S210). Next, the Hough space data calculation unit 203 adds the predetermined value step_a to the value of the variable θ in order to perform the processing from step S204 to step S210 by sequentially changing the angle θ, and uses the value obtained as a result of the addition. Substitute into the variable θ (step S211). When the process of step S211 is completed, the Hough space data calculation unit 203 returns to step S204 and performs the processes of step S204 to step S211 until θ is θ ≧ π.

この処理により、演算投影データ記憶部204に生成された投影データテーブルには、角度θ毎に頻度の密集度を示すデータが格納される。演算投影データ記憶部204は、この処理を、ハフ空間データ記憶部202に記憶されている配列テーブル毎に行い、配列テーブル毎に投影データテーブルを生成する。なお、投影データテーブルに格納されたデータは、図16に例示したように、角度θと、頻度の密集度との関係を表すヒストグラムを表すことができるため、以下、投影データテーブルに格納されたデータを投影ヒストグラムデータと称する。   With this process, the projection data table generated in the calculation projection data storage unit 204 stores data indicating the frequency density for each angle θ. The calculation projection data storage unit 204 performs this process for each arrangement table stored in the Hough space data storage unit 202, and generates a projection data table for each arrangement table. Since the data stored in the projection data table can represent a histogram representing the relationship between the angle θ and the frequency density as illustrated in FIG. 16, hereinafter, the data stored in the projection data table is stored in the projection data table. The data is referred to as projection histogram data.

次に、全体データ演算部205について説明する。全体データ演算部205は、演算投影データ記憶部204に記憶された、領域毎の投影ヒストグラムデータから、画像全体の投影ヒストグラムデータを生成するものである。全体データ演算部205は、演算投影データ記憶部204に記憶された、投影ヒストグラムデータを順次読み出し、角度θ毎に、各投影ヒストグラムデータから頻度の密集度を示すデータを抽出し、抽出したデータを加算する。全体データ演算部205は、加算の結果得られるデータを、画像全体の投影ヒストグラムデータ(以下、全体ヒストグラムデータと称する)として、角度検知部206へ供給する。   Next, the overall data calculation unit 205 will be described. The entire data calculation unit 205 generates projection histogram data of the entire image from the projection histogram data for each region stored in the calculation projection data storage unit 204. The overall data calculation unit 205 sequentially reads the projection histogram data stored in the calculation projection data storage unit 204, extracts data indicating frequency density from each projection histogram data for each angle θ, and extracts the extracted data. to add. The overall data calculation unit 205 supplies data obtained as a result of the addition to the angle detection unit 206 as projection histogram data of the entire image (hereinafter referred to as overall histogram data).

角度検知部206は、全体データ演算部205から供給される、全体ヒストグラムデータから画像のスキュー角度を検知するものである。角度検知部206は、供給された全体ヒストグラムデータのうち、密集度が最大となっている角度θを求め、求めた角度θを画像全体のスキュー角度とする。角度検知部206は、この求めた角度θを示すスキュー角度データを、画像回転部103へ出力する。   The angle detection unit 206 detects the skew angle of the image from the whole histogram data supplied from the whole data calculation unit 205. The angle detection unit 206 obtains the angle θ at which the density is maximum from the supplied whole histogram data, and uses the obtained angle θ as the skew angle of the whole image. The angle detection unit 206 outputs skew angle data indicating the obtained angle θ to the image rotation unit 103.

次に、図2に戻り、画像回転部103について説明する。画像回転部103は、入力されたRGB画像データが示す画像を、Affine変換などの周知の方法を用いて回転させ、スキューを補正するものである。画像回転部103は、スキュー角検知部102から出力されたスキュー角度データを用いてRGB画像データが示す画像を回転させ、回転後の画像を示す画像データ(以下、スキュー補正RGB画像データと称する)を生成する。この生成されたスキュー補正後RGB画像データは、演算制御部3の制御の下、データ記憶部2に記憶される。   Next, returning to FIG. 2, the image rotation unit 103 will be described. The image rotation unit 103 rotates the image indicated by the input RGB image data using a known method such as Affine conversion, and corrects the skew. The image rotation unit 103 rotates the image indicated by the RGB image data using the skew angle data output from the skew angle detection unit 102, and image data indicating the rotated image (hereinafter referred to as skew correction RGB image data). Is generated. The generated RGB image data after skew correction is stored in the data storage unit 2 under the control of the arithmetic control unit 3.

<第1実施形態の動作>
次に、図17を参照し、画像処理装置がスキュー補正処理を行う際の動作について説明する。
画像処理装置の使用者が、画像入力部1が具備するイメージスキャナに文書を載置した後、図示を省略したキーを操作して、文書の読み取りを指示する旨の操作を行うと、演算制御部3により画像入力部1が制御され、載置された文書がRGBの色成分毎に読み取られる。文書の読み取りが終了すると、演算制御部3は、画像入力部1にて生成された、読み取られた文書を示すRGB画像データを、データ記憶部2に記憶させる(ステップS301)。
<Operation of First Embodiment>
Next, an operation when the image processing apparatus performs the skew correction process will be described with reference to FIG.
When the user of the image processing apparatus places a document on the image scanner included in the image input unit 1 and then operates a key (not shown) to instruct to read the document, the arithmetic control is performed. The image input unit 1 is controlled by the unit 3, and the placed document is read for each RGB color component. When the reading of the document is completed, the arithmetic control unit 3 stores the RGB image data indicating the read document generated by the image input unit 1 in the data storage unit 2 (step S301).

演算制御部3は、RGB画像データをデータ記憶部2に記憶させると、次に、このRGB画像データを、階調補正部4に供給する。階調補正部4は、RGB画像データが供給されると、供給されたRGB画像データに対して階調補正処理を行い、RGB画像データの階調を補正する。階調補正部4において、RGB画像データの階調補正が終了すると、演算制御部3の制御の下、階調補正されたRGB画像データがデータ記憶部2に記憶される(ステップS302)。この後、演算制御部3は、階調補正処理がされたRGB画像データをスキュー補正部5に供給する(ステップS303)。RGB画像データがスキュー補正部5に供給されると、供給されたRGB画像データは、2値化部100と、画像回転部103とに供給される。   The arithmetic control unit 3 stores the RGB image data in the data storage unit 2, and then supplies the RGB image data to the gradation correction unit 4. When the RGB image data is supplied, the gradation correction unit 4 performs gradation correction processing on the supplied RGB image data to correct the gradation of the RGB image data. When the gradation correction of the RGB image data is completed in the gradation correction unit 4, the gradation-corrected RGB image data is stored in the data storage unit 2 under the control of the arithmetic control unit 3 (step S302). Thereafter, the arithmetic control unit 3 supplies the RGB image data subjected to the gradation correction processing to the skew correction unit 5 (step S303). When the RGB image data is supplied to the skew correction unit 5, the supplied RGB image data is supplied to the binarization unit 100 and the image rotation unit 103.

2値化部100に供給されたデータは、まず色成分選択部300に入力される。色成分選択部300においては、入力されたデータのうち、G成分のデータが抽出され、抽出された画像データがG画像データとして出力される。この出力されたG画像データは、浮動2値化部301に入力される。浮動2値化部301においては、濃い領域に属する画素をHIGH画素とし、淡い領域に属する画素をLOW画素とする処理が行われ、2値画像データが生成される。この2値画像データは、膨張部302に入力され、HIGH画素の膨張処理が行われる。膨張部302において膨張処理が行われたデータは、収縮部303に入力され、HIGH画素の収縮処理が行われる。   The data supplied to the binarization unit 100 is first input to the color component selection unit 300. The color component selection unit 300 extracts G component data from the input data, and outputs the extracted image data as G image data. The output G image data is input to the floating binarization unit 301. In the floating binarization unit 301, a process is performed in which pixels belonging to the dark area are HIGH pixels and pixels belonging to the light area are LOW pixels, and binary image data is generated. The binary image data is input to the expansion unit 302, and a HIGH pixel expansion process is performed. The data subjected to the expansion process in the expansion unit 302 is input to the contraction unit 303, and the HIGH pixel contraction process is performed.

収縮処理が行われた2値画像データは、輪郭抽出部101に入力される。輪郭抽出部101においては、入力された2値画像データのうち、HIGH画素で構成される領域の輪郭を示す画素が抽出され、この抽出された画素で構成される輪郭2値画像データが生成される。この輪郭2値画像データは輪郭抽出部101から出力され、スキュー角検知部102の領域分割部200に入力される。   The binary image data that has undergone the contraction process is input to the contour extraction unit 101. In the contour extraction unit 101, pixels indicating the contour of a region composed of HIGH pixels are extracted from the input binary image data, and contour binary image data composed of the extracted pixels is generated. The The contour binary image data is output from the contour extracting unit 101 and input to the region dividing unit 200 of the skew angle detecting unit 102.

輪郭2値画像データが入力された領域分割部200は、画像中の文字、図形、写真を認識し、文字がある領域と、図形がある領域と、写真がある領域とに画像を分割し、分割した画像を示す分割画像データを、分割した画像毎に生成してハフ変換部201へ出力する。分割画像データがハフ変換部201に入力されると、ハフ変換部201は、入力された分割画像データにハフ変換処理行い、ハフ変換の結果をハフ空間データ記憶部202に書き込む。これにより、分割された画像領域毎のヒストグラムデータがハフ空間データ記憶部202に生成される。   The area dividing unit 200 to which the contour binary image data is input recognizes characters, figures, and photographs in the image, and divides the image into areas that include characters, areas that include figures, and areas that include photographs. Divided image data indicating the divided image is generated for each divided image and output to the Hough transform unit 201. When the divided image data is input to the Hough transform unit 201, the Hough transform unit 201 performs a Hough transform process on the input divided image data, and writes the result of the Hough transform in the Hough space data storage unit 202. Thereby, histogram data for each divided image area is generated in the Hough space data storage unit 202.

ハフ変換部201においてハフ変換処理が終了すると、ハフ空間データ演算投影部203は、ハフ空間データ記憶部202に記憶されたヒストグラムデータを分割された画像領域毎に読み出し、角度θ毎に頻度の密集度を求め、投影ヒストグラムデータを生成する。
ハフ空間データ演算投影部203が、投影ヒストグラムデータの生成を終了すると、
全体データ演算部205が、演算投影データ記憶部204に記憶された投影ヒストグラムデータを読み出し、読み出したヒストグラムを加算して、画像全体の投影ヒストグラムデータを生成する。全体データ演算部205は、全体ヒストグラムデータの生成が終了すると、全体ヒストグラムデータを角度検知部206に供給する。
When the Hough transform processing is completed in the Hough transform unit 201, the Hough space data calculation projection unit 203 reads out the histogram data stored in the Hough space data storage unit 202 for each divided image area, and the frequency is dense for each angle θ. The degree is obtained and projection histogram data is generated.
When the Hough space data calculation projection unit 203 finishes generating the projection histogram data,
The overall data calculation unit 205 reads the projection histogram data stored in the calculation projection data storage unit 204, adds the read histograms, and generates projection histogram data of the entire image. When the generation of the whole histogram data is completed, the whole data calculation unit 205 supplies the whole histogram data to the angle detection unit 206.

角度検知部206は、全体ヒストグラムデータが供給されると、供給された全体ヒストグラムデータのうち、密集度が最大となっている角度θを求め、求めた角度θを示すスキュー角度データを画像回転部103へ出力する。
画像回転部103は、スキュー角度データが入力されると、演算制御部3の制御の下、データ記憶部2から供給されたRGB画像データが示す画像を、角度検知部206が出力した角度データが示す角度分、角度データが示す角度と反対廻りに回転させる。画像回転部103は、画像の回転が終了すると、回転後の画像を示すスキュー補正RGB画像データを生成する。画像回転部103において、スキュー補正RGB画像データの生成が終了すると、演算制御部3は、スキュー補正RGB画像データをデータ記憶部2に記憶させる(ステップS304)。
When the whole histogram data is supplied, the angle detection unit 206 obtains the angle θ at which the density is maximum from the supplied whole histogram data, and the skew angle data indicating the obtained angle θ is obtained as the image rotation unit. To 103.
When the skew angle data is input to the image rotation unit 103, the angle data output from the angle detection unit 206 is the image indicated by the RGB image data supplied from the data storage unit 2 under the control of the calculation control unit 3. The angle is rotated by the angle indicated by the angle data in the opposite direction. When image rotation ends, the image rotation unit 103 generates skew-corrected RGB image data indicating the image after rotation. When the image rotation unit 103 finishes generating the skew-corrected RGB image data, the arithmetic control unit 3 stores the skew-corrected RGB image data in the data storage unit 2 (step S304).

以上説明したように、本実施形態は、画像を文字の領域や写真の領域および図形の領域など、複数の領域に分割し、分割した画像領域毎に、スキュー角度を検知するのに適した画素を抽出する。そして、抽出した画素を使用して、分割した画像領域毎にハフ変換を行い、画像領域毎のハフ変換の結果から、画像全体のスキュー角度を求める。
このように、画像全体に対してハフ変換を行うのではなく、画像領域毎にハフ変換を行い、個々の画像領域のハフ変換の結果を基に、画像のスキュー角度を求めるので、図23に例示したように、段組みされている文書であっても、スキュー角度を誤検知することなく、画像のスキューを補正することができる。
As described above, the present embodiment divides an image into a plurality of regions such as a character region, a photo region, and a graphic region, and is suitable for detecting a skew angle for each divided image region. To extract. Then, the extracted pixels are used to perform Hough transform for each divided image region, and the skew angle of the entire image is obtained from the result of Hough transform for each image region.
In this way, the Hough transform is not performed on the entire image, but the Hough transform is performed for each image region, and the image skew angle is obtained based on the result of the Hough transform of each image region. As illustrated, the skew of the image can be corrected without erroneously detecting the skew angle even in the case of a document arranged in columns.

[2.第2実施形態]
次に本発明の第2実施形態について説明する。なお、本発明の第2実施形態の構成は、第1実施形態とほぼ同じであるため、第1実施形態と同じ部分については、同じ符号を付し、その説明を省略する。
[2. Second Embodiment]
Next, a second embodiment of the present invention will be described. In addition, since the structure of 2nd Embodiment of this invention is substantially the same as 1st Embodiment, the same code | symbol is attached | subjected about the same part as 1st Embodiment, and the description is abbreviate | omitted.

図18に示したように、本発明の第2実施形態は、スキュー角検知部102の構成が第1実施形態と異なる。
第2実施形態に係わるハフ変換部201は、領域分割部200から分割画像データが順次入力されると、分割画像データ毎に分割画像データを識別する識別番号を生成する。ハフ変換部201は、配列テーブルを生成する際、生成した識別番号を対応付けてハフ空間データ記憶部202に配列テーブルを生成する。
As shown in FIG. 18, the second embodiment of the present invention is different from the first embodiment in the configuration of the skew angle detection unit 102.
When the divided image data is sequentially input from the region dividing unit 200, the Hough transform unit 201 according to the second embodiment generates an identification number for identifying the divided image data for each divided image data. When generating the arrangement table, the Hough conversion unit 201 generates the arrangement table in the Hough space data storage unit 202 in association with the generated identification number.

第2実施形態に係わるハフ空間データ演算部203は、ハフ空間データ記憶部202の配列テーブルに格納されているヒストグラムデータを読み出す際、配列テーブルに対応付けられている識別番号を読み出す。また、ハフ空間データ演算部203は、投影データテーブルを生成する際、読み出し識別番号を対応付けて演算投影データ記憶部204に投影データテーブルを生成する。   The Hough space data calculation unit 203 according to the second embodiment reads the identification number associated with the array table when reading the histogram data stored in the array table of the Hough space data storage unit 202. Further, when generating the projection data table, the Hough space data calculation unit 203 generates a projection data table in the calculation projection data storage unit 204 in association with the read identification number.

領域属性判定部207は、領域分割部200から順次入力される分割画像データが示す画像の属性を判定するものである。領域属性判定部207は、分割画像データが示す画像が、文字、写真、線画、絵柄のいずれを表しているか判定し、判定した属性を示す属性データを分割画像データ毎に生成する。また、領域属性判定部207は、領域分割部200から分割画像データが順次入力されると、分割画像データ毎に分割画像データを識別する識別番号を生成する。領域属性判定部207は、属性データおよび識別番号を生成すると、生成した属性データと識別番号対応付けて演算投影データ記憶部204に記憶させる。   The region attribute determining unit 207 determines the attribute of the image indicated by the divided image data sequentially input from the region dividing unit 200. The area attribute determination unit 207 determines whether the image indicated by the divided image data represents a character, a photograph, a line drawing, or a pattern, and generates attribute data indicating the determined attribute for each divided image data. When the divided image data is sequentially input from the region dividing unit 200, the region attribute determining unit 207 generates an identification number for identifying the divided image data for each divided image data. When the region attribute determination unit 207 generates the attribute data and the identification number, the region attribute determination unit 207 stores the generated attribute data in association with the identification number in the calculation projection data storage unit 204.

全体データ演算部205は、演算投影データ記憶部204に記憶された、投影ヒストグラムデータから、画像全体の投影ヒストグラムデータを生成するものである。全体データ演算部205は、演算投影データ記憶部204に記憶された、投影ヒストグラムデータを順次読み出し、角度θ毎に、各投影ヒストグラムデータから頻度の密集度を示すデータを抽出し、抽出したデータを加算する。全体データ演算部205は、投影ヒストグラムデータを読み出す際、投影ヒストグラムデータに対応付けられている識別番号を読み出す。全体データ演算部205は、識別番号を読み出すと、この識別番号と同じ識別番号が対応付けて記憶されている属性データを読み出す。全体データ演算部205は、角度θ毎に、各投影ヒストグラムデータから頻度の密集度を示すデータを抽出し、抽出したデータを加算する際、読み出した属性データが示す属性が、例えば、写真または絵柄を示している場合には、読み出した投影ヒストグラムデータの加算を行わず、文字または線画を示している場合には、読み出した投影ヒストグラムデータの加算を行う。全体データ演算部205は、投影ヒストグラムデータの加算が終了すると、加算の結果得られる全体ヒストグラムデータを、角度検知部206へ供給する。なお、全体データ演算部205は、読み出した属性データが示す属性が、例えば、写真または絵柄を示している場合には、例えば低い重み(低い加算率)で投影ヒストグラムデータの加算を行うようにしてもよい。   The overall data calculation unit 205 generates projection histogram data of the entire image from the projection histogram data stored in the calculation projection data storage unit 204. The overall data calculation unit 205 sequentially reads the projection histogram data stored in the calculation projection data storage unit 204, extracts data indicating frequency density from each projection histogram data for each angle θ, and extracts the extracted data. to add. When reading the projection histogram data, the overall data calculation unit 205 reads the identification number associated with the projection histogram data. When reading the identification number, the overall data calculation unit 205 reads the attribute data stored in association with the same identification number as this identification number. The overall data calculation unit 205 extracts data indicating the frequency density from each projection histogram data for each angle θ, and when adding the extracted data, the attribute indicated by the read attribute data is, for example, a photograph or a picture Is added, the read projection histogram data is not added, and if a character or line drawing is shown, the read projection histogram data is added. When the addition of the projection histogram data is completed, the entire data calculation unit 205 supplies the entire histogram data obtained as a result of the addition to the angle detection unit 206. If the attribute indicated by the read attribute data indicates, for example, a photograph or a picture, the overall data calculation unit 205 adds projection histogram data with a low weight (low addition rate), for example. Also good.

以上説明したように、本実施形態によれば、傾きの判別が困難である写真や絵柄の領域を除外したり、写真または絵柄領域の角度算出に対する寄与率を下げて、傾きの判別が容易な文字や線画を用いてスキュー角度を検知するので、より正確なスキュー角度を検知することが可能となり、写真や絵柄を含めてスキュー角度を検知した場合と比較して、正確にスキューを補正することができる。   As described above, according to the present embodiment, it is easy to discriminate the inclination by excluding a photo or a picture area where it is difficult to discriminate the inclination or by reducing the contribution rate to the angle calculation of the picture or the picture area. Since skew angles are detected using text and line drawings, it is possible to detect more accurate skew angles and correct skew more accurately than when skew angles are detected including photographs and pictures. Can do.

[3.第3実施形態]
次に本発明の第3実施形態について説明する。なお、本発明の第3実施形態の構成は、第1実施形態とほぼ同じであるため、第1実施形態と同じ部分については、同じ符号を付し、その説明を省略する。
[3. Third Embodiment]
Next, a third embodiment of the present invention will be described. In addition, since the structure of 3rd Embodiment of this invention is substantially the same as 1st Embodiment, the same code | symbol is attached | subjected about the part same as 1st Embodiment, and the description is abbreviate | omitted.

図19に示したように本発明の第3実施形態は、スキュー角検知部102が、全体データ演算部205と角度検知部206に替えて、領域角度検知部208と、領域角度記憶部209および全体角度検知部210を具備している点が第1実施形態と異なる。   As shown in FIG. 19, in the third embodiment of the present invention, the skew angle detection unit 102 replaces the entire data calculation unit 205 and the angle detection unit 206 with an area angle detection unit 208, an area angle storage unit 209, and The difference from the first embodiment is that an overall angle detector 210 is provided.

領域角度検知部208は、演算投影データ記憶部204に記憶された、分割された領域毎の投影ヒストグラムデータから、領域毎の傾き角度を検知するものである。領域角度検知部208は、分割された領域毎に投影ヒストグラムデータを順次読み出し、読み出したヒストグラムデータのうち、密集度が最大となっている角度θを求め、求めた角度θを分割された画像領域のスキュー角度とする。領域角度検知部208は、スキュー角度を求めると、求めたスキュー角度を示すスキュー角度データを、分割された画像領域毎に領域角度記憶部209に記憶させる。   The area angle detection unit 208 detects an inclination angle for each area from the projection histogram data for each divided area stored in the calculation projection data storage unit 204. The area angle detection unit 208 sequentially reads the projection histogram data for each divided area, obtains the angle θ at which the density is the maximum among the read histogram data, and the image area obtained by dividing the obtained angle θ. The skew angle. When the area angle detection unit 208 obtains the skew angle, the area angle storage unit 209 stores the skew angle data indicating the obtained skew angle for each divided image area.

全体角度検知部210は、画像全体のスキュー角度を求めるものである。全体角度検知部210は、領域角度記憶部209に記憶された、画像領域毎のスキュー角度データを読み出す。全体角度検知部210は、読み出したスキュー角度データを用いて、スキュー角度データが示すスキュー角度の頻度を求め、頻度が最も多いスキュー角度を画像全体のスキュー角度とし、このスキュー角度を示す全体スキュー角度データを出力する。   The overall angle detection unit 210 calculates the skew angle of the entire image. The overall angle detection unit 210 reads the skew angle data for each image area stored in the area angle storage unit 209. The overall angle detection unit 210 obtains the frequency of the skew angle indicated by the skew angle data using the read skew angle data, sets the skew angle having the highest frequency as the skew angle of the entire image, and indicates the skew angle indicating the skew angle. Output data.

本実施形態によれば、画像領域毎にスキュー角度を求め、頻度が多いスキュー角度を画像全体のスキュー角度とする。このため、画像中に写真や図形など正確なスキュー角度を求めにくい領域が存在していた場合でも、それらの領域から算出される角度は一定の角度に集中することが無く、結果的にそれらの領域から算出されるスキュー角度は除外され、より正確なスキュー角度を検知することが可能となる。   According to the present embodiment, a skew angle is obtained for each image region, and a skew angle having a high frequency is set as the skew angle of the entire image. For this reason, even if there are areas where it is difficult to obtain an accurate skew angle such as a photograph or figure in the image, the angles calculated from those areas do not concentrate on a certain angle, and as a result, The skew angle calculated from the region is excluded, and a more accurate skew angle can be detected.

[4.第4実施形態]
次に、本発明の第4実施形態について説明する。なお、本発明の第4実施形態は、本発明の第3実施形態とほぼ同じであるため、構成が同じである部分については、同じ符号を付し、その説明を省略する。
[4. Fourth Embodiment]
Next, a fourth embodiment of the present invention will be described. In addition, since 4th Embodiment of this invention is as substantially the same as 3rd Embodiment of this invention, about the part which has the same structure, the same code | symbol is attached | subjected and the description is abbreviate | omitted.

図20に示したように、本発明の第4実施形態は、スキュー角検知部102の構成が第3実施形態と異なる。   As shown in FIG. 20, the fourth embodiment of the present invention is different from the third embodiment in the configuration of the skew angle detection unit 102.

第4実施形態に係わるハフ変換部201は、領域分割部200から分割画像データが順次入力されると、分割画像データ毎に分割画像データを識別する識別番号を生成する。ハフ変換部201は、配列テーブルを生成する際、生成した識別番号を対応付けてハフ空間データ記憶部202に配列テーブルを生成する。   When the divided image data is sequentially input from the area dividing unit 200, the Hough transform unit 201 according to the fourth embodiment generates an identification number for identifying the divided image data for each divided image data. When generating the arrangement table, the Hough conversion unit 201 generates the arrangement table in the Hough space data storage unit 202 in association with the generated identification number.

第4実施形態に係わるハフ空間データ演算部203は、ハフ空間データ記憶部202の配列テーブルに格納されているヒストグラムデータを読み出す際、配列テーブルに対応付けられている識別番号を読み出す。ハフ空間データ演算部203は、投影データテーブルを生成する際、読み出し識別番号を対応付けて演算投影データ記憶部204に投影データテーブルを生成する。   The Hough space data calculation unit 203 according to the fourth embodiment reads the identification number associated with the sequence table when reading the histogram data stored in the sequence table of the Hough space data storage unit 202. When generating the projection data table, the Hough space data calculation unit 203 generates a projection data table in the calculation projection data storage unit 204 in association with the read identification number.

領域角度検知部208は、演算投影データ記憶部204に記憶された、分割された領域毎の投影ヒストグラムデータから、領域毎の傾き角度を検知するものである。領域角度検知部208は、分割された領域毎に投影データテーブルに格納されている投影ヒストグラムデータを順次読み出し、読み出したヒストグラムデータのうち、密集度が最大となっている角度θを求め、求めた角度θを分割された画像領域のスキュー角度とする。また領域角度検知部208は、投影ヒストグラムデータを読み出す際、投影データテーブルに対応付けられている識別番号を読み出す。領域角度検知部208は、スキュー角度を求めると、求めたスキュー角度を示すスキュー角度データを、読み出した識別番号と対応付けて領域角度記憶部209に記憶させる。   The area angle detection unit 208 detects an inclination angle for each area from the projection histogram data for each divided area stored in the calculation projection data storage unit 204. The area angle detection unit 208 sequentially reads out the projection histogram data stored in the projection data table for each divided area, and obtains an angle θ at which the degree of congestion is maximum among the read histogram data. Let the angle θ be the skew angle of the divided image area. Further, the area angle detection unit 208 reads the identification number associated with the projection data table when reading the projection histogram data. When the area angle detection unit 208 obtains the skew angle, the area angle storage unit 209 stores the skew angle data indicating the obtained skew angle in association with the read identification number.

領域属性判定部207は、領域分割部200から順次入力される、分割画像データが示す画像の属性を判定するものである。領域属性判定部207は、分割画像データが示す画像が、文字、写真、線画、絵柄のいずれを表しているか判定し、判定した属性を示す属性データを分割画像データ毎に生成する。また、領域属性判定部207は、領域分割部200から分割画像データが順次入力されると、分割画像データ毎に分割画像データを識別する識別番号を生成する。領域属性判定部207は、属性データおよび識別番号を生成すると、生成した属性データと識別番号対応付けて領域角度記憶部209に記憶させる。   The area attribute determination unit 207 determines the attribute of the image indicated by the divided image data that is sequentially input from the area dividing unit 200. The area attribute determination unit 207 determines whether the image indicated by the divided image data represents a character, a photograph, a line drawing, or a pattern, and generates attribute data indicating the determined attribute for each divided image data. When the divided image data is sequentially input from the region dividing unit 200, the region attribute determining unit 207 generates an identification number for identifying the divided image data for each divided image data. When generating the attribute data and the identification number, the region attribute determination unit 207 stores the generated attribute data in the region angle storage unit 209 in association with the identification number.

全体角度検知部210は、領域角度記憶部209に記憶された、領域毎のスキュー角度データから、画像全体の傾き角度を示す全体スキュー角度データを生成するものである。
全体角度検知部210は、領域角度記憶部209に記憶された、スキュー角度データを順次読み出す。また、全体角度検知部210は、スキュー角度データを読み出す際、スキュー角度データに対応付けられている識別番号を読み出す。全体角度検知部210は、読み出したスキュー角度データが示す角度の平均値を求める際、読み出した属性データが示す属性が、例えば、写真または絵柄を示している場合には、読み出したスキュー角度データを平均値の計算に用いず、文字または線画を示している場合には、読み出したスキュー角度データを平均値の計算に使用する。全体角度検知部210は、スキュー角度の平均値の算出が終了すると、求めたスキュー角度の平均値を示す全体スキュー角度データを、角度検知部206へ供給する。なお、全体角度検知部210は、読み出したスキュー角度データが示す角度の平均値を求める際、読み出した属性データが示す属性が、例えば、写真または絵柄を示している場合には、例えば、低い重み(低い寄与率)で読み出したスキュー角度データを平均値の計算に用いるようにしてもよい。
The overall angle detection unit 210 generates overall skew angle data indicating the inclination angle of the entire image from the skew angle data for each region stored in the region angle storage unit 209.
The overall angle detection unit 210 sequentially reads the skew angle data stored in the region angle storage unit 209. Further, when reading the skew angle data, the overall angle detection unit 210 reads an identification number associated with the skew angle data. When the total angle detection unit 210 calculates the average value of the angles indicated by the read skew angle data, if the attribute indicated by the read attribute data indicates, for example, a photograph or a picture, the read skew angle data is displayed. When a character or a line drawing is shown instead of calculating the average value, the read skew angle data is used for calculating the average value. When the calculation of the average value of the skew angle is completed, the overall angle detection unit 210 supplies the overall skew angle data indicating the obtained average value of the skew angle to the angle detection unit 206. When the overall angle detection unit 210 obtains the average value of the angles indicated by the read skew angle data, if the attribute indicated by the read attribute data indicates, for example, a photograph or a picture, for example, a low weight is used. The skew angle data read at (low contribution rate) may be used for calculating the average value.

本実施形態によれば、傾きの判別が困難である写真や絵柄の領域を除外したり、写真または絵柄領域の角度算出に対する寄与率を下げて、傾きの判別が容易な文字や線画を用いてスキュー角度を検知するので、より正確なスキュー角度を検知することが可能となり、写真や絵柄を含めてスキュー角度を検知した場合と比較して、正確にスキューを補正することができる。   According to the present embodiment, by using a character or a line drawing that makes it easy to determine the inclination by excluding an area of a photograph or a picture that is difficult to determine the inclination, or by reducing the contribution rate to the angle calculation of the picture or the picture area. Since the skew angle is detected, a more accurate skew angle can be detected, and the skew can be corrected more accurately than when the skew angle is detected including a photograph or a picture.

[5.変形例]
以上、本発明の一実施形態について説明したが、本発明は上述した実施形態に限定されることなく、他の様々な形態で実施可能である。例えば、上述の実施形態を以下のように変形して本発明を実施してもよい。
[5. Modified example]
Although one embodiment of the present invention has been described above, the present invention is not limited to the above-described embodiment, and can be implemented in various other forms. For example, the present invention may be implemented by modifying the above-described embodiment as follows.

上述した実施形態において、領域分割部200は、輪郭2値画像データに対して領域分割を行っているが、輪郭2値画像データではなく、RGB画像データに対して領域分割を
行うようにしてもよい。RGB画像データは階調に係わる情報を有しているため、2値画像を領域分割する場合と比較して、より正確に領域分割を行うことができる。
また、上述した実施形態において領域分割部200は、文字の領域、写真の領域、図形の領域といったように、属性毎に画像を分割しているが、このように画像の属性毎に分割するのではなく、例えば、図21に示したように、N行×M列(N,Mは整数)の複数の矩形領域に分割するようにしてもよい。
In the embodiment described above, the area dividing unit 200 performs area division on the contour binary image data. However, the area dividing unit 200 may perform area division on the RGB image data instead of the contour binary image data. Good. Since RGB image data has information related to gradation, it is possible to perform region division more accurately than in the case of dividing a binary image into regions.
In the above-described embodiment, the area dividing unit 200 divides an image for each attribute such as a character area, a photo area, and a graphic area. Instead, for example, as shown in FIG. 21, it may be divided into a plurality of rectangular regions of N rows × M columns (N and M are integers).

上述した実施形態においては、画像入力部1は、RGBの各色成分毎に文書を読み取っているが、白黒の2値画像として文書を読み取るようにしてもよい。   In the embodiment described above, the image input unit 1 reads the document for each of the RGB color components, but the document may be read as a monochrome binary image.

上述した実施形態においては、画像処理装置は、画像入力部1のイメージスキャナに載置された文書を読み取り、画像データを生成し、生成した画像データが示す画像のスキューを補正しているが、画像処理装置は、この態様に限定されるものではない。
例えば、画像処理装置は、通信手段を有し、コンピュータ装置から送信されたRGB画像データを受信し、受信したRGB画像データに対してスキューの補正を行うようにしてもよい。また、ファクシミリ装置のように、電話回線を介して送信された画像データに対してスキュー補正を行うようにしてもよい。
In the above-described embodiment, the image processing apparatus reads a document placed on the image scanner of the image input unit 1, generates image data, and corrects an image skew indicated by the generated image data. The image processing apparatus is not limited to this mode.
For example, the image processing apparatus may include communication means, receive RGB image data transmitted from a computer apparatus, and perform skew correction on the received RGB image data. Also, skew correction may be performed on image data transmitted via a telephone line as in a facsimile machine.

上述した実施形態において、スキュー補正部5が行う処理はソフトウェアにより実現するようにしてもよい。
また、例えば、第1実施形態にて説明した処理と、第3実施形態にて説明した処理とを行い、各々の処理方法にて求めたスキュー角度の信頼度を求め、信頼度が高いほうのスキュー角度を画像全体のスキュー角度とするようにしてもよい。
信頼度の求め方としては、投影ヒストグラムデータを加算して画像全体のヒストグラムデータを生成し、生成した全体ヒストグラムデータから画像全体のスキュー角度を求める場合には、全体ヒストグラムデータにおいて、密集度の最大値と、密集度の平均値との比を求め、求めた値をスキュー角度の信頼度とする。また、分割した領域毎にスキュー角度を求め、求めた領域毎の角度から画像全体のスキュー角度を求める場合には、求めたスキュー角度の頻度を求め、求めた頻度と、分割した画像領域の数との比を信頼度とする。例えば、画像を10の領域に分割し、スキュー角度が1度である領域が5つ、スキュー角度が2度である領域が3つ、スキュー角度が3度である領域が2つとなった場合、画像全体のスキュー角度を1度とし、スキュー角度の信頼度を、5/10=0.5とする。
そして、個々の信頼度毎に、個々の処理方法毎に定めた所定の値より信頼度が大きいか否かを判断し、いずれか一方の信頼度が所定の値より小さく、他方の信頼度が所定の値より大きい場合には、所定の値より多きな信頼度が算出された方法により求めたスキュー角度を、画像全体のスキュー角度とするようにしてもよい。
また、いずれの方法においても、信頼度が所定の値より小さい、または大きい場合には、予め特定したいずれかの方法により求めたスキュー角度を、画像全体のスキュー角度とするようにしてもよい。
In the above-described embodiment, the processing performed by the skew correction unit 5 may be realized by software.
Further, for example, the processing described in the first embodiment and the processing described in the third embodiment are performed, the reliability of the skew angle obtained by each processing method is obtained, and the higher reliability is obtained. The skew angle may be the skew angle of the entire image.
As a method of obtaining the reliability, when the histogram data of the entire image is generated by adding the projection histogram data and the skew angle of the entire image is obtained from the generated overall histogram data, the maximum density of the entire histogram data is determined. The ratio between the value and the average value of the density is obtained, and the obtained value is set as the reliability of the skew angle. In addition, when the skew angle is obtained for each divided area and the skew angle of the entire image is obtained from the obtained angle for each area, the frequency of the obtained skew angle is obtained, and the obtained frequency and the number of divided image areas are obtained. The ratio is defined as the reliability. For example, when an image is divided into 10 areas, there are 5 areas where the skew angle is 1 degree, 3 areas where the skew angle is 2 degrees, and 2 areas where the skew angle is 3 degrees. The skew angle of the entire image is 1 degree, and the reliability of the skew angle is 5/10 = 0.5.
Then, for each reliability, it is determined whether or not the reliability is larger than a predetermined value determined for each processing method, and one of the reliability is smaller than the predetermined value, and the other reliability is When it is larger than the predetermined value, the skew angle obtained by the method in which the reliability higher than the predetermined value is calculated may be used as the skew angle of the entire image.
In any method, when the reliability is smaller or larger than a predetermined value, the skew angle obtained by any one of the methods specified in advance may be used as the skew angle of the entire image.

上述した実施形態においては、分割した画像領域毎に画像の属性を求めているが、画像の重み係数を求め、重み係数を考慮して、スキュー角度を求めるようにしてもよい。具体的には、例えば、分割された領域内におけるHIGH画素の画素数に応じて、領域毎に重み係数を求める。なお、重み係数は、属性データに応じて決定するようにしてもよく、例えば、分割された領域が文字領域を示す場合には重み係数の値を高とし、写真を示す場合には重み係数の値を低とするようにしてもよい。
そして、例えば、領域の個数=N、各領域から算出された角度=αi、各領域から算出された重み係数=Wiとすると、重みを考慮した重み付け平均角度は、(Σ(αi×Wi))/(ΣWi)となる。このように重み係数を考慮してスキュー角度を求める態様によれば、写真領域に係わるデータの重みが下がるので、入力画像が写真領域を含む画像であっても、より正確に画像のスキュー角度を求めることができる。
なお、重み係数は、RGB画像データが示す画像中のオブジェクトを検知して画像を分割し、分割した画像に基づいて重み係数を求めてもよい。また、分割された画像の属性についても、RGB画像データが示す画像中のオブジェクトを検知して画像を分割し、分割した画像に基づいて属性データを求めてもよい。
In the above-described embodiment, the attribute of the image is obtained for each divided image area. However, the weighting factor of the image may be obtained, and the skew angle may be obtained in consideration of the weighting factor. Specifically, for example, a weighting factor is obtained for each region according to the number of HIGH pixels in the divided region. The weighting factor may be determined according to the attribute data. For example, when the divided area indicates a character area, the weighting factor is set to high, and when the photographed area is displayed, the weighting factor is set to be high. The value may be low.
For example, if the number of regions = N, the angle calculated from each region = αi, and the weighting coefficient calculated from each region = Wi, the weighted average angle considering the weight is (Σ (αi × Wi)) / (ΣWi). Thus, according to the aspect of obtaining the skew angle in consideration of the weighting factor, the weight of the data relating to the photographic area is reduced, so that even if the input image is an image including the photographic area, the skew angle of the image is more accurately determined. Can be sought.
The weighting factor may be obtained by detecting an object in the image indicated by the RGB image data, dividing the image, and obtaining the weighting factor based on the divided image. As for the attribute of the divided image, the object in the image indicated by the RGB image data may be detected to divide the image, and the attribute data may be obtained based on the divided image.

上述した実施形態においては、輪郭2値画像データからオブジェクトを検知しているが、RGB画像データからオブジェクトを検知して、この結果に基づいて輪郭2値画像データを分割するようにしてもよい。   In the embodiment described above, the object is detected from the contour binary image data. However, the object may be detected from the RGB image data, and the contour binary image data may be divided based on the result.

本発明の実施形態に係る画像処理装置の構成を例示するブロック図である。1 is a block diagram illustrating a configuration of an image processing apparatus according to an embodiment of the present invention. 同実施形態に係わるスキュー補正部5の構成を例示するブロック図である。It is a block diagram which illustrates the composition of skew correction part 5 concerning the embodiment. 同実施形態に係わる2値化部100の構成を例示するブロック図である。It is a block diagram which illustrates the composition of binarization part 100 concerning the embodiment. 膨張部302および収縮部303で行われる各処理を説明するための図である。It is a figure for demonstrating each process performed by the expansion part 302 and the contraction part 303. FIG. 輪郭抽出部101で行われる処理を説明するための図である。It is a figure for demonstrating the process performed in the outline extraction part. 輪郭抽出部101で行われる処理を説明するための図である。It is a figure for demonstrating the process performed in the outline extraction part. スキュー角検知部102の構成を例示するブロック図である。3 is a block diagram illustrating a configuration of a skew angle detection unit 102. FIG. 領域分割部200が行う領域分割を説明するための図である。It is a figure for demonstrating the area division which the area division part 200 performs. ハフ変換処理を説明するための図である。It is a figure for demonstrating a Hough conversion process. ハフ変換処理を説明するための図である。It is a figure for demonstrating a Hough conversion process. ハフ変換部201が行う処理の流れを例示するフローチャートである。4 is a flowchart illustrating the flow of processing performed by a Hough conversion unit 201. ハフ空間データ記憶部202が記憶する配列テーブルを例示する図である。It is a figure which illustrates the arrangement | sequence table which the Hough space data storage part 202 memorize | stores. ρ−θ座標上における各座標の頻度の分布を表すヒストグラムを例示する図である。It is a figure which illustrates the histogram showing distribution of the frequency of each coordinate on (rho) -theta coordinate. ハフ空間データ演算投影部203が行う処理の流れを例示するフローチャートである。It is a flowchart which illustrates the flow of the process which the Hough space data calculation projection part 203 performs. 投影データテーブルのフォーマットを例示する図である。It is a figure which illustrates the format of a projection data table. 角度θと密集度wとの関係を表すヒストグラムを例示する図である。It is a figure which illustrates the histogram showing the relationship between angle (theta) and the density w. 演算制御部3が行う処理の流れを例示するフローチャートである。It is a flowchart which illustrates the flow of the process which the arithmetic control part 3 performs. 第2実施形態に係わるスキュー角検知部102の構成を例示するブロック図である。It is a block diagram which illustrates the composition of skew angle detection part 102 concerning a 2nd embodiment. 第3実施形態に係わるスキュー角検知部102の構成を例示するブロック図である。It is a block diagram which illustrates the composition of skew angle detection part 102 concerning a 3rd embodiment. 第4実施形態に係わるスキュー角検知部102の構成を例示するブロック図である。It is a block diagram which illustrates the composition of skew angle detection part 102 concerning a 4th embodiment. 本発明の変形例を説明するための図である。It is a figure for demonstrating the modification of this invention. 従来技術の問題点を説明するための図である。It is a figure for demonstrating the problem of a prior art. 従来技術の問題点を説明するための図である。It is a figure for demonstrating the problem of a prior art.

符号の説明Explanation of symbols

1・・・画像入力部、2・・・データ記憶部、3・・・演算制御部、4・・・階調補正部、5・・・スキュー補正部、6・・・色信号変換部、7・・・画像表示部、8・・・画像出力部、9・・・バス、100・・・2値化部、101・・・輪郭抽出部、102・・・スキュー角検知部、103・・・画像回転部、200・・・領域分割部、201・・・ハフ変換部、202・・・ハフ空間データ記憶部、203・・・ハフ空間データ演算投影部、204・・・演算投影データ記憶部、205・・・全体データ演算部、206・・・角度検知部、207・・・領域属性判定部、208・・・領域角度検知部、209・・・領域角度記憶部、210・・・全体角度検知部、300・・・色成分選択部、301・・・浮動2値化部、302・・・膨張部、303・・・収縮部。 DESCRIPTION OF SYMBOLS 1 ... Image input part, 2 ... Data storage part, 3 ... Calculation control part, 4 ... Gradation correction part, 5 ... Skew correction part, 6 ... Color signal conversion part, 7 ... Image display unit, 8 ... Image output unit, 9 ... Bus, 100 ... Binarization unit, 101 ... Contour extraction unit, 102 ... Skew angle detection unit, 103 ..Image rotating unit, 200... Region dividing unit, 201... Hough transform unit, 202... Hough space data storage unit, 203. Storage unit 205... Overall data calculation unit 206... Angle detection unit 207... Area attribute determination unit 208... Region angle detection unit 209. -Whole angle detection unit, 300 ... color component selection unit, 301 ... floating binarization unit, 302 ... Zhang section, 303 ... constriction.

Claims (17)

画像データを記憶する記憶手段と、
前記記憶手段に記憶されている画像データを2値化し、2値画像データを生成する2値化手段と、
前記2値化手段により生成された2値画像データが示す画像を複数の領域に分割し、分割した画像を示す分割2値画像データを生成する領域分割手段と、
前記分割2値画像データに対してハフ変換を行い、ハフ変換により得られた極座標上の座標の頻度を表すヒストグラムデータを、分割された画像領域毎に生成するハフ変換手段と、
前記ハフ変換手段が生成したヒストグラムデータ毎に、極座標上の各角度における頻度の密集度を表す投影ヒストグラムデータを生成する頻度演算手段と、
前記頻度演算手段が生成した投影ヒストグラムデータを加算し、全体ヒストグラムデータを生成する全体頻度演算手段と、
前記全体頻度演算手段によって生成された全体ヒストグラムデータに基づき画像データが示す画像の傾き角度を検知する全体角度検知手段と、
前記記憶手段に記憶されている画像データが示す画像を、前記全体角度検知手段が求めた傾き角度に従って回転させる画像回転手段と
を有する画像処理装置。
Storage means for storing image data;
Binarization means for binarizing the image data stored in the storage means to generate binary image data;
Area dividing means for dividing the image indicated by the binary image data generated by the binarizing means into a plurality of areas, and generating divided binary image data indicating the divided images;
A Hough transform unit that performs Hough transform on the divided binary image data, and generates histogram data representing the frequency of coordinates on polar coordinates obtained by the Hough transform for each divided image region;
For each histogram data generated by the Hough transform means, a frequency calculation means for generating projection histogram data representing the frequency density at each angle on polar coordinates;
Adding the projection histogram data generated by the frequency calculation means to generate overall histogram data; and
An overall angle detection means for detecting an inclination angle of the image indicated by the image data based on the overall histogram data generated by the overall frequency calculation means;
An image processing apparatus comprising: an image rotation unit configured to rotate an image indicated by the image data stored in the storage unit according to an inclination angle obtained by the overall angle detection unit.
前記領域分割手段は、前記2値画像データが表す画像中のオブジェクトを検知し、検知したオブジェクト毎に画像を分割して分割2値画像データを生成し、
前記分割2値画像データが示す画像中のオブジェクトを示す属性データを生成する属性データ生成手段を有し、
前記全体頻度演算手段は、投影ヒストグラムデータに対応する属性データに応じて、投影ヒストグラムデータを加算すること
を特徴とする請求項1に記載の画像処理装置。
The region dividing unit detects an object in the image represented by the binary image data, divides the image for each detected object, and generates divided binary image data;
Attribute data generating means for generating attribute data indicating an object in the image indicated by the divided binary image data;
The image processing apparatus according to claim 1, wherein the overall frequency calculation unit adds the projection histogram data according to attribute data corresponding to the projection histogram data.
前記領域分割手段は、前記画像データが表す画像中のオブジェクトを検知し、検知したオブジェクトに基づいて、前記2値画像データが表す画像を分割して分割2値画像データを生成し、
前記分割2値画像データが表す画像中のオブジェクトを示す属性データを生成する属性データ生成手段を有し、
前記全体頻度演算手段は、投影ヒストグラムデータに対応する属性データに応じて、投影ヒストグラムデータを加算すること
を特徴とする請求項1に記載の画像処理装置。
The region dividing unit detects an object in the image represented by the image data, and divides the image represented by the binary image data based on the detected object to generate divided binary image data,
Attribute data generation means for generating attribute data indicating an object in the image represented by the divided binary image data;
The image processing apparatus according to claim 1, wherein the overall frequency calculation unit adds the projection histogram data according to attribute data corresponding to the projection histogram data.
画像データを記憶する記憶手段と、
前記記憶手段に記憶された画像データが示す画像を複数の領域に分割し、分割した画像を示す分割画像データを生成する領域分割手段と、
前記領域分割手段により生成された分割画像データを2値化し、分割2値画像データを生成する2値化手段と、
前記分割2値画像データに対してハフ変換を行い、ハフ変換により得られた極座標上の座標の頻度を表すヒストグラムデータを、分割された画像領域毎に生成するハフ変換手段と、
前記ハフ変換手段が生成したヒストグラムデータ毎に、極座標上の各角度における頻度の密集度を表す投影ヒストグラムデータを生成する頻度演算手段と、
前記頻度演算手段が生成した投影ヒストグラムデータを加算し、全体ヒストグラムデータを生成する全体頻度演算手段と、
前記全体頻度演算手段によって生成された全体ヒストグラムデータに基づき画像データが表す画像の傾き角度を検知する全体角度検知手段と、
前記記憶手段に記憶されている画像データが示す画像を、前記全体角度検知手段が求めた傾き角度に従って回転させる画像回転手段と
を有する画像処理装置。
Storage means for storing image data;
Area dividing means for dividing the image indicated by the image data stored in the storage means into a plurality of areas, and generating divided image data indicating the divided images;
Binarization means for binarizing the divided image data generated by the area dividing means to generate divided binary image data;
A Hough transform unit that performs Hough transform on the divided binary image data, and generates histogram data representing the frequency of coordinates on polar coordinates obtained by the Hough transform for each divided image region;
For each histogram data generated by the Hough transform means, a frequency calculation means for generating projection histogram data representing the frequency density at each angle on polar coordinates;
Adding the projection histogram data generated by the frequency calculation means to generate overall histogram data; and
An overall angle detection means for detecting an inclination angle of an image represented by image data based on the overall histogram data generated by the overall frequency calculation means;
An image processing apparatus comprising: an image rotation unit configured to rotate an image indicated by the image data stored in the storage unit according to an inclination angle obtained by the overall angle detection unit.
前記領域分割手段は、前記画像データが示す画像中のオブジェクトを検知し、検知したオブジェクト毎に、前記画像データが表す画像を分割して分割画像データを生成し、
前記分割画像データが示す画像中のオブジェクトを示す属性データを生成する属性データ生成手段を有し、
前記全体頻度演算手段は、投影ヒストグラムデータに対応する属性データに応じて、投影ヒストグラムデータを加算すること
を特徴とする請求項4に記載の画像処理装置。
The area dividing unit detects an object in the image indicated by the image data, and generates divided image data by dividing the image represented by the image data for each detected object,
Attribute data generating means for generating attribute data indicating an object in the image indicated by the divided image data;
The image processing apparatus according to claim 4, wherein the overall frequency calculating unit adds the projection histogram data according to attribute data corresponding to the projection histogram data.
前記分割2値画像データが表す画像中のオブジェクトを示す属性データを生成する属性データ生成手段を有し、
前記全体頻度演算手段は、投影ヒストグラムデータに対応する属性データに応じて、投影ヒストグラムデータを加算すること
を特徴とする請求項4に記載の画像処理装置。
Attribute data generation means for generating attribute data indicating an object in the image represented by the divided binary image data;
The image processing apparatus according to claim 4, wherein the overall frequency calculating unit adds the projection histogram data according to attribute data corresponding to the projection histogram data.
前記分割画像データが示す画像の重み係数を生成する重み係数生成手段を有し、
前記全体頻度演算手段は、投影ヒストグラムデータに対応する重み係数に応じて、投影ヒストグラムデータを加算すること
を特徴とする請求項4に記載の画像処理装置。
Weight coefficient generation means for generating a weight coefficient of an image indicated by the divided image data;
The image processing apparatus according to claim 4, wherein the overall frequency calculation unit adds the projection histogram data according to a weighting factor corresponding to the projection histogram data.
前記分割2値画像データが示す画像の重み係数を生成する重み係数生成手段を有し、
前記全体頻度演算手段は、投影ヒストグラムデータに対応する重み係数に応じて、投影ヒストグラムデータを加算すること
を特徴とする請求項1または4のいずれかの請求項に記載の画像処理装置。
Weight coefficient generation means for generating a weight coefficient of an image indicated by the divided binary image data;
The image processing apparatus according to claim 1, wherein the overall frequency calculation unit adds the projection histogram data in accordance with a weighting factor corresponding to the projection histogram data.
画像データを記憶する記憶手段と、
前記記憶手段に記憶されている画像データを2値化し、2値画像データを生成する2値化手段と、
前記2値化手段により生成された2値画像データが表す画像を複数の領域に分割し、分割した画像を示す分割2値画像データを生成する領域分割手段と、
前記分割2値画像データに対してハフ変換を行い、ハフ変換により得られた極座標上の座標の頻度を表すヒストグラムデータを、分割された画像領域毎に生成するハフ変換手段と、
前記ハフ変換手段が生成したヒストグラムデータ毎に、極座標上の各角度における頻度の密集度を表す投影ヒストグラムデータを生成する頻度演算手段と、
前記頻度演算手段が生成した投影ヒストグラムデータを加算し、全体ヒストグラムデータを生成する全体頻度演算手段と、
前記全体頻度演算手段によって生成された全体ヒストグラムデータにおいて、頻度が最大となる角度を求める第1全体角度検知手段と、
前記第1全体角度検知手段が求めた角度の信頼度を求める第1信頼度算出手段と、
前記頻度演算手段によって生成された投影ヒストグラムデータにおいて頻度が最大となる角度を、該投影ヒストグラムデータ毎に求める領域角度検知手段と、
前記領域角度検知手段が求めた角度のうち、最も頻度の高い角度を求める第2全体角度検知手段と、
前記第2全体角度検知手段が求めた角度の信頼度を求める第2信頼度算出手段と、
前記第1信頼度算出手段が求めた信頼度と前記第2 信頼度算出手段が求めた信頼度とに基づいて、画像全体の傾き角度を求める全体角度決定手段と、
前記記憶手段に記憶されている画像データが示す画像を、前記全体角度決定手段が求めた傾き角度に従って回転させる画像回転手段と
を有する画像処理装置。
Storage means for storing image data;
Binarization means for binarizing the image data stored in the storage means to generate binary image data;
Area dividing means for dividing the image represented by the binary image data generated by the binarizing means into a plurality of areas and generating divided binary image data indicating the divided images;
A Hough transform unit that performs Hough transform on the divided binary image data, and generates histogram data representing the frequency of coordinates on polar coordinates obtained by the Hough transform for each divided image region;
For each histogram data generated by the Hough transform means, a frequency calculation means for generating projection histogram data representing the frequency density at each angle on polar coordinates;
Adding the projection histogram data generated by the frequency calculation means to generate overall histogram data; and
First global angle detection means for obtaining an angle at which the frequency is maximum in the overall histogram data generated by the overall frequency calculation means;
First reliability calculation means for determining the reliability of the angle determined by the first overall angle detection means;
Area angle detection means for obtaining the angle at which the frequency is maximum in the projection histogram data generated by the frequency calculation means for each projection histogram data;
Of the angles obtained by the region angle detection means, second overall angle detection means for obtaining the most frequent angle;
Second reliability calculation means for determining the reliability of the angle determined by the second overall angle detection means;
An overall angle determination means for obtaining an inclination angle of the entire image based on the reliability obtained by the first reliability calculation means and the reliability obtained by the second reliability calculation means;
An image processing apparatus comprising: an image rotation unit that rotates an image indicated by image data stored in the storage unit according to an inclination angle obtained by the overall angle determination unit.
画像データを記憶する記憶手段と、
前記記憶手段に記憶されている画像データが表す画像を複数の領域に分割し、分割した画像を示す分割画像データを生成する領域分割手段と、
前記領域分割手段により生成された分割画像データを2値化し、分割2値画像データを生成する2値化手段と、
前記分割2値画像データに対してハフ変換を行い、ハフ変換により得られた極座標上の座標の頻度を表すヒストグラムデータを、分割された画像領域毎に生成するハフ変換手段と、
前記ハフ変換手段が生成したヒストグラムデータ毎に、極座標上の各角度における頻度の密集度を表す投影ヒストグラムデータを生成する頻度演算手段と、
前記頻度演算手段が生成した投影ヒストグラムデータを加算し、全体ヒストグラムデータを生成する全体頻度演算手段と、
前記全体頻度演算手段によって生成された全体ヒストグラムデータにおいて、頻度が最大となる角度を求める第1全体角度検知手段と、
前記第1全体角度検知手段が求めた角度の信頼度を求める第1信頼度算出手段と、
前記頻度演算手段によって生成された投影ヒストグラムデータにおいて頻度が最大となる角度を、該投影ヒストグラムデータ毎に求める領域角度検知手段と、
前記領域角度検知手段が求めた角度のうち、最も頻度の高い角度を求める第2全体角度検知手段と、
前記第2全体角度検知手段が求めた角度の信頼度を求める第2信頼度算出手段と、
前記第1信頼度算出手段が求めた信頼度と前記第2信頼度算出手段が求めた信頼度とに基づいて、画像全体の傾き角度を求める全体角度決定手段と、
前記記憶手段に記憶されている画像データが示す画像を、前記全体角度決定手段が求めた傾き角度に従って回転させる画像回転手段と
を有する画像処理装置。
Storage means for storing image data;
Area dividing means for dividing the image represented by the image data stored in the storage means into a plurality of areas and generating divided image data indicating the divided images;
Binarization means for binarizing the divided image data generated by the area dividing means to generate divided binary image data;
A Hough transform unit that performs Hough transform on the divided binary image data, and generates histogram data representing the frequency of coordinates on polar coordinates obtained by the Hough transform for each divided image region;
For each histogram data generated by the Hough transform means, a frequency calculation means for generating projection histogram data representing the frequency density at each angle on polar coordinates;
Adding the projection histogram data generated by the frequency calculation means to generate overall histogram data; and
First global angle detection means for obtaining an angle at which the frequency is maximum in the overall histogram data generated by the overall frequency calculation means;
First reliability calculation means for determining the reliability of the angle determined by the first overall angle detection means;
Area angle detection means for obtaining the angle at which the frequency is maximum in the projection histogram data generated by the frequency calculation means for each projection histogram data;
Of the angles obtained by the region angle detection means, second overall angle detection means for obtaining the most frequent angle;
Second reliability calculation means for determining the reliability of the angle determined by the second overall angle detection means;
An overall angle determining means for obtaining an inclination angle of the entire image based on the reliability obtained by the first reliability calculating means and the reliability obtained by the second reliability calculating means;
An image processing apparatus comprising: an image rotation unit that rotates an image indicated by image data stored in the storage unit according to an inclination angle obtained by the overall angle determination unit.
前記第2全体角度検知手段は、最も頻度の高い角度に替えて、前記領域角度検知手段が求めた角度の平均角度を求めることを特徴とする請求項または請求項10に記載の画像処理装置。 The second overall angle detecting means, the most frequent place of the high angle image processing apparatus according to claim 9 or claim 10, wherein the determination of the average angle of angles is the region angle detecting means obtained . 前記全体角度決定手段は、前記第1信頼度算出手段が求めた信頼度と、前記第2信頼度算出手段が求めた信頼度とを比較し、
前記第1信頼度算出手段が求めた信頼度が前記第2信頼度算出手段が求めた信頼度より高い場合には、前記第1全体角度検知手段が求めた角度を画像全体の角度とし、前記第2信頼度算出手段が求めた信頼度が前記第1信頼度算出手段が求めた信頼度より高い場合には、前記第2全体角度検知手段が求めた角度を画像全体の傾き角度とすること
を特徴とする請求項または請求項10に記載の画像処理装置。
The overall angle determination means compares the reliability obtained by the first reliability calculation means with the reliability obtained by the second reliability calculation means,
When the reliability obtained by the first reliability calculation means is higher than the reliability obtained by the second reliability calculation means, the angle obtained by the first overall angle detection means is set as the angle of the entire image, and When the reliability obtained by the second reliability calculation means is higher than the reliability obtained by the first reliability calculation means, the angle obtained by the second overall angle detection means is set as the inclination angle of the entire image. The image processing apparatus according to claim 9 or 10 , wherein:
前記全体角度決定手段は、前記第1信頼度算出手段が求めた信頼度が予め定めた閾値以上である場合には、前記第1全体角度検知手段が求めた角度を画像全体の傾き角度とし、前記第1信頼度算出手段が求めた信頼度が予め定めた閾値未満である場合には、前記第2全体角度検知手段が求めた角度を画像全体の傾き角度とすること
を特徴とする請求項または請求項10に記載の画像処理装置。
When the reliability obtained by the first reliability calculation means is equal to or greater than a predetermined threshold, the overall angle determination means sets the angle obtained by the first overall angle detection means as the inclination angle of the entire image, The angle obtained by the second overall angle detection means is set as the inclination angle of the whole image when the reliability obtained by the first reliability calculation means is less than a predetermined threshold value. The image processing apparatus according to claim 9 or 10 .
前記全体角度決定手段は、前記第2信頼度算出手段が求めた信頼度が予め定めた閾値以上である場合には、前記第2全体角度検知手段が求めた角度を画像全体の傾き角度とし、前記第2信頼度算出手段が求めた信頼度が予め定めた閾値未満である場合には、前記第1全体角度検知手段が求めた角度を画像全体の傾き角度とすること
を特徴とする請求項または請求項10に記載の画像処理装置。
When the reliability determined by the second reliability calculation means is equal to or greater than a predetermined threshold, the overall angle determination means sets the angle determined by the second global angle detection means as the inclination angle of the entire image, The angle obtained by the first overall angle detection means is used as the inclination angle of the whole image when the reliability obtained by the second reliability calculation means is less than a predetermined threshold value. The image processing apparatus according to claim 9 or 10 .
コンピュータを、
画像データを記憶する記憶手段と、
前記記憶手段に記憶されている画像データを2値化し、2値画像データを生成する2値化手段と、
前記2値化手段により生成された2値画像データが示す画像を複数の領域に分割し、分割した画像を示す分割2値画像データを生成する領域分割手段と、
前記分割2値画像データに対してハフ変換を行い、ハフ変換により得られた極座標上の座標の頻度を表すヒストグラムデータを、分割された画像領域毎に生成するハフ変換手段と、
前記ハフ変換手段が生成したヒストグラムデータ毎に、極座標上の各角度における頻度の密集度を表す投影ヒストグラムデータを生成する頻度演算手段と、
前記頻度演算手段が生成した投影ヒストグラムデータを加算し、全体ヒストグラムデータを生成する全体頻度演算手段と、
前記全体頻度演算手段によって生成された全体ヒストグラムデータに基づき画像データが示す画像の傾き角度を検知する全体角度検知手段と、
前記記憶手段に記憶されている画像データが示す画像を、前記全体角度検知手段が求めた傾き角度に従って回転させる画像回転手段
として機能させるためのプログラム。
Computer
Storage means for storing image data;
Binarization means for binarizing the image data stored in the storage means to generate binary image data;
Area dividing means for dividing the image indicated by the binary image data generated by the binarizing means into a plurality of areas, and generating divided binary image data indicating the divided images;
A Hough transform unit that performs Hough transform on the divided binary image data, and generates histogram data representing the frequency of coordinates on polar coordinates obtained by the Hough transform for each divided image region;
For each histogram data generated by the Hough transform means, a frequency calculation means for generating projection histogram data representing the frequency density at each angle on polar coordinates;
Adding the projection histogram data generated by the frequency calculation means to generate overall histogram data; and
An overall angle detection means for detecting an inclination angle of the image indicated by the image data based on the overall histogram data generated by the overall frequency calculation means;
A program for causing an image indicated by image data stored in the storage means to function as an image rotating means for rotating the image according to the inclination angle obtained by the overall angle detecting means.
コンピュータを、
画像データを記憶する記憶手段と、
前記記憶手段に記憶された画像データが示す画像を複数の領域に分割し、分割した画像を示す分割画像データを生成する領域分割手段と、
前記領域分割手段により生成された分割画像データを2値化し、分割2値画像データを生成する2値化手段と、
前記分割2値画像データに対してハフ変換を行い、ハフ変換により得られた極座標上の座標の頻度を表すヒストグラムデータを、分割された画像領域毎に生成するハフ変換手段と、
前記ハフ変換手段が生成したヒストグラムデータ毎に、極座標上の各角度における頻度の密集度を表す投影ヒストグラムデータを生成する頻度演算手段と、
前記頻度演算手段が生成した投影ヒストグラムデータを加算し、全体ヒストグラムデータを生成する全体頻度演算手段と、
前記全体頻度演算手段によって生成された全体ヒストグラムデータに基づき画像データが表す画像の傾き角度を検知する全体角度検知手段と、
前記記憶手段に記憶されている画像データが示す画像を、前記全体角度検知手段が求めた傾き角度に従って回転させる画像回転手段
として機能させるためのプログラム。
Computer
Storage means for storing image data;
Area dividing means for dividing the image indicated by the image data stored in the storage means into a plurality of areas, and generating divided image data indicating the divided images;
Binarization means for binarizing the divided image data generated by the area dividing means to generate divided binary image data;
A Hough transform unit that performs Hough transform on the divided binary image data, and generates histogram data representing the frequency of coordinates on polar coordinates obtained by the Hough transform for each divided image region;
For each histogram data generated by the Hough transform means, a frequency calculation means for generating projection histogram data representing the frequency density at each angle on polar coordinates;
Adding the projection histogram data generated by the frequency calculation means to generate overall histogram data; and
An overall angle detection means for detecting an inclination angle of an image represented by image data based on the overall histogram data generated by the overall frequency calculation means;
A program for causing an image indicated by image data stored in the storage means to function as an image rotating means for rotating the image according to the inclination angle obtained by the overall angle detecting means.
請求項15または請求項16に記載のプログラムを記録したコンピュータ読み取り可能な記録媒体。 The computer-readable recording medium which recorded the program of Claim 15 or Claim 16 .
JP2003425540A 2003-12-22 2003-12-22 Image processing apparatus, program, and recording medium Expired - Fee Related JP4140519B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003425540A JP4140519B2 (en) 2003-12-22 2003-12-22 Image processing apparatus, program, and recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003425540A JP4140519B2 (en) 2003-12-22 2003-12-22 Image processing apparatus, program, and recording medium

Publications (2)

Publication Number Publication Date
JP2005184685A JP2005184685A (en) 2005-07-07
JP4140519B2 true JP4140519B2 (en) 2008-08-27

Family

ID=34785395

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003425540A Expired - Fee Related JP4140519B2 (en) 2003-12-22 2003-12-22 Image processing apparatus, program, and recording medium

Country Status (1)

Country Link
JP (1) JP4140519B2 (en)

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007306500A (en) * 2006-05-15 2007-11-22 Sanyo Electric Co Ltd Image inclination correction device and image inclination correction method
WO2007142227A1 (en) * 2006-06-07 2007-12-13 Nec Corporation Image direction judging device, image direction judging method and image direction judging program
JP4565396B2 (en) * 2006-06-29 2010-10-20 富士ゼロックス株式会社 Image processing apparatus and image processing program
JP4588000B2 (en) * 2006-09-04 2010-11-24 三星デジタルイメージング株式会社 Imaging apparatus and imaging method
WO2009001512A1 (en) 2007-06-27 2008-12-31 Panasonic Corporation Imaging apparatus, method, system integrated circuit, and program
US8417059B2 (en) 2007-06-28 2013-04-09 Panasonic Corporation Image processing device, image processing method, and program
JP5489894B2 (en) * 2010-07-12 2014-05-14 富士ゼロックス株式会社 Image processing apparatus and image processing program
JP6160140B2 (en) * 2013-03-13 2017-07-12 株式会社リコー Image processing apparatus, image processing system, and program
JP6221430B2 (en) * 2013-07-08 2017-11-01 富士ゼロックス株式会社 Inclination angle detection apparatus, image reading apparatus, image forming apparatus, and program
JP2015197851A (en) * 2014-04-02 2015-11-09 大成建設株式会社 Image processor, program for image processing and information management system
JP7259635B2 (en) * 2019-08-16 2023-04-18 コニカミノルタ株式会社 Image reading device, image forming device and program

Also Published As

Publication number Publication date
JP2005184685A (en) 2005-07-07

Similar Documents

Publication Publication Date Title
JP4568460B2 (en) Image processing apparatus and recording medium
US9734439B2 (en) Image processing apparatus and method thereof
US8331670B2 (en) Method of detection document alteration by comparing characters using shape features of characters
JP2006203703A (en) Image processor, image forming apparatus, image reader, image processing method, image processing program, and computer readable recording medium
EP0708415B1 (en) Four-quadrant scaling of dot matrix data
JP4140519B2 (en) Image processing apparatus, program, and recording medium
JP4764903B2 (en) Method and image processing apparatus for detecting line structure from text map
JP4405663B2 (en) Image processing method and apparatus
EP1734737B1 (en) Image processing method and a recording medium storing image processing program
EP2782065A1 (en) Image-processing device removing encircling lines for identifying sub-regions of image
JP4386216B2 (en) Color printing system and control method thereof
US7151859B2 (en) Method and system for correcting direction or orientation of document image
JP6249240B2 (en) Image processing device
JP5003445B2 (en) Image processing apparatus, character area specifying method, and character area specifying program
US6661921B2 (en) Image process apparatus, image process method and storage medium
JP2009070061A (en) Two-dimensional code reading device, two-dimensional code reading method, two-dimensional code reading program and recording medium
JP2010119006A (en) Image processing apparatus,and image processing method
JP2000022943A (en) Device and method for discriminating image area, and recording medium recorded with image area discriminating program
US7805000B2 (en) Image processing for binarization of image data
JP2009105541A (en) Image processing apparatus, method and program
JP4217302B2 (en) Image processing apparatus and image processing method
JP2014120832A (en) Image processing apparatus and image processing program
JP6025803B2 (en) Image processing device
JP3966448B2 (en) Image processing apparatus, image processing method, program for executing the method, and recording medium storing the program
JPH11136505A (en) Picture processor and picture processing method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20061127

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20080212

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080219

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080415

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20080520

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20080602

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110620

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110620

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120620

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130620

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140620

Year of fee payment: 6

LAPS Cancellation because of no payment of annual fees