JP2005275950A - Image processor, image processing method, program, and storage medium - Google Patents

Image processor, image processing method, program, and storage medium Download PDF

Info

Publication number
JP2005275950A
JP2005275950A JP2004090062A JP2004090062A JP2005275950A JP 2005275950 A JP2005275950 A JP 2005275950A JP 2004090062 A JP2004090062 A JP 2004090062A JP 2004090062 A JP2004090062 A JP 2004090062A JP 2005275950 A JP2005275950 A JP 2005275950A
Authority
JP
Japan
Prior art keywords
partial image
projection
image region
image processing
character
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2004090062A
Other languages
Japanese (ja)
Other versions
JP4434802B2 (en
Inventor
Hiroaki Ikeda
裕章 池田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2004090062A priority Critical patent/JP4434802B2/en
Publication of JP2005275950A publication Critical patent/JP2005275950A/en
Application granted granted Critical
Publication of JP4434802B2 publication Critical patent/JP4434802B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Images

Landscapes

  • Character Input (AREA)
  • Image Analysis (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an image processor, image processing method, program and storage medium suitably calculating the inclination of an input image even when characters of a larger size than that of a window for detecting projection exists, or a document image whose character's density is low, and whose character lines do not uniformly exist in a document is input. <P>SOLUTION: The projection of character lines is detected by setting two partial image regions for a document image, and the inclination of the document image is decided on the basis of the projection. At that time, the first partial image region is changed on the basis of the projection, and the second partial image region is set on the basis of the changed first partial image region. Then, the projection of the character lines is detected from the first and second partial image regions, and the inclination of the document image is decided on the basis of the projection. <P>COPYRIGHT: (C)2006,JPO&NCIPI

Description

本発明は、文書画像等の傾きを自動的に検出して補正する画像処理装置、画像処理方法、プログラム及び記憶媒体に関する。   The present invention relates to an image processing apparatus, an image processing method, a program, and a storage medium that automatically detect and correct a tilt of a document image or the like.

スキャナ等から読み取った文書画像の傾きを自動的に補正することで、領域分割や文字認識等の文書画像解析処理の精度を向上させることができる。例えば、文書方向を自動的に検知し、その行方向に沿って配置された2つの探索用の窓において行方向の射影をそれぞれ求め、一方の窓を固定し、他方の窓を行方向と垂直方向にずらしながら、射影の相関が最大となる時の2つの窓の垂直方向のずれ量と行方向の距離から文書画像の傾き量を求める技術が開示されている(例えば、特許文献1参照。)。   By automatically correcting the inclination of the document image read from the scanner or the like, it is possible to improve the accuracy of document image analysis processing such as area division and character recognition. For example, the document direction is automatically detected, the projections in the row direction are obtained in two search windows arranged along the row direction, one window is fixed, and the other window is perpendicular to the row direction. A technique is disclosed in which the tilt amount of a document image is obtained from the amount of shift in the vertical direction of two windows and the distance in the row direction when the correlation between projections is maximized while shifting in the direction (see, for example, Patent Document 1). ).

特許文献1に記載の発明によれば、射影は窓の内部にある文字行の存在位置を示すものであり、相関が最大となる場合とは行の位置が一致した状態である。そして、文字行の傾きから文書画像の傾きを決定することができる。   According to the invention described in Patent Document 1, the projection indicates the position of the character line in the window, and the case where the correlation is maximized is the state where the line position matches. Then, the inclination of the document image can be determined from the inclination of the character line.

また、窓の組を文書画像全体に行き渡るように複数組を設定し、複数箇所から得られた傾きの大きさを使用して文書画像としての傾きを求めている。このように、特許文献1に記載の発明によれば、文字画像上の設定した窓における行方向の射影を用いることにより、速い処理速度で、かつ、記憶領域が少なくて済むような文字画像の傾き検出方法が開示されている。
特開平9−6914号公報
Further, a plurality of sets are set so that the set of windows extends over the entire document image, and the inclination as the document image is obtained using the magnitude of the inclination obtained from the plurality of positions. As described above, according to the invention described in Patent Document 1, by using the projection in the row direction in the set window on the character image, the character image can be processed at a high processing speed and with a small storage area. A tilt detection method is disclosed.
Japanese Patent Laid-Open No. 9-6914

しかしながら、上記特許文献1に記載の発明では、設定された窓において文字の行方向の射影が十分に抽出できないような場合、傾きの抽出精度が落ちてしまうという欠点があった。例えば、窓の大きさに比べて文字の大きさが大きい場合や、文字行が文書内に一様に存在せず、行の一部のみ掛かっている窓が多く存在する場合等には、傾きの抽出精度が低くなってしまう。   However, the invention described in the above-mentioned Patent Document 1 has a drawback in that the inclination extraction accuracy is lowered when the projection in the line direction of the characters cannot be sufficiently extracted in the set window. For example, if the size of the character is larger than the size of the window, or if the text line is not uniformly present in the document and there are many windows that cover only part of the line, etc. The extraction accuracy of is reduced.

本発明は、このような事情を考慮してなされたものであり、射影を検出する窓内に比して大きなサイズの文字が存在したり、文字の密度が低く、文字行が文書内に一様に存在しないような文書画像が入力された場合であっても当該入力画像の傾きを好適に求めることができる画像処理装置、画像処理方法、プログラム及び記憶媒体を提供することを目的とする。   The present invention has been made in consideration of such circumstances, and there are characters of a size larger than that in the window for detecting projections, the character density is low, and character lines are not contained in the document. An object of the present invention is to provide an image processing apparatus, an image processing method, a program, and a storage medium that can suitably determine the inclination of the input image even when a document image that does not exist is input.

上記課題を解決するために、本発明は、
入力された文書画像に対して2つの部分画像領域を設定する設定手段と、該2つの部分画像領域のそれぞれから文字行の射影を検出する検出手段と、検出された射影に基づいて前記文書画像の傾きを決定する決定手段とを備える画像処理装置であって、
第1の部分画像領域から検出された射影に基づいて該第1の部分画像領域を変更する変更手段をさらに備え、
前記設定手段が、前記変更手段によって変更された前記第1の部分画像領域に基づいて第2の部分画像領域を設定し、
前記検出手段が、前記第1の部分画像領域と前記第2の部分画像領域のそれぞれから文字行の射影を検出する
ことを特徴とする。
また、本発明に係る画像処理方法は、
文書画像に対して第1の部分画像領域を設定する第1の設定工程と、
前記第1の部分画像領域から文字行の射影を検出する第1の検出工程と、
前記第1の部分画像領域から検出された射影に基づいて該第1の部分画像領域を変更する変更工程と、
前記変更工程によって変更された前記第1の部分画像領域に基づいて前記文書画像に対して第2の部分画像領域を設定する第2の設定工程と、
前記第1の部分画像領域と前記第2の部分画像領域のそれぞれから文字行の射影を検出する検出工程と、
検出された射影に基づいて前記文書画像の傾きを決定する決定工程と
を有することを特徴とする。
In order to solve the above problems, the present invention provides:
Setting means for setting two partial image areas for the input document image, detection means for detecting projection of a character line from each of the two partial image areas, and the document image based on the detected projection An image processing apparatus comprising a determining means for determining the inclination of
Changing means for changing the first partial image area based on the projection detected from the first partial image area;
The setting means sets a second partial image area based on the first partial image area changed by the changing means;
The detecting means detects a projection of a character line from each of the first partial image region and the second partial image region.
The image processing method according to the present invention includes:
A first setting step of setting a first partial image region for the document image;
A first detection step of detecting a projection of a character line from the first partial image region;
A changing step of changing the first partial image area based on the projection detected from the first partial image area;
A second setting step of setting a second partial image region for the document image based on the first partial image region changed by the changing step;
A detection step of detecting a projection of a character line from each of the first partial image region and the second partial image region;
And a determining step for determining the inclination of the document image based on the detected projection.

さらに、本発明は、上記画像処理方法をコンピュータによって実行させるためのプログラムであることを特徴とする。   Furthermore, the present invention is a program for causing a computer to execute the image processing method.

さらにまた、本発明は、上記プログラムを格納したコンピュータ読み取り可能な記憶媒体であることを特徴とする。   Furthermore, the present invention is a computer-readable storage medium storing the above program.

本発明によれば、射影を検出する窓内に比して大きなサイズの文字が存在したり、文字の密度が低く、文字行が文書内に一様に存在しないような文書画像が入力された場合であっても当該入力画像の傾きを好適に求めることができる。   According to the present invention, a document image in which characters having a size larger than that in a window for detecting projections or a character density is low and character lines are not uniformly present in the document is input. Even in this case, the inclination of the input image can be obtained suitably.

以下、図面を参照して、本発明の一実施形態について説明する。   Hereinafter, an embodiment of the present invention will be described with reference to the drawings.

<第1の実施形態>
図1は、本発明の第1の実施形態に係る画像処理装置の構成を示すブロック図である。図1において、101は、ROM102に格納されている制御プログラムに従って本画像処理装置全体の制御を行うCPUである。また、102は、後述するフローチャートに示す処理手順に従ってCPU101が実行する本画像処理装置の制御プログラム等を格納するROMである。さらに、103は、文書画像等を記憶するRAM、104は磁気ディスク等の外部記憶装置である。さらにまた、105はディスプレイ、106はキーボード、107はマウス等のポインティングデバイス、108は紙原稿等から画像を読み取るためのスキャナである。
<First Embodiment>
FIG. 1 is a block diagram showing a configuration of an image processing apparatus according to the first embodiment of the present invention. In FIG. 1, reference numeral 101 denotes a CPU that controls the entire image processing apparatus according to a control program stored in the ROM 102. Reference numeral 102 denotes a ROM that stores a control program of the image processing apparatus executed by the CPU 101 in accordance with a processing procedure shown in a flowchart to be described later. Reference numeral 103 denotes a RAM for storing document images and the like, and 104 denotes an external storage device such as a magnetic disk. Furthermore, 105 is a display, 106 is a keyboard, 107 is a pointing device such as a mouse, and 108 is a scanner for reading an image from a paper document or the like.

さらにまた、上述したCPU101、ROM102、RAM103、外部記憶装置104、ディスプレイ105、スキャナ108は互いにバス110を介して接続されている。   Furthermore, the CPU 101, ROM 102, RAM 103, external storage device 104, display 105, and scanner 108 described above are connected to each other via a bus 110.

尚、上記本実施形態に係る画像処理装置が行う画像処理は、汎用的なコンピュータでも実施可能であり、その場合、記憶媒体等で提供される制御プログラムを外部記憶装置104に記憶させ、オペレータの指示等によりCPU101で実行するように構成してもよい。また、109はネットワークインタフェース(I/F)であり、遠隔地等に存在する情報処理装置等と通信し、プログラムやデータ等を読み込んだり、書き込んだりするためのインタフェースであって、バス110に接続されている。   Note that the image processing performed by the image processing apparatus according to the present embodiment can also be performed by a general-purpose computer. In this case, a control program provided on a storage medium or the like is stored in the external storage device 104 and the operator's It may be configured to be executed by the CPU 101 according to an instruction or the like. Reference numeral 109 denotes a network interface (I / F) that communicates with an information processing apparatus or the like that exists in a remote place, and that reads and writes programs and data, and is connected to the bus 110. Has been.

尚、スキャナ108やディスプレイ105等の装置はバス110に直接接続される構成ではなく、ネットワークI/F109を介して接続されるような構成であってもよい。   The devices such as the scanner 108 and the display 105 may not be directly connected to the bus 110 but may be connected via the network I / F 109.

また、本画像処理装置で処理される画像は、スキャナ108で紙原稿等から光学的に読み取られたもの、或いは外部記憶装置104に保存されているもの、或いは、他の画像入力装置等からネットワークI/F109を介して受信されたもの等を使用することができる。また、そのようにして得られた画像に対して、本実施形態では、公知の技術を用いて、傾きを検出するための検査領域及び検査領域内の文書方向が決定される。例えば、検査領域は、入力画像の余白を除去して決定したり、或いは、文書のレイアウト情報からテキスト領域を抽出して決定したりすることができる。   The image processed by the image processing apparatus is an image optically read from a paper document or the like by the scanner 108, an image stored in the external storage device 104, or a network from another image input device or the like. What was received via I / F109 can be used. Further, in the present embodiment, the inspection area for detecting the tilt and the document direction in the inspection area are determined for the image obtained in this manner using a known technique. For example, the inspection area can be determined by removing margins of the input image, or can be determined by extracting a text area from document layout information.

図2は、第1の実施形態に係る画像処理装置による検査領域内から入力画像の傾き量を検出するための処理手順を説明するためのフローチャートである。まず、公知の技術を用いて決定された入力画像内の検査領域に対して、当該検査領域内に存在する文字行等の局所的傾きを検知するための検知位置を決定する(ステップS201)。例えば、検知位置は、検査領域全体に等間隔に分布させたり、乱数を用いて全体にばらつくようにする。   FIG. 2 is a flowchart for explaining a processing procedure for detecting the tilt amount of the input image from within the inspection region by the image processing apparatus according to the first embodiment. First, a detection position for detecting a local inclination of a character line or the like existing in the inspection area is determined for the inspection area in the input image determined using a known technique (step S201). For example, the detection positions are distributed at equal intervals over the entire inspection region, or are varied using random numbers.

次に、ステップS201で決定した検知位置に、あらかじめ大きさの決まった検知窓を設定する(ステップS202)。尚、本実施形態では、一例として、矩形状の部分画像領域を検知窓として使用する。設定される検知窓は、文書方向に応じて向きが決められる。   Next, a detection window having a predetermined size is set at the detection position determined in step S201 (step S202). In this embodiment, as an example, a rectangular partial image region is used as a detection window. The direction of the detection window to be set is determined according to the document direction.

そして、検査領域内に設定された検知窓内の行方向の射影を取得する(ステップS203)。ここで、射影とは、各画素を行方向にスキャンし、黒画素(文字部分を構成する画素)が存在すればその行は射影ありと判断するものである。その結果、検知窓内に存在する文字行の高さが射影として得られる。そして、得られた射影から、検知窓内に存在する文字サイズを推定する(ステップS204)。   Then, the projection in the row direction within the detection window set in the inspection area is acquired (step S203). Here, the projection means that each pixel is scanned in the row direction, and if there is a black pixel (a pixel constituting the character portion), it is determined that the row is projected. As a result, the height of the character line existing in the detection window is obtained as a projection. And the character size which exists in a detection window is estimated from the obtained projection (step S204).

図4は、検知窓内の射影から文字サイズを推定する方法及び検知窓の大きさを変更する方法を説明するための図である。図4において、401はステップS202で検査領域内に設定された検知窓の初期状態を示している。ここで、検知窓の初期状態401の射影は、行を完全に含んでいないために上端で切れてしまう。そこで、検知窓を射影がなくなる位置まで伸ばすことによって、行の高さ分の射影が確実に得られるようになる。例えば、文字行が完全に含まれるようにするため、射影のない画素行が見つかった場合、その位置からさらに予め定めている画素数分だけ検知窓をその方向に伸ばすようにする(例えば、図4においては上方に伸ばす)。尚、射影が下端で切れた場合は、検知窓を下に伸ばすようにする。   FIG. 4 is a diagram for explaining a method for estimating the character size from the projection in the detection window and a method for changing the size of the detection window. In FIG. 4, 401 indicates the initial state of the detection window set in the inspection area in step S202. Here, the projection in the initial state 401 of the detection window is cut off at the upper end because it does not completely include the line. Therefore, by extending the detection window to a position where the projection disappears, a projection corresponding to the height of the row can be obtained with certainty. For example, in order to ensure that a character line is completely included, when a pixel line without projection is found, the detection window is further extended in that direction by a predetermined number of pixels from that position (for example, FIG. 4 is extended upward). When the projection is cut at the lower end, the detection window is extended downward.

そして、射影から得られる文字行の高さから文字サイズを推定することができるため、推定文字サイズに応じて検知窓の大きさを変更する(ステップS205)。図4では、検知窓の初期状態401から402で示す検知窓に高さ及び幅が変更されたことを示している。このように、検知窓のサイズについては、推定した文字サイズにより高さ及び幅を決定するが、この際に入力された文書画像の傾きを求めるために検知窓401と対になるもう一つの検知窓403に対する傾きを考慮して、文字行が十分に入るような大きさにすることが重要である。   Since the character size can be estimated from the height of the character line obtained from the projection, the size of the detection window is changed according to the estimated character size (step S205). FIG. 4 shows that the height and width of the detection window are changed from the initial state 401 to 402 of the detection window. As described above, the height and width of the detection window are determined based on the estimated character size, and another detection that is paired with the detection window 401 to obtain the inclination of the input document image at this time. In consideration of the inclination with respect to the window 403, it is important that the size of the character line is sufficient.

そして、ステップ205で検知窓401の大きさを検知窓402に変更した後、行方向に予め設定された距離だけ離れた位置に、検知窓402と対になる検知窓403を設定する(ステップS206)。次いで、一方の検知窓(例えば、検知窓402)を固定し、もう一方の検知窓(例えば、検知窓403)を行方向と垂直方向にずらしていき、両者の射影の相関を得る。そして、相関が最大となるずれ量を求める(ステップS207)。その結果、最大相関時のずれ量と2つの検知窓の間隔から局所的傾き角を求める(ステップS208)。そして、求めた角度を記憶する(ステップS209)。   Then, after the size of the detection window 401 is changed to the detection window 402 in step 205, a detection window 403 that is paired with the detection window 402 is set at a position separated by a preset distance in the row direction (step S206). ). Next, one detection window (for example, detection window 402) is fixed, and the other detection window (for example, detection window 403) is shifted in the row direction and the vertical direction to obtain a correlation between the projections of the two. Then, a deviation amount that maximizes the correlation is obtained (step S207). As a result, the local inclination angle is obtained from the amount of deviation at the time of the maximum correlation and the interval between the two detection windows (step S208). Then, the obtained angle is stored (step S209).

図6は、第1の実施形態に係る画像処理装置における検知窓の射影の相関を説明するための図である。図6(a)において、601aは設定された1つ目の検知窓、602aは検知窓601a内の射影である。同様に、601bは検知窓601aの対として設定された2つ目の検知窓、602bは検知窓601b内の射影である。また、図6(b)は、固定した検知窓607に対して、上下にずらす検知窓604とその相関の大きさをグラフ605に示したものである。ここで、相関が最大の時のずれ量tと、検知窓の距離dとを用いて、傾斜角θは、tanθ=t/dの関係になる。尚、tの上へのずれを正、下へのずれを負とすると、符号でどちらに傾いているかを判別することができる。   FIG. 6 is a diagram for explaining the correlation of the projection of the detection window in the image processing apparatus according to the first embodiment. In FIG. 6A, 601a is a set first detection window, and 602a is a projection in the detection window 601a. Similarly, 601b is a second detection window set as a pair of detection windows 601a, and 602b is a projection in the detection window 601b. FIG. 6B is a graph 605 showing the detection window 604 shifted up and down with respect to the fixed detection window 607 and the magnitude of the correlation. Here, the inclination angle θ has a relationship of tan θ = t / d using the shift amount t when the correlation is maximum and the distance d of the detection window. Note that if the shift upward to t is positive and the shift downward is negative, it is possible to determine which is inclined by the sign.

そして、全ての検知位置での傾斜角を求めたか否かを判定する(ステップS210)。その結果、まだ傾斜角を求めていない検出位置が残っている場合(No)はステップS201に再び戻って、次の検出位置について上述したステップS201〜S209の処理を繰り返す。一方、全て検出された場合(Yes)は、記憶された局所的傾斜角から入力画像の傾き角度を決定する(ステップS211)。例えば、全ての傾斜角の平均値や中央値等を用いることによって、それらを決定することができる。   Then, it is determined whether or not the inclination angles at all the detection positions have been obtained (step S210). As a result, when the detection position for which the inclination angle has not yet been obtained remains (No), the process returns to step S201 again, and the processes of steps S201 to S209 described above are repeated for the next detection position. On the other hand, when all are detected (Yes), the inclination angle of the input image is determined from the stored local inclination angle (step S211). For example, they can be determined by using the average value or median value of all inclination angles.

尚、ステップS203からステップS208の間の処理において、傾斜角を得ることができなくなった場合、例えば、適切な射影が得られなかったり、相関が不十分だったりした場合は、その検知窓での局所的傾斜角は求めないで、次の検知位置を使用するようにすればよい。また、ステップS211で記憶された局所的傾斜角が少ない場合は、精度が期待できないとし、入力画像の傾き角度が求まらなかったと判断するようにしてもよい。   In the process from step S203 to step S208, if the tilt angle cannot be obtained, for example, if an appropriate projection is not obtained or the correlation is insufficient, the detection window The local detection angle is not obtained, and the next detection position may be used. If the local tilt angle stored in step S211 is small, it may be determined that the accuracy cannot be expected and the tilt angle of the input image has not been obtained.

以上説明したように、本実施形態に係る画像処理装置による画像処理によって、文字サイズが未知の文書画像が入力された場合であっても、設定された検知窓内の射影から文字サイズを推定することができるので、例えば、複数の文字サイズが含まれた文書画像であっても入力画像の傾きを高精度で求めることができる。   As described above, even if a document image with an unknown character size is input by image processing by the image processing apparatus according to the present embodiment, the character size is estimated from the projection within the set detection window. Therefore, for example, the inclination of the input image can be obtained with high accuracy even for a document image including a plurality of character sizes.

尚、上記実施形態では、本発明の技術的思想を実施するための最低限の構成要件で説明を行っているが、例えば汎用コンピュータに対して、本発明を実施する処理を行う画像処理プログラム等のデータを外部から提供し、或いは、あらかじめ外部記憶装置107に記憶しておき、RAM103に格納するように構成されてもよい。また、あらかじめ外部記憶装置107に記憶した入力画像を処理するように構成されてもよい。   In the above embodiment, the description is given with the minimum configuration requirements for carrying out the technical idea of the present invention. However, for example, an image processing program for performing processing for implementing the present invention on a general-purpose computer, etc. The data may be provided from the outside, or may be stored in advance in the external storage device 107 and stored in the RAM 103. Further, an input image stored in advance in the external storage device 107 may be processed.

<第2の実施形態>
次に、図1に示す画像処理装置と同様の画像処理装置が実行する別の実施形態について説明する。図3は、第2の実施形態に係る画像処理装置による検査領域内から入力画像の傾き量を検出するための処理手順を説明するためのフローチャートである。
<Second Embodiment>
Next, another embodiment executed by an image processing apparatus similar to the image processing apparatus shown in FIG. 1 will be described. FIG. 3 is a flowchart for explaining a processing procedure for detecting the tilt amount of the input image from within the inspection region by the image processing apparatus according to the second embodiment.

まず、公知の技術を用いて決定された入力画像内の検査領域に対して、第1の実施形態と同様に、当該検査領域内に存在する文字行等の局所的傾きを検知するための検知位置を決定する(ステップS301)。例えば、検知位置は、検査領域全体に等間隔に分布させたり、乱数を用いて全体にばらつくようにする。   First, detection for detecting a local inclination of a character line or the like existing in an inspection area in an input image determined using a known technique, as in the first embodiment. The position is determined (step S301). For example, the detection positions are distributed at equal intervals over the entire inspection region, or are varied using random numbers.

次に、ステップS301で決定した検知位置に、あらかじめ大きさの決まった検知窓を設定する(ステップS302)。尚、本実施形態では、一例として、矩形状の部分画像領域を検知窓として使用する。そして、第1の実施形態と同様に、検知窓内の行方向の射影を取得する(ステップS303)。その結果、本実施形態では、得られた射影から検知窓の位置をずらし、最も文字行が検知窓内に入るように検知窓の位置を変更する(ステップS304)。   Next, a detection window having a predetermined size is set at the detection position determined in step S301 (step S302). In this embodiment, as an example, a rectangular partial image region is used as a detection window. Then, similarly to the first embodiment, the projection in the row direction in the detection window is acquired (step S303). As a result, in the present embodiment, the position of the detection window is shifted from the obtained projection, and the position of the detection window is changed so that the character line is within the detection window (step S304).

図5は、第2の実施形態における検知窓の位置の変更方法について説明するための図である。図5において、501は、ステップS302で設定された検知窓の初期状態である。検知窓501内には、完全な文字行の射影が1行分のみ存在し、検知窓上部は完全な文字行の射影ではない。すなわち、検知窓下部に射影がなく、上部が不完全であるため、ステップS304において、検知窓の位置を変更して上方にずらし、できるだけ多くの文字行射影が検知窓に含まれるようにする。その結果、図5に示すように、ずらした検知窓502に文字行射影が2行分含まれるようになる。   FIG. 5 is a diagram for explaining a method of changing the position of the detection window in the second embodiment. In FIG. 5, reference numeral 501 denotes the initial state of the detection window set in step S302. In the detection window 501, there is only one projection of a complete character line, and the upper portion of the detection window is not a projection of a complete character line. That is, since there is no projection at the lower part of the detection window and the upper part is incomplete, the position of the detection window is changed and shifted upward in step S304 so that as many character line projections as possible are included in the detection window. As a result, as shown in FIG. 5, two lines of character line projections are included in the shifted detection window 502.

そして、ステップ304で検知窓501の位置を検知窓502に変更した後、行方向に予め設定された距離だけ離れた位置に、検知窓502と対になる検知窓503を設定する(ステップS305)。次いで、一方の検知窓(例えば、検知窓502)を固定し、もう一方の検知窓(例えば、検知窓503)を行方向と垂直方向にずらしていき、第1の実施形態と同様に両者の射影の相関を得る。そして、相関が最大となるずれ量を求める(ステップS306)。その結果、最大相関時のずれ量と2つの検知窓の間隔から局所的傾き角を求める(ステップS307)。そして、求めた角度を記憶する(ステップS308)。   Then, after the position of the detection window 501 is changed to the detection window 502 in step 304, the detection window 503 that is paired with the detection window 502 is set at a position that is a predetermined distance in the row direction (step S305). . Next, one detection window (for example, detection window 502) is fixed, and the other detection window (for example, detection window 503) is shifted in the row direction and the vertical direction. Get the correlation of the projection. Then, a deviation amount that maximizes the correlation is obtained (step S306). As a result, a local inclination angle is obtained from the amount of deviation at the time of the maximum correlation and the interval between the two detection windows (step S307). Then, the obtained angle is stored (step S308).

そして、全ての検知位置での傾斜角を求めたか否かを判定する(ステップS309)。その結果、まだ傾斜角を求めていない検出位置が残っている場合(No)はステップS301に再び戻って、次の検出位置について上述したステップS301〜S308の処理を繰り返す。一方、全て検出された場合(Yes)は、記憶された局所的傾斜角から入力画像の傾き角度を決定する(ステップS310)。例えば、全ての傾斜角の平均値や中央値等を用いることによって、それらを決定することができる。   Then, it is determined whether or not the inclination angles at all detection positions have been obtained (step S309). As a result, when there remains a detection position for which the inclination angle has not yet been obtained (No), the process returns to step S301 again, and the processes of steps S301 to S308 described above are repeated for the next detection position. On the other hand, when all are detected (Yes), the inclination angle of the input image is determined from the stored local inclination angle (step S310). For example, they can be determined by using the average value or median value of all inclination angles.

以上説明したように、第2の実施形態に係る画像処理装置によれば、射影を抽出する位置を適切な位置に修正するため、傾き角度の抽出が効率よく実行でき、同時に精度を高めることができるという効果が得られる。   As described above, according to the image processing apparatus according to the second embodiment, the position where the projection is extracted is corrected to an appropriate position. Therefore, the inclination angle can be extracted efficiently and at the same time the accuracy can be improved. The effect that it can be obtained.

<第3の実施形態>
上述した第1の実施形態で説明した検知窓の大きさの変更と、第2の実施形態で説明した検知窓の位置の変更の両方を行ってもよい。その場合、検知窓は、より入力画像の状況に適した位置と大きさになり、対になる検知窓の射影抽出で無駄な部分の抽出を行わなくて済むとともに、その検知窓の対から傾斜角を得ることができる可能性が高くなる効果がある。また、ユーザの指示により、第1の実施形態に基づいた画像処理か、第2の実施形態に基づいた画像処理を選択的に実行することができるようにしてもよい。尚、第3の実施形態に係る画像処理装置の構成も第1及び第2の実施形態で説明した図1に示す画像処理装置と同様である。ここで、図7は、第3の実施形態に係る画像処理装置で読み出し可能な各種データ処理プログラムを格納する記憶媒体のメモリマップの一例を説明するための図である。
<Third Embodiment>
You may perform both the change of the magnitude | size of the detection window demonstrated in 1st Embodiment mentioned above, and the change of the position of the detection window demonstrated in 2nd Embodiment. In that case, the detection window becomes a position and size more suitable for the situation of the input image, and it is not necessary to extract a useless part by projective extraction of the pair of detection windows, and the detection window is inclined from the pair of detection windows. There is an effect of increasing the possibility of obtaining a corner. Further, the image processing based on the first embodiment or the image processing based on the second embodiment may be selectively executed according to a user instruction. The configuration of the image processing apparatus according to the third embodiment is the same as that of the image processing apparatus shown in FIG. 1 described in the first and second embodiments. Here, FIG. 7 is a diagram for explaining an example of a memory map of a storage medium that stores various data processing programs that can be read out by the image processing apparatus according to the third embodiment.

また、本実施形態の説明では、検知窓の一方で大きさや位置を決定したが、対となるもう一方の検知窓を使用して決定してもよい。対となる検知窓は、得られた傾斜角により再度設定し、傾斜角の抽出を再度実施するように構成してもよい。   In the description of the present embodiment, the size and the position of one of the detection windows are determined, but may be determined using the other detection window that is a pair. The paired detection windows may be set again according to the obtained tilt angle, and the tilt angle may be extracted again.

<その他の実施形態>
以上、実施形態例を詳述したが、本発明は、例えば、システム、装置、方法、プログラム若しくは記憶媒体等としての実施態様をとることが可能であり、具体的には、複数の機器から構成されるシステムに適用しても良いし、また、一つの機器からなる装置に適用しても良い。
<Other embodiments>
As described above, the embodiment has been described in detail. However, the present invention can take an embodiment as a system, apparatus, method, program, storage medium, or the like, and specifically includes a plurality of devices. The present invention may be applied to a system that is configured, or may be applied to an apparatus that includes a single device.

尚、本発明は、前述した実施形態の機能を実現するソフトウェアのプログラム(実施形態では図に示すフローチャートに対応したプログラム)を、システムあるいは装置に直接あるいは遠隔から供給し、そのシステムあるいは装置のコンピュータが該供給されたプログラムコードを読み出して実行することによっても達成される場合を含む。   In the present invention, a software program (in the embodiment, a program corresponding to the flowchart shown in the figure) that realizes the functions of the above-described embodiment is directly or remotely supplied to the system or apparatus, and the computer of the system or apparatus Is also achieved by reading and executing the supplied program code.

従って、本発明の機能処理をコンピュータで実現するために、該コンピュータにインストールされるプログラムコード自体も本発明を実現するものである。つまり、本発明は、本発明の機能処理を実現するためのコンピュータプログラム自体も含まれる。   Accordingly, since the functions of the present invention are implemented by computer, the program code installed in the computer also implements the present invention. In other words, the present invention includes a computer program itself for realizing the functional processing of the present invention.

その場合、プログラムの機能を有していれば、オブジェクトコード、インタプリタにより実行されるプログラム、OSに供給するスクリプトデータ等の形態であっても良い。   In that case, as long as it has the function of a program, it may be in the form of object code, a program executed by an interpreter, script data supplied to the OS, or the like.

プログラムを供給するための記録媒体としては、例えば、フロッピー(登録商標)ディスク、ハードディスク、光ディスク、光磁気ディスク、MO、CD−ROM、CD−R、CD−RW、磁気テープ、不揮発性のメモリカード、ROM、DVD(DVD−ROM,DVD−R)などがある。   As a recording medium for supplying the program, for example, floppy (registered trademark) disk, hard disk, optical disk, magneto-optical disk, MO, CD-ROM, CD-R, CD-RW, magnetic tape, nonvolatile memory card ROM, DVD (DVD-ROM, DVD-R) and the like.

その他、プログラムの供給方法としては、クライアントコンピュータのブラウザを用いてインターネットのホームページに接続し、該ホームページから本発明のコンピュータプログラムそのもの、もしくは圧縮され自動インストール機能を含むファイルをハードディスク等の記録媒体にダウンロードすることによっても供給できる。また、本発明のプログラムを構成するプログラムコードを複数のファイルに分割し、それぞれのファイルを異なるホームページからダウンロードすることによっても実現可能である。つまり、本発明の機能処理をコンピュータで実現するためのプログラムファイルを複数のユーザに対してダウンロードさせるWWWサーバも、本発明に含まれるものである。   As another program supply method, a client computer browser is used to connect to an Internet homepage, and the computer program of the present invention itself or a compressed file including an automatic installation function is downloaded from the homepage to a recording medium such as a hard disk. Can also be supplied. It can also be realized by dividing the program code constituting the program of the present invention into a plurality of files and downloading each file from a different homepage. That is, a WWW server that allows a plurality of users to download a program file for realizing the functional processing of the present invention on a computer is also included in the present invention.

また、本発明のプログラムを暗号化してCD−ROM等の記憶媒体に格納してユーザに配布し、所定の条件をクリアしたユーザに対し、インターネットを介してホームページから暗号化を解く鍵情報をダウンロードさせ、その鍵情報を使用することにより暗号化されたプログラムを実行してコンピュータにインストールさせて実現することも可能である。   In addition, the program of the present invention is encrypted, stored in a storage medium such as a CD-ROM, distributed to users, and key information for decryption is downloaded from a homepage via the Internet to users who have cleared predetermined conditions. It is also possible to execute the encrypted program by using the key information and install the program on a computer.

また、コンピュータが、読み出したプログラムを実行することによって、前述した実施形態の機能が実現される他、そのプログラムの指示に基づき、コンピュータ上で稼動しているOSなどが、実際の処理の一部または全部を行い、その処理によっても前述した実施形態の機能が実現され得る。   In addition to the functions of the above-described embodiments being realized by the computer executing the read program, the OS running on the computer based on the instruction of the program is a part of the actual processing. Alternatively, the functions of the above-described embodiment can be realized by performing all of them and performing the processing.

さらに、記録媒体から読み出されたプログラムが、コンピュータに挿入された機能拡張ボードやコンピュータに接続された機能拡張ユニットに備わるメモリに書き込まれた後、そのプログラムの指示に基づき、その機能拡張ボードや機能拡張ユニットに備わるCPUなどが実際の処理の一部または全部を行い、その処理によっても前述した実施形態の機能が実現される。   Furthermore, after the program read from the recording medium is written in a memory provided in a function expansion board inserted into the computer or a function expansion unit connected to the computer, the function expansion board or The CPU or the like provided in the function expansion unit performs part or all of the actual processing, and the functions of the above-described embodiments are realized by the processing.

本発明の第1の実施形態に係る画像処理装置の構成を示すブロック図である。1 is a block diagram illustrating a configuration of an image processing apparatus according to a first embodiment of the present invention. 第1の実施形態に係る画像処理装置による検査領域内から入力画像の傾き量を検出するための処理手順を説明するためのフローチャートである。It is a flowchart for demonstrating the process sequence for detecting the inclination amount of an input image from the test | inspection area | region by the image processing apparatus which concerns on 1st Embodiment. 第2の実施形態に係る画像処理装置による検査領域内から入力画像の傾き量を検出するための処理手順を説明するためのフローチャートである。It is a flowchart for demonstrating the process sequence for detecting the inclination amount of an input image from the test | inspection area | region by the image processing apparatus which concerns on 2nd Embodiment. 検知窓内の射影から文字サイズを推定する方法及び検知窓の大きさを変更する方法を説明するための図である。It is a figure for demonstrating the method to estimate the character size from the projection in a detection window, and the method to change the magnitude | size of a detection window. 第2の実施形態における検知窓の位置の変更方法について説明するための図である。It is a figure for demonstrating the change method of the position of the detection window in 2nd Embodiment. 第1の実施形態に係る画像処理装置における検知窓の射影の相関を説明するための図である。It is a figure for demonstrating the correlation of the projection of the detection window in the image processing apparatus which concerns on 1st Embodiment. 第3の実施形態に係る画像処理装置で読み出し可能な各種データ処理プログラムを格納する記憶媒体のメモリマップの一例を説明するための図である。It is a figure for demonstrating an example of the memory map of the storage medium which stores the various data processing program which can be read with the image processing apparatus which concerns on 3rd Embodiment.

符号の説明Explanation of symbols

101 CPU
102 ROM
103 RAM
104 外部記憶装置
105 ディスプレイ
106 キーボード
107 ポインティングデバイス
108 スキャナ
109 ネットワークインタフェース
110 バス
101 CPU
102 ROM
103 RAM
104 External storage device 105 Display 106 Keyboard 107 Pointing device 108 Scanner 109 Network interface 110 Bus

Claims (14)

入力された文書画像に対して2つの部分画像領域を設定する設定手段と、該2つの部分画像領域のそれぞれから文字行の射影を検出する検出手段と、検出された射影に基づいて前記文書画像の傾きを決定する決定手段とを備える画像処理装置であって、
第1の部分画像領域から検出された射影に基づいて該第1の部分画像領域を変更する変更手段をさらに備え、
前記設定手段が、前記変更手段によって変更された前記第1の部分画像領域に基づいて第2の部分画像領域を設定し、
前記検出手段が、前記第1の部分画像領域と前記第2の部分画像領域のそれぞれから文字行の射影を検出する
ことを特徴とする画像処理装置。
Setting means for setting two partial image areas for the input document image, detection means for detecting projection of a character line from each of the two partial image areas, and the document image based on the detected projection An image processing apparatus comprising a determining means for determining the inclination of
Changing means for changing the first partial image area based on the projection detected from the first partial image area;
The setting means sets a second partial image area based on the first partial image area changed by the changing means;
The image processing apparatus, wherein the detection unit detects a projection of a character line from each of the first partial image region and the second partial image region.
前記変更手段が、前記第1の部分画像領域から取得された射影に基づいて、該第1の部分画像領域内に含まれる文字の文字サイズを推定し、推定された前記文字サイズに基づいて該第1の部分画像領域の大きさを変更することを特徴とする請求項1に記載の画像処理装置。   The changing means estimates a character size of a character included in the first partial image region based on the projection acquired from the first partial image region, and based on the estimated character size, The image processing apparatus according to claim 1, wherein the size of the first partial image area is changed. 前記変更手段が、前記第1の部分画像領域内に含まれる前記文字の文字行の射影が途切れている方向に、該射影が途切れなくなるまで該第1の部分画像領域を拡大することを特徴とする請求項2に記載の画像処理装置。   The changing means expands the first partial image region in a direction in which the projection of the character line of the character included in the first partial image region is interrupted until the projection is not interrupted. The image processing apparatus according to claim 2. 前記変更手段が、前記第1の部分画像領域から取得された射影に基づいて、該第1の部分画像領域の位置を移動することを特徴とする請求項1から3までのいずれか1項に記載の画像処理装置。   4. The apparatus according to claim 1, wherein the changing unit moves the position of the first partial image area based on a projection acquired from the first partial image area. 5. The image processing apparatus described. 前記変更手段が、前記第1の部分画像領域内に含まれる前記文字の文字行の射影が途切れている方向に、該射影が途切れなくなるまで該第1の部分画像領域を移動することを特徴とする請求項4に記載の画像処理装置。   The changing means moves the first partial image area in a direction in which the projection of the character line of the character included in the first partial image area is interrupted until the projection is not interrupted. The image processing apparatus according to claim 4. 前記決定手段が、前記第1の部分画像領域又は前記第2の部分画像領域の一方を固定し他方を垂直移動させて、それぞれの部分画像領域から検出された射影の相関を取得し、該相関が最大となるときのそれぞれの部分画像領域の位置関係から前記傾きを決定することを特徴とする請求項1から5までのいずれか1項に記載の画像処理装置。   The determination unit fixes one of the first partial image region and the second partial image region and vertically moves the other to obtain a correlation of projections detected from each partial image region, and the correlation 6. The image processing apparatus according to claim 1, wherein the inclination is determined from a positional relationship between the partial image regions when the value of the partial image region becomes maximum. 文書画像に対して第1の部分画像領域を設定する第1の設定工程と、
前記第1の部分画像領域から文字行の射影を検出する第1の検出工程と、
前記第1の部分画像領域から検出された射影に基づいて該第1の部分画像領域を変更する変更工程と、
前記変更工程によって変更された前記第1の部分画像領域に基づいて前記文書画像に対して第2の部分画像領域を設定する第2の設定工程と、
前記第1の部分画像領域と前記第2の部分画像領域のそれぞれから文字行の射影を検出する検出工程と、
検出された射影に基づいて前記文書画像の傾きを決定する決定工程と
を有することを特徴とする画像処理方法。
A first setting step of setting a first partial image region for the document image;
A first detection step of detecting a projection of a character line from the first partial image region;
A changing step of changing the first partial image area based on the projection detected from the first partial image area;
A second setting step of setting a second partial image region for the document image based on the first partial image region changed by the changing step;
A detection step of detecting a projection of a character line from each of the first partial image region and the second partial image region;
A determination step of determining an inclination of the document image based on the detected projection.
前記変更工程が、前記第1の部分画像領域から取得された射影に基づいて、該第1の部分画像領域内に含まれる文字の文字サイズを推定し、推定された前記文字サイズに基づいて該第1の部分画像領域の大きさを変更することを特徴とする請求項7に記載の画像処理方法。   The changing step estimates a character size of a character included in the first partial image region based on the projection acquired from the first partial image region, and based on the estimated character size, The image processing method according to claim 7, wherein the size of the first partial image region is changed. 前記変更工程が、前記第1の部分画像領域内に含まれる前記文字の文字行の射影が途切れている方向に、該射影が途切れなくなるまで該第1の部分画像領域を拡大することを特徴とする請求項8に記載の画像処理方法。   The changing step is to enlarge the first partial image area in a direction in which the projection of the character line of the character included in the first partial image area is interrupted until the projection is not interrupted. The image processing method according to claim 8. 前記変更工程が、前記第1の部分画像領域から取得された射影に基づいて、該第1の部分画像領域の位置を移動することを特徴とする請求項7から9までのいずれか1項に記載の画像処理方法。   10. The method according to claim 7, wherein the changing step moves the position of the first partial image area based on a projection acquired from the first partial image area. The image processing method as described. 前記変更工程が、前記第1の部分画像領域内に含まれる前記文字の文字行の射影が途切れている方向に、該射影が途切れなくなるまで該第1の部分画像領域を移動することを特徴とする請求項10に記載の画像処理方法。   The changing step moves the first partial image area in a direction in which the projection of the character line of the character included in the first partial image area is interrupted until the projection is not interrupted. The image processing method according to claim 10. 前記決定工程が、前記第1の部分画像領域又は前記第2の部分画像領域の一方を固定し他方を垂直移動させて、それぞれの部分画像領域から検出された射影の相関を取得し、該相関が最大となるときのそれぞれの部分画像領域の位置関係から前記傾きを決定することを特徴とする請求項7から11までのいずれか1項に記載の画像処理方法。   In the determining step, one of the first partial image region or the second partial image region is fixed and the other is vertically moved to obtain a correlation of projections detected from the respective partial image regions, and the correlation 12. The image processing method according to claim 7, wherein the inclination is determined from a positional relationship between the partial image regions when the value of the partial image region becomes maximum. 請求項7から12までのいずれか1項に記載の画像処理方法をコンピュータによって実行させるためのプログラム。   A program for causing a computer to execute the image processing method according to any one of claims 7 to 12. 請求項13に記載のプログラムを格納したことを特徴とするコンピュータ読み取り可能な記憶媒体。   A computer-readable storage medium storing the program according to claim 13.
JP2004090062A 2004-03-25 2004-03-25 Image processing apparatus, image processing method, program, and storage medium Expired - Lifetime JP4434802B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004090062A JP4434802B2 (en) 2004-03-25 2004-03-25 Image processing apparatus, image processing method, program, and storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004090062A JP4434802B2 (en) 2004-03-25 2004-03-25 Image processing apparatus, image processing method, program, and storage medium

Publications (2)

Publication Number Publication Date
JP2005275950A true JP2005275950A (en) 2005-10-06
JP4434802B2 JP4434802B2 (en) 2010-03-17

Family

ID=35175540

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004090062A Expired - Lifetime JP4434802B2 (en) 2004-03-25 2004-03-25 Image processing apparatus, image processing method, program, and storage medium

Country Status (1)

Country Link
JP (1) JP4434802B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9514526B2 (en) 2011-03-25 2016-12-06 Hitachi High-Technologies Corporation Device and method for detecting angle of rotation from normal position of image
JP2017091419A (en) * 2015-11-16 2017-05-25 富士ゼロックス株式会社 Information processing device, image reading device and program

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9514526B2 (en) 2011-03-25 2016-12-06 Hitachi High-Technologies Corporation Device and method for detecting angle of rotation from normal position of image
JP2017091419A (en) * 2015-11-16 2017-05-25 富士ゼロックス株式会社 Information processing device, image reading device and program

Also Published As

Publication number Publication date
JP4434802B2 (en) 2010-03-17

Similar Documents

Publication Publication Date Title
JP5357612B2 (en) Underline removal device
JP2006295606A (en) Image processor, its processing method, program, and storage medium
JP2008167009A (en) Image processing device and method, and program
JP2010003087A (en) Image processor and image processing method
JP2019215647A (en) Information processing device, control method of the same and program
JP4837101B2 (en) Digital watermark embedding device, digital watermark detection device, and program
JP4434802B2 (en) Image processing apparatus, image processing method, program, and storage medium
JP2009251872A (en) Information processing device and information processing program
JP2006343960A (en) Image processor, image processing method, program and storage medium
JP4804433B2 (en) Image processing apparatus, image processing method, and image processing program
JP4434803B2 (en) Image processing apparatus, image processing method, program, and storage medium
EP2388761A2 (en) Marker placement device, marker placement detecting device, and computer readable storage medium for storing marker placement program
JP4867401B2 (en) Image processing apparatus and program
JP4298588B2 (en) Information detection apparatus and information detection method
JP4497974B2 (en) Image processing apparatus, image processing method, program, and storage medium
JP4420440B2 (en) Image processing apparatus, image processing method, character recognition apparatus, program, and recording medium
JP6201838B2 (en) Information processing apparatus and information processing program
JP3927171B2 (en) Noise removing apparatus and method, program, and recording medium
WO2020066755A1 (en) Learning model generation device, ground object change determination device, learning model generation method, ground object change determination method, and computer-readable recording medium
JP2007323440A (en) Image processing method, image processing program, storage medium recording the image processing program, and image processor
JP4585999B2 (en) Image processing apparatus, image processing method, and program
JPH10254991A (en) Ruled line erasing method and mechanically readable medium
JP2010258627A (en) Image processor, image processing method, program, and storage medium
JP6255929B2 (en) Information processing apparatus, information processing apparatus control method, and program
JP2010103862A (en) Document processing apparatus and method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20061214

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090904

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20091104

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20091218

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20091222

R150 Certificate of patent or registration of utility model

Ref document number: 4434802

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130108

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140108

Year of fee payment: 4