JP2020072325A - Image processing apparatus - Google Patents

Image processing apparatus Download PDF

Info

Publication number
JP2020072325A
JP2020072325A JP2018203627A JP2018203627A JP2020072325A JP 2020072325 A JP2020072325 A JP 2020072325A JP 2018203627 A JP2018203627 A JP 2018203627A JP 2018203627 A JP2018203627 A JP 2018203627A JP 2020072325 A JP2020072325 A JP 2020072325A
Authority
JP
Japan
Prior art keywords
document
boundary line
boundary
image
edge
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2018203627A
Other languages
Japanese (ja)
Inventor
俊史 實藤
Toshifumi Saneto
俊史 實藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Electronics Inc
Original Assignee
Canon Electronics Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Electronics Inc filed Critical Canon Electronics Inc
Priority to JP2018203627A priority Critical patent/JP2020072325A/en
Publication of JP2020072325A publication Critical patent/JP2020072325A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Input (AREA)
  • Facsimile Scanning Arrangements (AREA)

Abstract

To solve the problem in which, while, in detecting a boundary line between an original area and a background area, conventionally, there is a method of determining certainty of the boundary line by comparing a distance between a detected boundary line and an original shadow, the conventional method has a problem in that accuracy of the boundary line cannot be correctly determined when the original image is distorted.SOLUTION: An image processing apparatus includes: a document edge detection unit for detecting an edge of a document area from image data; a boundary line calculating unit for calculating a boundary line of the document area based on coordinates of the document edge detected by the document edge detecting unit; a document shadow detection unit for detecting a shadow of the document from the edge of the document; a distance determination unit for determining a distance between a result detected by the document shadow detection unit and a boundary line calculated by the boundary line calculation unit; and a certainty determination unit for determining certainty of the boundary line according to a determination result of the distance determination unit.SELECTED DRAWING: Figure 5

Description

本発明は、画像処理装置に関し、特に、画像データに含まれる原稿領域と背景領域との境界線の検出に関する。   The present invention relates to an image processing apparatus, and more particularly to detection of a boundary line between a document area and a background area included in image data.

近年、原稿を電子的に読み取るスキャナ等の画像処理装装置として、異なったサイズの原稿が混在する環境において、原稿サイズを自動的に検知し、最適なサイズで原稿の画像を読み取るものが利用されている。このような画像処理装置では、原稿サイズを検知するために、原稿を読み取って得られる画像データから、原稿が映っている領域(以下、原稿領域)と原稿が映っていない領域(以下、背景領域)の境界を検出することが行われている。画像処理装置は、境界の検出にあたって、例えば次のような処理を行う。まず画像処理装置は、原稿領域を含む画像を取得する。次に取得した画像から、原稿端と想定される画素(以下、原稿端画素)を検出し、その座標値を取得する。最後に、原稿端画素の座標値に対して、最小二乗法やハフ変換などの手法を適用することで境界を決定する。   In recent years, as an image processing apparatus such as a scanner that electronically reads an original, an apparatus that automatically detects the original size and reads the image of the original in an environment in which originals of different sizes are mixed is used. ing. In such an image processing apparatus, in order to detect the document size, in the image data obtained by reading the document, a region where the document is reflected (hereinafter referred to as document region) and a region where the document is not reflected (hereinafter referred to as background region). ) Is being detected. The image processing apparatus performs, for example, the following processing in detecting the boundary. First, the image processing apparatus acquires an image including a document area. Next, the pixels assumed to be the document edge (hereinafter, document edge pixels) are detected from the acquired image, and the coordinate values thereof are acquired. Finally, the boundary is determined by applying a method such as a least square method or Hough transform to the coordinate value of the document edge pixel.

ところで原稿領域の検出では、誤検出が発生する可能性がある。例えば、画像データにノイズが発生していた場合に、ノイズを原稿端画素と検出してしまうことで、誤った原稿領域を検出してしまうことがある。また原稿領域と、原稿が映っていない背景領域との濃度差が小さい場合に、原稿領域と背景領域の境界が原稿端画素として検出されないことで、誤った原稿領域を検出してしまうことがある。   By the way, in the detection of the document area, erroneous detection may occur. For example, when noise is generated in the image data, the noise may be detected as a document end pixel, and thus a wrong document area may be detected. Further, when the difference in density between the original area and the background area where the original is not reflected is small, the boundary between the original area and the background area is not detected as an original end pixel, and thus an incorrect original area may be detected. ..

このような誤検出が発生した場合に、誤検出が発生したことを検知する方法が、特許文献1で提案されている。特許文献1の技術では、まず原稿端画素から原稿領域の境界の候補となる直線(以下、境界候補直線)を算出し、次に算出した境界候補直線と、原稿の周囲に写りこむ原稿の影との距離のヒストグラムを生成する。そして、生成したヒストグラムの形状を分析することで、算出された境界候補直線が、原稿領域と背景領域の境界として正しいかを判定する。例えば、境界候補直線が正しい境界である場合には、境界候補直線と影の距離がほぼ一定のため、ヒストグラムのピークは鋭くなる(図1(a))。しかし、境界候補直線の角度が誤っている場合には、境界候補直線と影の距離が連続的に変化するため、ヒストグラムのピークは幅広になる(図1(b))。このため、ヒストグラムのピークの幅から、境界候補直線の正しさを判定できる。   Patent Document 1 proposes a method for detecting the occurrence of such false detection when such false detection occurs. In the technique of Patent Document 1, first, a straight line that is a candidate for a boundary of a document area (hereinafter, a boundary candidate straight line) is calculated from the document edge pixels, and then the calculated boundary candidate straight line and the shadow of the document that appears around the document. Generate a histogram of the distances to and. Then, by analyzing the shape of the generated histogram, it is determined whether the calculated boundary candidate straight line is correct as the boundary between the original area and the background area. For example, when the boundary candidate straight line is a correct boundary, the peak of the histogram becomes sharp because the distance between the boundary candidate straight line and the shadow is almost constant (FIG. 1A). However, when the angle of the boundary candidate straight line is incorrect, the distance between the boundary candidate straight line and the shadow changes continuously, so the peak of the histogram becomes wide (FIG. 1B). Therefore, the correctness of the boundary candidate straight line can be determined from the peak width of the histogram.

2014-72626号公報2014-72626

特許文献1の技術には、原稿画像が歪んでいる場合に、誤検出の検知を正しく行えなくなるという問題がある。原稿を搬送しながら読み取る原稿読取装置において原稿が歪んで搬送された場合、また見開き本をスキャンしたりした場合などには、原稿画像が扇形になる場合がある。このような画像では、境界候補直線が適切なものであっても、境界候補直線と影の距離が連続的に変化するため、ヒストグラムのピークの幅は広くなる(図2)。このヒストグラムは、角度を誤った時のヒストグラムと同様の形状になるため、境界候補直線は正しくないものと判定されてしまう。   The technique of Patent Document 1 has a problem in that when a document image is distorted, false detection cannot be correctly detected. When a document is distorted and conveyed in a document reading device that reads the document while it is being conveyed, or when a spread book is scanned, the document image may be fan-shaped. In such an image, even if the boundary candidate straight line is appropriate, the distance between the boundary candidate straight line and the shadow continuously changes, so that the peak width of the histogram becomes wide (FIG. 2). Since this histogram has the same shape as the histogram when the angle is wrong, the boundary candidate straight line is determined to be incorrect.

本発明は上記問題の解決を図るものであり、原稿画像が歪んでいても、原稿領域と背景領域の境界を正しく判定できる判定方法の実現を目的とする。   The present invention is intended to solve the above problem, and an object of the present invention is to realize a determination method capable of correctly determining the boundary between the original area and the background area even if the original image is distorted.

上記課題を解決するために、本発明の画像処理装置は、画像データから原稿領域の端部を検出する原稿端検出部と、前記原稿端検出部によって検出された原稿端の座標に基づいて、原稿領域の境界線を算出する境界線算出部と、原稿の縁から原稿の影を検出する原稿影検出部と、前記原稿影検出部によって検出された結果と前記境界線算出部によって算出された境界線との距離を判定する距離判定部と、距離判定部の判定結果に応じて前記境界線の確からしさを決定する確からしさ判定部と、を備えることを特徴とする。   In order to solve the above problems, the image processing apparatus of the present invention, based on the document edge detection unit that detects the edge of the document area from the image data, and the coordinates of the document edge detected by the document edge detection unit, A boundary line calculation unit that calculates a boundary line of the document area, a document shadow detection unit that detects a document shadow from the edge of the document, a result detected by the document shadow detection unit, and a boundary line calculation unit It is characterized by comprising a distance determining unit for determining a distance to a boundary line, and a certainty determining unit for determining the certainty of the boundary line according to a determination result of the distance determining unit.

本発明によれば、原稿画像が歪んでいても、算出された原稿領域と背景領域の境界線が正しいものかを判定できる。   According to the present invention, even if a document image is distorted, it can be determined whether the calculated boundary line between the document region and the background region is correct.

境界線と原稿影との距離のヒストグラムHistogram of the distance between the border and the shadow of the original 原稿画像が歪んだ場合の、境界線と原稿影との距離のヒストグラムHistogram of the distance between the boundary line and the shadow of the original when the original image is distorted 本発明における画像読み取りユニットの構成図Configuration diagram of an image reading unit in the present invention 本発明における画像読み取り装置の構成図Configuration diagram of an image reading apparatus in the present invention 第1の実施形態における処理の流れを示すフローチャートFlowchart showing the flow of processing in the first embodiment 原稿端画素判定処理の流れを示すフローチャートFlowchart showing the flow of document edge pixel determination processing 原稿影画素判定処理の流れを示すフローチャートFlowchart showing the flow of document shadow pixel determination processing 最小二乗法の計算方法を示す図Diagram showing how to calculate the least squares method 第2の実施形態における処理の流れを示すフローチャートFlowchart showing the flow of processing in the second embodiment

(実施例1)
以下図面を参照して本発明に係る実施形態の例を詳細に説明する。
(Example 1)
Hereinafter, an example of an embodiment according to the present invention will be described in detail with reference to the drawings.

図3は、本発明における画像読み取りユニットの構成図である。画像読み取りユニット301は、原稿Dをピックアップするピックアップローラ302と、ピックアップローラ302によりピックアップされた原稿束Dを装置内に給送する給送ローラ303と、ピックアップされた原稿束Dを1枚ずつ分離する分離ローラ304と、給紙した原稿を排紙口まで搬送するための搬送ローラ308と、原稿束Dから分離された原稿の画像情報を読み取るラインイメージセンサ305と、ラインイメージセンサ305の対向位置に配置された対向面307と、原稿を検知するレジストセンサ306と、原稿検知センサ309を備えている。画像読み取りが開始されると、画像読み取りユニット301は、ピックアップローラ302と給送ローラ303によって原稿束Dを取り込み、分離ローラ304によって1枚ずつに分離する。分離された原稿Dは、副走査方向に搬送されつつ、その上面に形成されている画像がラインイメージセンサ305によって主走査方向(原稿搬送方向と直交する方向)に沿って読み取られる。画像が読み取られた後、原稿は装置外部へ排出される。   FIG. 3 is a configuration diagram of the image reading unit in the present invention. The image reading unit 301 includes a pickup roller 302 for picking up the document D, a feeding roller 303 for feeding the document bundle D picked up by the pickup roller 302 into the apparatus, and a picked-up document bundle D for each sheet. Separating roller 304, a conveying roller 308 for conveying the fed document to a sheet discharge port, a line image sensor 305 for reading image information of the document separated from the document bundle D, and a position where the line image sensor 305 faces each other. And a registration sensor 306 for detecting a document, and a document detection sensor 309. When the image reading is started, the image reading unit 301 takes in the document bundle D by the pickup roller 302 and the feeding roller 303, and separates the document bundle D one by one by the separation roller 304. While the separated document D is being conveyed in the sub-scanning direction, the image formed on the upper surface thereof is read by the line image sensor 305 along the main scanning direction (direction orthogonal to the document conveying direction). After the image is read, the original is ejected outside the apparatus.

図4は、本発明における画像読み取り装置の構成図である。画像読み取り装置401は、原稿を読み取る画像読み取りユニット402と、読み取られた画像に対して画像処理を行う画像処理回路403と、画像処理回路403から出力される画像データを一時的に記憶するRAM404と、 画像読み取り装置内401で使用されるプログラムを格納するROM405と、ROM405に格納されたプログラムに従って画像読み取り装置全体を制御し、またRAM405内の画像データを解析し原稿領域と背景領域の境界の算出をおこなうCPU406と、CPU406から送信されたRAM404内の画像データを外部PC407に転送すると共に、外部PC407からの画像読み取りを指示する割り込みをCPU406に転送する転送部408とを備える。   FIG. 4 is a block diagram of the image reading apparatus according to the present invention. The image reading device 401 includes an image reading unit 402 that reads a document, an image processing circuit 403 that performs image processing on the read image, and a RAM 404 that temporarily stores image data output from the image processing circuit 403. , A ROM 405 storing a program used in the image reading apparatus 401, and controlling the entire image reading apparatus according to the program stored in the ROM 405, analyzing image data in the RAM 405, and calculating a boundary between a document area and a background area. And a transfer unit 408 that transfers the image data in the RAM 404 transmitted from the CPU 406 to the external PC 407 and transfers an interrupt for instructing the image reading from the external PC 407 to the CPU 406.

なお、本実施形態においては、画像読み取り装置として、転送部を通して画像読み取り装置と接続され画像読み取り装置に対して読み取り指示や画像データの受信を行う外部PCと接続されている構成を考えるが、外部PCと接続することなく画像読み取りを行える構成であっても良い。   Note that in the present embodiment, a configuration is considered in which the image reading device is connected to the image reading device through the transfer unit and is connected to an external PC that gives a reading instruction to the image reading device and receives image data. The configuration may be such that an image can be read without connecting to a PC.

また、本実施形態においてCPU406が行っている処理は、CPU406ではなく、転送部408を通して接続された外部PC407や、さらに外部PC407に接続されている他の情報処理装置で行っても良い。   Further, the processing performed by the CPU 406 in the present embodiment may be performed not by the CPU 406 but by an external PC 407 connected via the transfer unit 408 or another information processing apparatus connected to the external PC 407.

図5に、本実施形態における処理の流れを示す。ここでは、原稿上端の境界の検出方法について説明する。   FIG. 5 shows the flow of processing in this embodiment. Here, a method of detecting the boundary of the upper end of the document will be described.

ステップS101で、ユーザーは外部PC407に対して原稿読み取りの指示を出し、原稿読み取りの指示を受け取った外部PC407は、接続された画像読み取り装置に対して、画像読み取り指示を送る。画像読み取り指示を受けた画像読み取り装置は、あらかじめ画像読み取り装置に置かれた原稿を搬送し、画像の読み取りを行う。   In step S101, the user issues an original reading instruction to the external PC 407, and the external PC 407 that has received the original reading instruction sends an image reading instruction to the connected image reading apparatus. The image reading device that has received the image reading instruction conveys the document placed in advance on the image reading device and reads the image.

ステップS102で、読み取られた画像データは画像処理回路403によって画像処理され、RAM404に格納される。本実施形態では、図2に示す画像データが、RAM404に格納されたものとする。   In step S102, the read image data is subjected to image processing by the image processing circuit 403 and stored in the RAM 404. In this embodiment, it is assumed that the image data shown in FIG. 2 is stored in the RAM 404.

ステップS103で、CPU406が、RAM404に格納された画像データを解析し、原稿端画素を検出する。本実施形態では、画像の端から画像の中央方向に向けて、隣り合う画素との濃度差を算出していき、隣との濃度差が所定の値以上になる画素が見つかったら、その画素を原稿端画素と判定するという方法で行う。ただしこの検出方法は一例であり、原稿の端部と想定される画素を検出する方法であれば、どのような方法を用いても良い。   In step S103, the CPU 406 analyzes the image data stored in the RAM 404 and detects the document edge pixels. In the present embodiment, the density difference between adjacent pixels is calculated from the edge of the image toward the center of the image, and when a pixel having a density difference between adjacent pixels is equal to or greater than a predetermined value, the pixel is selected. This is performed by the method of determining the pixels at the document edge. However, this detection method is an example, and any method may be used as long as it is a method of detecting a pixel which is assumed to be an edge portion of a document.

ステップS103の中で行われる原稿端画素判定処理の流れを示したものが、図6である。   FIG. 6 shows the flow of the document edge pixel determination processing performed in step S103.

ステップS201で、CPU406は、RAM404に格納された、座標を示すための変数x、yに0を設定する。   In step S201, the CPU 406 sets 0 in the variables x and y for indicating the coordinates, which are stored in the RAM 404.

ステップS202で、濃度差が所定の値以上であるかを判定するための閾値Tを取得する。本実施形態では、閾値Tは予めROM405に格納されているものとし、取得はCPU406がこの値を読み出すことで行う。 In step S202, the threshold value T 1 for determining whether the density difference is equal to or larger than a predetermined value is acquired. In the present embodiment, the threshold value T 1 is assumed to be stored in the ROM 405 in advance, and the acquisition is performed by the CPU 406 reading this value.

ステップS203で、CPU406は、RAM404に格納された変数xの値が、画像の主走査方向の画素数より小さいか否かを判定する。主走査方向の画素数より小さい場合には、処理はステップS204に進む。主走査方向の画素数以上の場合には、処理を終了する。   In step S203, the CPU 406 determines whether the value of the variable x stored in the RAM 404 is smaller than the number of pixels of the image in the main scanning direction. If it is smaller than the number of pixels in the main scanning direction, the process proceeds to step S204. If the number of pixels is greater than or equal to the number of pixels in the main scanning direction, the process ends.

ステップS204で、CPU406は、RAM404に格納された変数yに1加算した値が、画像の副走査方向の画素数より小さいか否かを判定する。副走査方向の画素数より小さい場合には、処理はステップS205に進む。副走査方向の画素数以上の場合には、処理はステップS208に進む。   In step S204, the CPU 406 determines whether the value obtained by adding 1 to the variable y stored in the RAM 404 is smaller than the number of pixels in the sub-scanning direction of the image. If it is smaller than the number of pixels in the sub-scanning direction, the process proceeds to step S205. If it is equal to or larger than the number of pixels in the sub-scanning direction, the process proceeds to step S208.

ステップS205で、CPU406は座標(x、y)の画素と、座標(x、y+1)の画素の濃度差を算出し、その濃度差がステップS202で取得した閾値T以上であるかを判定する。濃度差が閾値T以上である場合には、処理はステップS207に進み、閾値Tより小さい場合には、処理はステップS206に進む。なお、座標(x、y)という表記は、主走査方向の座標がxで、副走査方向の座標がyであることを意味している。また、本実施形態においては、画像の左上端を座標原点(0,0)とし、画像の右側ほど主走査座標が大きく、また画像の下側ほど副走査座標が大きくなるように座標系を定める。 In step S205, the CPU 406 calculates the density difference between the pixel at coordinates (x, y) and the pixel at coordinates (x, y + 1), and determines whether the density difference is equal to or greater than the threshold value T 1 acquired at step S202. .. If the density difference is the threshold value above T 1, the process proceeds to step S207, if thresholds T 1 is smaller than, the process proceeds to step S206. The notation "coordinate (x, y)" means that the coordinate in the main scanning direction is x and the coordinate in the sub scanning direction is y. Further, in the present embodiment, the upper left corner of the image is set as the coordinate origin (0, 0), and the coordinate system is determined so that the right side of the image has a larger main scanning coordinate and the lower side of the image has a larger sub scanning coordinate. ..

ステップS206で、CPUはRAM404に格納された変数yに1加算する。   In step S206, the CPU adds 1 to the variable y stored in the RAM 404.

ステップS207で、座標(x、y)を示す座標データをRAM404中の原稿端画素格納領域に追加する。ただしRAM404における原稿端画素の格納方法は、複数の座標情報を格納できるものであれば、リスト構造など一般的なもので良い。   In step S207, coordinate data indicating coordinates (x, y) is added to the document edge pixel storage area in the RAM 404. However, the method of storing the document edge pixels in the RAM 404 may be a general method such as a list structure as long as a plurality of coordinate information can be stored.

ステップS208で、CPUはRAM404に格納された変数xに1加算し、また変数yに0を設定する。   In step S208, the CPU adds 1 to the variable x stored in the RAM 404 and sets 0 to the variable y.

ステップS201からステップS208の手続きにより、原稿端画素がRAM404中の原稿端画素格納領域に格納される。   Through the procedure from step S201 to step S208, the document edge pixels are stored in the document edge pixel storage area in the RAM 404.

ステップS104で、CPU406が、RAM404に格納された画像データを解析し、原稿の影に対応する画素の座標を検出する。本実施形態では、画像の端から画像の中央方向に向けて、画素の濃度を抽出し、濃度が一定以下なる画素が見つかったら、その画素を原稿の影と判定するという方法で行う。ただしこの検出方法は一例であり、原稿の影と想定される画素を検出する方法であれば、どのような方法を用いても良い。   In step S104, the CPU 406 analyzes the image data stored in the RAM 404 and detects the coordinates of pixels corresponding to the shadow of the document. In this embodiment, the density of a pixel is extracted from the edge of the image toward the center of the image, and when a pixel having a density equal to or lower than a certain level is found, the pixel is determined to be the shadow of the document. However, this detection method is an example, and any method may be used as long as it is a method of detecting a pixel assumed to be a shadow of a document.

ステップS104の中で行われる原稿影画素判定処理の流れを示したものが、図7である。ステップS301で、CPU406は、RAM404に格納された、座標を示すための変数x、yに0を設定する。   FIG. 7 shows the flow of the document shadow pixel determination processing performed in step S104. In step S301, the CPU 406 sets 0 in variables x and y stored in the RAM 404 for indicating coordinates.

ステップS302で、濃度が所定の値以上であるかを判定するための閾値Tを取得する。本実施形態では、閾値Tは予めROM405に格納されているものとし、取得はCPU406がこの値を読み出すことで行う。 In step S302, a threshold value T 2 for determining whether the density is equal to or higher than a predetermined value is acquired. In this embodiment, the threshold value T 2 is stored in the ROM 405 in advance, and the acquisition is performed by the CPU 406 reading this value.

ステップS303で、CPU406は、RAM404に格納された変数xの値が、画像の主走査方向の画素数より小さいか否かを判定する。主走査方向の画素数より小さい場合には、処理はステップS304に進む。主走査方向の画素数以上の場合には、処理を終了する。   In step S303, the CPU 406 determines whether the value of the variable x stored in the RAM 404 is smaller than the number of pixels of the image in the main scanning direction. If it is smaller than the number of pixels in the main scanning direction, the process proceeds to step S304. If the number of pixels is greater than or equal to the number of pixels in the main scanning direction, the process ends.

ステップS304で、CPU406は、RAM404に格納された変数yの値が、画像の副走査方向の画素数より小さいか否かを判定する。副走査方向の画素数より小さい場合には、処理はステップS305に進む。副走査方向の画素数以上の場合には、処理はステップS308に進む。   In step S304, the CPU 406 determines whether the value of the variable y stored in the RAM 404 is smaller than the number of pixels of the image in the sub-scanning direction. If it is smaller than the number of pixels in the sub-scanning direction, the process proceeds to step S305. If the number of pixels in the sub-scanning direction is greater than or equal to the number, the process proceeds to step S308.

ステップS305で、CPU406は座標(x、y)の画素の濃度を取得し、その濃度がステップS302で取得した閾値T以上であるかを判定する。濃度が閾値T以上である場合には、処理はステップS307に進み、閾値Tより小さい場合には、処理はステップS306に進む。 In step S305, the CPU 406 acquires the density of the pixel at the coordinates (x, y) and determines whether the density is equal to or higher than the threshold T 2 acquired in step S302. If the density is equal to or higher than the threshold T 2 , the process proceeds to step S307, and if it is lower than the threshold T 2 , the process proceeds to step S306.

ステップS306で、CPUはRAM404に格納された変数yに1加算する。   In step S306, the CPU adds 1 to the variable y stored in the RAM 404.

ステップS307で、座標(x、y)を示す座標データを、RAM404中の原稿影画素格納領域に追加する。ただしRAM404における原稿影画素の格納方法は、複数の座標情報を格納できるものであれば、リスト構造など一般的なもので良い。   In step S307, coordinate data indicating coordinates (x, y) is added to the document shadow pixel storage area in the RAM 404. However, the method of storing the document shadow pixels in the RAM 404 may be a general method such as a list structure as long as it can store a plurality of coordinate information.

ステップS308で、CPUはRAM404に格納された変数xに1加算し、また変数yに0を設定する。   In step S308, the CPU adds 1 to the variable x stored in the RAM 404 and sets 0 to the variable y.

ステップS301からステップS308の手続きにより、原稿の影の画素がRAM404中の原稿影画素格納領域に格納される。   By the procedure of steps S301 to S308, the shadow pixels of the document are stored in the document shadow pixel storage area in the RAM 404.

ステップS105で、CPU406が、原稿端画素格納領域に格納された座標データを基に、原稿境界の候補(以下、境界候補)を算出する。本実施形態では、境界候補として二次曲線を用いる。二次曲線の算出はどのような方法で行っても良いが、本実施形態では、最小二乗法を用いて行う。すなわち、CPU406は原稿端画素格納領域に格納された各座標データとの二乗誤差が最小になる二次曲線を算出する。本実施形態では、境界候補としてy=a+ax+aが算出されたものとする。ただしa、a、aは、最小二乗法で決定される定数である。 In step S105, the CPU 406 calculates a document boundary candidate (hereinafter, a boundary candidate) based on the coordinate data stored in the document edge pixel storage area. In this embodiment, a quadratic curve is used as a boundary candidate. The quadratic curve may be calculated by any method, but in this embodiment, the least squares method is used. That is, the CPU 406 calculates a quadratic curve that minimizes the squared error from the coordinate data stored in the document edge pixel storage area. In the present embodiment, it is assumed that y = a 2 x 2 + a 1 x + a 0 is calculated as the boundary candidate. However, a 0 , a 1 , and a 2 are constants determined by the method of least squares.

ここで図8を用いて最小二乗法の計算方法を簡単に説明する。ここでは簡単のために原稿端画素格納領域に格納された座標データが10個だけであった場合を考える。ただし、一般には原稿端画素格納領域に格納された座標データの数は10より多いことも少ないこともある。図8では、この10個の座標データをp〜p10として示している。二次曲線を算出する最小二乗法では、これらの座標データに対して二乗誤差Σ10 n=1(y−a −a−aを算出し、この二乗誤差を最小にするa、a、aを求める。図8では、算出した二次曲線を破線で描いている。 Here, the calculation method of the least squares method will be briefly described with reference to FIG. Here, for the sake of simplicity, consider a case where only 10 pieces of coordinate data are stored in the document edge pixel storage area. However, in general, the number of coordinate data stored in the document edge pixel storage area may be larger or smaller than 10. In FIG. 8, these 10 pieces of coordinate data are shown as p 1 to p 10 . In the least squares method of calculating a quadratic curve, a squared error Σ 10 n = 1 (y n −a 2 x n 2 −a 1 xn −a 0 ) 2 is calculated for these coordinate data, and this squared value is calculated. Find a 0 , a 1 , and a 2 that minimize the error. In FIG. 8, the calculated quadratic curve is drawn with a broken line.

ステップS106で、原稿影画素格納領域に格納された各座標データについて、S105で算出した境界候補までの距離を算出し、距離のヒストグラムを生成する。原稿影画素格納領域に格納された各座標データから境界候補までの距離の算出はどのような方法で行っても良いが、例えば次の方法でも良い。まず原稿影画素格納領域から座標データを1つ取得する。ここでは座標データが座標(x、y)を示すものであったとする。次に算出した境界候補が主走査方向座標値xで持つ副走査方向座標値yを算出する。本実施形態では、y=a +a+aである。続いてyとyの差分の絶対値|y−y|を算出し、この値を影から境界候補までの距離とする。 In step S106, the distance to the boundary candidate calculated in step S105 is calculated for each coordinate data stored in the document shadow pixel storage area, and a distance histogram is generated. The distance from each coordinate data stored in the document shadow pixel storage area to the boundary candidate may be calculated by any method. For example, the following method may be used. First, one coordinate data is acquired from the document shadow pixel storage area. Here, it is assumed that the coordinate data indicates coordinates (x S , y S ). Next, the sub-scanning direction coordinate value y L that the calculated boundary candidate has in the main scanning direction coordinate value x S is calculated. In this embodiment, a y L = a 2 x S 2 + a 1 x S + a 0. Then the absolute value of the difference between the y S and y L | y S -y L | is calculated and the distance of this value from the shadow to the boundary candidates.

続いて、生成したヒストグラムのピークの幅の広さに基づいて、算出された境界候補が正しい境界になっているかを判定する。この判定のために、ステップS107で、ヒストグラムの幅Wを取得する。本実施形態では、ヒストグラムの幅Wとして半値幅(ヒストグラムのピークの高さの50%の値を持つ2点の間隔)を用いる。ただし、ヒストグラムの幅Wとして半値幅を用いるのは一例であり、ピークの幅を特徴づける量であればどのようなものでも良い。例えば50%以外のピークの高さの値を持つ2点の間隔としても良く、またヒストグラムを構成する全要素のうち特定の割合の要素が含まれる区間などとしても良い。   Then, it is determined whether the calculated boundary candidate is a correct boundary based on the width of the peak width of the generated histogram. For this determination, the width W of the histogram is acquired in step S107. In this embodiment, the half width (the interval between two points having a value of 50% of the peak height of the histogram) is used as the width W of the histogram. However, using the half-value width as the width W of the histogram is an example, and any value that characterizes the width of the peak may be used. For example, it may be an interval between two points having a peak height value other than 50%, or may be a section in which a certain ratio of elements among all elements forming the histogram is included.

ステップS108で、ステップS107で取得したヒストグラムの幅が、算出された境界候補が正しい境界になっているかを判定するための閾値Tを取得する。本実施形態では、閾値Tは予めROM405に格納されているものとする。なお、本実施形態では、閾値TとしてROM405に格納されているものを使用しているが、これは一例であり、ピークの幅が広いか否かを判定できるものであれば、他の値を使用しても良い。 In step S108, the width of the histogram obtained in step S107, the calculated boundary candidate obtains a threshold T W for determining whether in the correct boundary. In this embodiment, the threshold T W is stored in the ROM 405 in advance. In the present embodiment, the threshold value stored in the ROM 405 is used as the threshold value T W , but this is an example, and another value may be used as long as it can be determined whether or not the peak width is wide. May be used.

ステップS109で、ヒストグラムのピークの幅Wと閾値Tに基づいて、算出された境界候補が正しい境界になっているかを判定する。本実施形態では、幅Wが閾値Tより大きい場合(W>T)には、算出された境界候補が正しい境界になっていないと判定する。一方、幅Wが閾値T以下の場合(W≦T)には、算出された境界候補が正しい境界になっていると判定する。 In step S109, determines whether based on the width W and the threshold T W peak of the histogram, is calculated boundary candidates are in the correct boundary. In this embodiment, when the width W is larger than the threshold T W (W> T W ), it is determined that the calculated boundary candidate is not a correct boundary. On the other hand, when the width W is less than or equal to the threshold T (W ≦ T W ), it is determined that the calculated boundary candidate is a correct boundary.

本実施形態では、境界候補を算出する際に二次の曲線を用いているが、三次以上の高次曲線や、三角関数や指数関数など他の関数で記述される曲線を用いても良い。また関数で記述される曲線ではなく、ROM405に格納された座標テーブルで記述される曲線であっても良い。   In the present embodiment, a quadratic curve is used when calculating the boundary candidates, but a cubic or higher-order curve or a curve described by another function such as a trigonometric function or an exponential function may be used. Further, the curve described by the coordinate table stored in the ROM 405 may be used instead of the curve described by the function.

(実施例2)
本実施形態では、境界候補の正しさを判定するだけでなく、最適な境界の検出を行う。
(Example 2)
In this embodiment, not only the correctness of the boundary candidate is determined, but also the optimum boundary is detected.

本実施形態では、第1の実施形態と同様の画像読み取りユニットと画像読み取り装置を用いる。   In this embodiment, the same image reading unit and image reading device as in the first embodiment are used.

図9に、本実施形態における処理の流れを示す。   FIG. 9 shows the flow of processing in this embodiment.

ステップS401からS404で、第1の実施形態と同様にして、原稿読取指示の受信、原稿の読取、原稿端画素の検出、原稿の影の検出を行う。   In steps S401 to S404, the document reading instruction is received, the document is read, the document edge pixels are detected, and the document shadow is detected, as in the first embodiment.

ステップS405で、予めROM405に格納された、最適な境界を検出する際に探索する曲線の次数の最高値NMAXを取得する。ただし、最高値NMAXはROM405に格納された固定値を使うのではなく、動的に算出するのでも良い。例えば、ステップS403で取得した原稿端画素の数−1をNMAXとして用いるのでもよい。なお、後述するように本実施形態では、最小二乗法で曲線を算出する。最小二乗法には、元となるデータ数以上の次数の曲線に対しては、パラメーターを一意に決定できないという特徴があるため、原稿端画素の数−1をNMAXとして用いることには、曲線を一意に決定できるというメリットがある。 In step S405, the maximum value N MAX of the degree of the curve to be searched when detecting the optimum boundary, which is stored in the ROM 405 in advance, is acquired. However, the maximum value N MAX may be dynamically calculated instead of using the fixed value stored in the ROM 405. For example, the number of document edge pixels minus 1 acquired in step S403 may be used as N MAX . As will be described later, in the present embodiment, the curve is calculated by the least square method. Minimum square method, based on the order of curve data number or more of the underlying, since there is a feature that can not be uniquely determined parameter, to the use of the number -1 original edge pixels as N MAX is the curve Has the advantage that it can be uniquely determined.

ステップS406で、曲線の次数を示す変数Nに1を設定する。なお、変数Nは、RAM404の所定の場所に格納されているものとする。   In step S406, 1 is set to the variable N indicating the order of the curve. The variable N is assumed to be stored in a predetermined location of the RAM 404.

ステップS407で、RAM404の所定の場所に設けられた、最適な曲線の情報を格納するための最適曲線格納変数を初期化する。最適な曲線の情報としては、本実施形態では、曲線の次数NBESTと、NBEST+1個の多項式の係数、ヒストグラムの幅、の組を用いる。ただしこの情報は一例であり、曲線の形状と適している度合いを特定できるものであれば、どのようなものでも良い。また本実施形態では、NBESTに0を設定することで、変数の初期化を行う。 In step S407, the optimum curve storage variable for storing the information of the optimum curve, which is provided in a predetermined location of the RAM 404, is initialized. In this embodiment, as the optimum curve information, a set of the curve order N BEST , N BEST +1 polynomial coefficients, and histogram width is used. However, this information is an example, and any information may be used as long as the shape of the curve and the degree of suitability can be specified. Further, in the present embodiment, the variables are initialized by setting 0 to N BEST .

ステップS408で、ステップS403で原稿端画素格納領域に格納された座標データを基に、境界候補となるN次曲線を算出する。N次曲線の算出はどのような方法で行っても良いが、本実施形態では、最小二乗法を用いて行う。最小二乗法によって、N次曲線y=a+aN−1N−1+・・・+ax+aのN+1個の係数a、aN−1、・・・、a、aが算出される。 In step S408, an Nth-order curve serving as a boundary candidate is calculated based on the coordinate data stored in the document edge pixel storage area in step S403. The Nth-order curve may be calculated by any method, but in the present embodiment, the least squares method is used. By the least square method, N order curve y = a N x N + a N-1 x N-1 + ··· + a 1 x + a 0 a N + 1 coefficients a N, a N-1, ···, a 1, a 0 is calculated.

ステップS409で、ステップS404で原稿影画素格納領域に格納された各座標データについて、S408で算出した境界候補までの距離を算出し、距離のヒストグラムを生成する。原稿影画素格納領域に格納された各座標データから境界候補までの距離の算出はどのような方法で行っても良いが、例えば次の方法でも良い。まず原稿影画素格納領域から座標データを1つ取得する。ここでは座標データが(x、y)であったとする。次に算出した境界候補が主走査方向座標値xで持つ副走査方向座標値yを算出する。本実施形態では、y=a +aN−1 N−1+・・・+a+aである。続いてyとyの差分の絶対値|y−y|を算出し、この値を影から直線までの距離とする。 In step S409, the distance to the boundary candidate calculated in step S408 is calculated for each coordinate data stored in the document shadow pixel storage area in step S404, and a distance histogram is generated. The distance from each coordinate data stored in the document shadow pixel storage area to the boundary candidate may be calculated by any method. For example, the following method may be used. First, one coordinate data is acquired from the document shadow pixel storage area. Here, it is assumed that the coordinate data is (x S , y S ). Next, the sub-scanning direction coordinate value y L that the calculated boundary candidate has in the main scanning direction coordinate value x S is calculated. In this embodiment, a y L = a N x S N + a N-1 x S N-1 + ··· + a 1 x S + a 0. Then the absolute value of the difference between the y S and y L | y S -y L | is calculated and the distance of this value from the shadow to the straight line.

ステップS410で、第1の実施形態と同様にして、ヒストグラムの幅の取得を行う。   In step S410, the width of the histogram is acquired as in the first embodiment.

ステップS411で、最適曲線格納変数が初期化されているかを判定し、初期化されていなければステップS412に、初期化されていたらS413に進む。なお、本実施形態では、最適曲線格納変数中の曲線の次数NBESTについて、0が設定されていたら初期化されている、0以外が設定されていたら初期化されていないと判定する。 In step S411, it is determined whether or not the optimum curve storage variable has been initialized. If it has not been initialized, the process proceeds to step S412, and if it has been initialized, the process proceeds to step S413. In this embodiment, it is determined that the degree N BEST of the curve in the optimum curve storage variable is initialized if 0 is set, and is not initialized if a value other than 0 is set.

ステップS412で、ステップS408で算出した境界候補が、最適曲線格納変数に格納されている曲線よりも適しているかを判定する。そして、適していると判定された場合には、ステップS413に進み、適していないと判定された場合には、ステップS414に進む。本実施形態では、最適曲線格納変数中のヒストグラムの幅と、ステップS410で取得したヒストグラムの幅を比較し、最適曲線格納変数中のヒストグラムの幅の方が小さければ適していないと判定し、最適曲線格納変数中のヒストグラムの幅の方が大きければ適していると判定する。なお、本実施形態においては、ステップS410で取得したヒストグラムの幅と、最適曲線格納変数中のヒストグラムの幅が等しい場合には、適していないと判定するものとするが、これは一例であり、適していると判定するのでも良い。ただし、適していないと判定する方法には、次数が低くより簡単な関数で記述される境界を検出できるというメリットがある。   In step S412, it is determined whether the boundary candidate calculated in step S408 is more suitable than the curve stored in the optimum curve storage variable. Then, if it is determined to be suitable, the process proceeds to step S413, and if it is determined to be unsuitable, the process proceeds to step S414. In this embodiment, the width of the histogram in the optimum curve storage variable is compared with the width of the histogram acquired in step S410, and if the width of the histogram in the optimum curve storage variable is smaller, it is determined to be unsuitable, If the width of the histogram in the curve storage variable is larger, it is determined to be suitable. In the present embodiment, if the width of the histogram acquired in step S410 is equal to the width of the histogram in the optimum curve storage variable, it is determined that the width is not suitable, but this is an example. You may decide that it is suitable. However, the method of determining that it is not suitable has an advantage of being able to detect a boundary described by a simpler function having a lower order.

ステップS413で、ステップS408で算出した境界候補の情報を、最適曲線格納変数に格納する。ここでは曲線の次数NBESTにNを、係数にステップS408で算出したa〜aを、ヒストグラムの幅にステップS410で算出した幅を、それぞれ格納する。 In step S413, the information of the boundary candidate calculated in step S408 is stored in the optimum curve storage variable. Here, N is stored in the order N BEST of the curve, a N to a 0 calculated in step S408 is stored in the coefficient, and the width calculated in step S410 is stored in the width of the histogram.

ステップS414で、Nに1だけ加算する。ステップS415で、NがNMAXより大きいかを判定する。NがNMAX以下の場合には、処理はステップS408に進む。NがNMAXより大きい場合には、処理を終了する。 In step S414, 1 is added to N. In step S415, it is determined whether N is larger than N MAX . If N is N MAX or less, the process proceeds to step S408. If N is larger than N MAX , the process ends.

以上の手続きにより、処理が終了した時点でRAM404の最適曲線格納変数に最適な境界が格納されることになり、すなわち最適な境界が取得される。   With the above procedure, the optimum boundary is stored in the optimum curve storage variable of the RAM 404 at the time when the processing is completed, that is, the optimum boundary is acquired.

なお、本実施形態では、境界候補としてN次曲線のみを用いていたが、これは一例であり、三角関数や指数関数、またROM405に格納された座標テーブルで記述される曲線を用いても良い。これらの曲線を用いる場合には、例えばNの値と用いる関数との対応関係を示す情報を予めRAM404に格納しておき、ステップS408で曲線の算出を行う際に、RAM404に格納された対応関係を参照して用いる関数を決定すればよい。   In the present embodiment, only the Nth-order curve is used as the boundary candidate, but this is an example, and a trigonometric function, an exponential function, or a curve described in the coordinate table stored in the ROM 405 may be used. .. When using these curves, for example, information indicating the correspondence between the value of N and the function to be used is stored in the RAM 404 in advance, and the correspondence stored in the RAM 404 when the curve is calculated in step S408. The function to be used may be determined by referring to.

第1および第2の実施形態では、原稿の上端についてのみ、境界候補の判定・検出を行っている。しかし第1および第2の実施形態の手法を用いれば、座標系の定め方を90度、180度、270度回転させることによって、容易に左端、下端、右端の境界候補を検出することができる。   In the first and second embodiments, the boundary candidate is determined and detected only for the upper end of the document. However, by using the methods of the first and second embodiments, it is possible to easily detect the boundary candidates at the left end, the lower end, and the right end by rotating the method of defining the coordinate system by 90 degrees, 180 degrees, and 270 degrees. ..

また、原稿の特定の端部に対してのみ第1および第2の実施形態に記載の方法による検出を適用し、それ以外の端部は従来技術を用いて検出するものとしても良い。例えば見開き原稿には、原稿の閉じ部を含む端部(例えば、左右開き原稿の場合には上下端)では歪みが発生しやすく、一方、閉じ部を含まない端部(例えば、左右開き原稿の場合には左右端)では歪みが発生しにくいという特徴がある。また歪んで搬送された原稿の場合には、原稿を読み取るラインイメージセンサに該直交の端部では歪みが発生しやすく、原稿を読み取るラインイメージセンサに該平行の端部では歪みが発生しにくいという特徴がある。これらの場合には、歪みが発生しやすい端部の境界を第1および第2の実施形態に記載の方法で検出し、歪みが発生しにくい端部の境界は従来技術で検出するとしても良い。   Further, the detection by the method described in the first and second embodiments may be applied only to a specific end of the document, and the other end may be detected by using the conventional technique. For example, a two-page spread document is likely to be distorted at the end including the closed part of the document (for example, upper and lower ends in the case of a left-right opened document), while on the other hand, the end part that does not include the closed part (for example, a left-right opened document). In some cases, there is a feature that distortion is unlikely to occur at the left and right ends. Further, in the case of a document conveyed with distortion, it is likely that the line image sensor that reads the document is distorted at the orthogonal end portion, and the line image sensor that reads the document is less likely to be distorted at the parallel end portion. There are features. In these cases, the boundary of the end portion where distortion is likely to occur may be detected by the method described in the first and second embodiments, and the boundary of the end portion where distortion is unlikely to occur may be detected by the conventional technique. ..

第1および第2の実施形態では、原稿の1つの端部の境界を検出する際に、検知された原稿端および原稿影の全てを用いて1つの境界を検出していた。しかし、これは一例であり、検出された原稿端および原稿影を複数のグループに分割し、各グループから1つの境界を検出するものとしても良い。なお、検出された原稿端および原稿影を複数のグループに分割する方法としては、例えば、原稿端および原稿影の中で副走査方向の座標が最小となる要素に対して、主走査方向座標が大きい要素(画像上で右側の要素)を1つのグループに分類し、主走査方向座標が小さい要素(画像上で左側の要素)をもう1つのグループに分類するという方法でも良い。   In the first and second embodiments, when detecting the boundary of one edge of the document, one boundary is detected by using all of the detected document edge and document shadow. However, this is an example, and the detected document edge and document shadow may be divided into a plurality of groups, and one boundary may be detected from each group. As a method of dividing the detected document edge and document shadow into a plurality of groups, for example, for the element having the minimum coordinate in the sub-scanning direction in the document edge and document shadow, the main scanning direction coordinate is set. A method of classifying large elements (elements on the right side of the image) into one group and classifying elements having small coordinates in the main scanning direction (elements on the left side of the image) into another group may be used.

301 画像読み取りユニット
302 ピックアップローラ
303 給送ローラ
304 分離ローラ
305 ラインイメージセンサ
306 レジストセンサ
307 対向面
308 搬送ローラ
401 画像読み取り装置
402 画像読み取りユニット
403 画像処理回路
404 RAM
405 ROM
406 CPU
407 外部PC
408 転送部

301 image reading unit 302 pickup roller 303 feeding roller 304 separation roller 305 line image sensor 306 registration sensor 307 facing surface 308 conveying roller 401 image reading device 402 image reading unit 403 image processing circuit 404 RAM
405 ROM
406 CPU
407 External PC
408 transfer unit

Claims (4)

画像データから原稿領域の端部を検出する原稿端検出部と、
前記原稿端検出部によって検出された原稿端の座標に基づいて、原稿領域の境界線を算出する境界線算出部と、
原稿の縁から原稿の影を検出する原稿影検出部と、
前記原稿影検出部によって検出された結果と前記境界線算出部によって算出された境界線との距離を判定する距離判定部と、
距離判定部の判定結果に応じて前記境界線の確からしさを決定する確からしさ判定部と、を備えることを特徴とする、画像処理装置。
A document edge detection unit that detects the edge of the document area from the image data,
A boundary line calculating unit that calculates a boundary line of the document area based on the coordinates of the document edge detected by the document edge detecting unit;
A document shadow detection unit that detects the shadow of the document from the edge of the document,
A distance determination unit that determines the distance between the result detected by the document shadow detection unit and the boundary line calculated by the boundary line calculation unit;
An image processing apparatus, comprising: a certainty determination unit that determines the certainty of the boundary line according to the determination result of the distance determination unit.
前記境界候補線算出部が、曲線を算出することを特徴とする、請求項1に記載の画像読取装置。   The image reading apparatus according to claim 1, wherein the boundary candidate line calculation unit calculates a curve. 前記境界線候補算出部が、多項式で記述される曲線を算出することを特徴とする、請求項1または2に記載の画像読取装置。   The image reading apparatus according to claim 1, wherein the boundary line candidate calculation unit calculates a curve described by a polynomial expression. 前記境界候補線算出部が複数の候補線を算出し、前記確からしさ判定部が前記複数の候補線の中から最も確からしい候補線を判定することを特徴とする、請求項1〜3のいずれか一項に記載の画像読取装置。

4. The boundary candidate line calculation unit calculates a plurality of candidate lines, and the certainty determination unit determines the most probable candidate line from the plurality of candidate lines, any one of claims 1 to 3. The image reading device according to item 1.

JP2018203627A 2018-10-30 2018-10-30 Image processing apparatus Pending JP2020072325A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018203627A JP2020072325A (en) 2018-10-30 2018-10-30 Image processing apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018203627A JP2020072325A (en) 2018-10-30 2018-10-30 Image processing apparatus

Publications (1)

Publication Number Publication Date
JP2020072325A true JP2020072325A (en) 2020-05-07

Family

ID=70548092

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018203627A Pending JP2020072325A (en) 2018-10-30 2018-10-30 Image processing apparatus

Country Status (1)

Country Link
JP (1) JP2020072325A (en)

Similar Documents

Publication Publication Date Title
JP6021557B2 (en) Image processing apparatus, image processing system, image processing method, and image processing program
US9082192B2 (en) Text image trimming method
JP4358193B2 (en) Automatic image cropping method
JP5766073B2 (en) Image processing apparatus, image processing method, image processing program, and image processing system
US10582085B2 (en) Method and device for image processing, and apparatus for image formation
JP3670571B2 (en) Image reading device
JP2013058937A (en) Image processing apparatus, image processing method, image processing program, and image processing system
US10827099B2 (en) Image processing apparatus for determining a threshold for extracting an edge pixel based on a region corresponding to a surface facing an imaging device
CN111832371A (en) Text picture correction method and device, electronic equipment and machine-readable storage medium
US6771842B1 (en) Document image skew detection method
JP2014147046A (en) Image processing apparatus, image processing method, and computer program
US8571313B2 (en) Methods and systems for estimation of document skew in an image
JP6542230B2 (en) Method and system for correcting projected distortion
JP2020072325A (en) Image processing apparatus
JP2007189577A (en) Computer program, image input apparatus, image input system and image input method
JP5693418B2 (en) Image processing apparatus, image processing method, image processing program, and image processing system
JP2002199179A (en) Inclination detector
JP6700705B2 (en) Distribution system, information processing method, and program
JP2004086436A (en) Image processor, image processing method, program, and storage medium
JP2007081882A (en) Apparatus and method for reading manuscript
KR101607004B1 (en) Ship recognition device and Ship recognition method
JP2009284190A (en) Image reading apparatus and image reading system
JPH11288453A (en) Method and system for detecting skew angle and black boundary line of original image in scan environment for reproduction
JP5006250B2 (en) Image correction apparatus, image correction method, image correction program, and recording medium
JP6950237B2 (en) Computer programs and image processing equipment