JP2011145970A - Image processing apparatus, image processing program, and image forming apparatus - Google Patents

Image processing apparatus, image processing program, and image forming apparatus Download PDF

Info

Publication number
JP2011145970A
JP2011145970A JP2010007964A JP2010007964A JP2011145970A JP 2011145970 A JP2011145970 A JP 2011145970A JP 2010007964 A JP2010007964 A JP 2010007964A JP 2010007964 A JP2010007964 A JP 2010007964A JP 2011145970 A JP2011145970 A JP 2011145970A
Authority
JP
Japan
Prior art keywords
image
boundary
document
density
density boundary
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2010007964A
Other languages
Japanese (ja)
Other versions
JP5527523B2 (en
Inventor
Atsushi Ito
篤 伊藤
Natsumi Miyazawa
なつみ 宮澤
Kosuke Maruyama
耕輔 丸山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Business Innovation Corp
Original Assignee
Fuji Xerox Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Xerox Co Ltd filed Critical Fuji Xerox Co Ltd
Priority to JP2010007964A priority Critical patent/JP5527523B2/en
Publication of JP2011145970A publication Critical patent/JP2011145970A/en
Application granted granted Critical
Publication of JP5527523B2 publication Critical patent/JP5527523B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Holders For Sensitive Materials And Originals (AREA)
  • Image Input (AREA)
  • Facsimile Scanning Arrangements (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an image processing apparatus and an image processing program, which accurately extract a document end from an image including a document without using a specific sensor. <P>SOLUTION: A mirror image conversion part 11 converts a given rear image into a mirror image, and a density boundary detection part 12 detects feature amounts such as a boundary direction and boundary strength of a density boundary respectively from a surface image and the rear image converted into the mirror image. From the feature amount of the density boundary in the surface image and the feature amount of the density boundary in the corresponding rear image converted into the mirror image, a document end detection part 13 calculates the degree of similarity of both of the feature amounts, extracts portions determined that the feature amounts are similar to each other from the degree of similarity, and detects a straight density boundary as a document end out of the extracted portions. <P>COPYRIGHT: (C)2011,JPO&INPIT

Description

本発明は、画像処理装置および画像処理プログラム、画像形成装置に関するものである。   The present invention relates to an image processing apparatus, an image processing program, and an image forming apparatus.

従来より、様々な方法により原稿端を検出している。例えば特許文献1では、原稿の読み取り面とは反対の面から照明光を照射することにより原稿を影状に黒く見えるようにして、原稿端を検出している。また、特許文献2では用紙搬送路に画像読取手段を設置し、その画像読取手段によって読み取った画像信号から、明度とともに彩度も参照して、印刷用紙の端を検出している。   Conventionally, document edges are detected by various methods. For example, in Patent Document 1, the edge of a document is detected by illuminating illumination light from a surface opposite to the reading surface of the document so that the document looks black in a shadow shape. Further, in Patent Document 2, an image reading unit is installed in a paper conveyance path, and the edge of the printing paper is detected from an image signal read by the image reading unit with reference to brightness and saturation.

これらの原稿端の検出方法は、いずれも読取装置と連動して原稿端を検出するものである。このように読取装置に特別な構成を加えることなく、単に原稿を読み取った画像などのように、原稿を含む画像から原稿の端部を検出することが考えられている。また、例えば特許文献3では、原稿端ではないが、有効画像の広がりを判別することが行われている。   All of these document edge detection methods detect the document edge in conjunction with the reading device. As described above, it is considered to detect an end portion of an original from an image including the original such as an image obtained by reading the original without adding a special configuration to the reading apparatus. For example, in Patent Document 3, the spread of an effective image is determined although it is not at the document edge.

また本発明と関連する別の従来技術として、鏡像画像を利用する技術がある。例えば特許文献4には、原稿の表面を読み取った表面画像データと、裏面を読み取って鏡像反転した裏面画像データとの濃度を比較して裏写りデータを判別し、裏写りを除去することが記載されている。また、例えば特許文献5には、読み取った原稿表面の左右反転画像を記憶しておき、原稿の裏面画像と表面反転画像とを比較して、表面反転画像の方が裏面画像よりも濃度が薄い場合は、その箇所に対応する表面の画像を消去し出力することにより、裏写りを除去することが記載されている。   Another conventional technique related to the present invention is a technique using a mirror image. For example, Patent Document 4 describes that the show-through data is discriminated by comparing the density of the front-side image data obtained by reading the front side of the document with the back-side image data obtained by reading the back side and mirror-inverted, and removing the show-through. Has been. Further, for example, Patent Document 5 stores a reversed right / left image of the read document surface, and compares the reverse image of the original document with the reverse image of the front surface. The density of the reverse image is lower than that of the reverse image. In the case, it is described that the show-through is removed by erasing and outputting the surface image corresponding to the location.

特開平6−337923号公報JP-A-6-337923 特開2005−269124号公報JP 2005-269124 A 特開2004−236026号公報JP 2004-236026 A 特許第3359180号公報Japanese Patent No. 3359180 特開平11−317858号公報Japanese Patent Laid-Open No. 11-317858

本発明は、特別なセンサを用いずに原稿を含む画像から原稿端を正確に抽出する画像処理装置および画像処理プログラムと、そのような画像処理装置を用いた画像形成装置を提供することを目的とするものである。   An object of the present invention is to provide an image processing apparatus and an image processing program for accurately extracting an edge of an original from an image including an original without using a special sensor, and an image forming apparatus using such an image processing apparatus. It is what.

本願請求項1に記載の発明は、原稿の表面を含む表面画像及び裏面を含む裏面画像からそれぞれ濃度が変化する濃度境界の特徴量を検出する濃度境界検出手段と、前記表面画像から得た濃度境界の特徴量と該濃度境界に対応する前記裏面画像から得た濃度境界の特徴量に従って原稿端を検出する原稿端検出手段を有することを特徴とする画像処理装置である。   According to the first aspect of the present invention, there are provided density boundary detection means for detecting feature values of density boundaries whose density changes from the front image including the front surface of the document and the back image including the back surface, and the density obtained from the surface image. An image processing apparatus comprising document edge detecting means for detecting a document edge according to a feature value of a boundary and a feature value of a density boundary obtained from the back image corresponding to the density boundary.

本願請求項2に記載の発明は、本願請求項1に記載の発明の構成に、さらに、前記表面画像または前記裏面画像のいずれか一方を鏡像変換する鏡像変換手段を有し、前記濃度境界検出手段は、前記表面画像または前記裏面画像として前記鏡像変換手段で鏡像変換された画像を用いて少なくとも濃度境界の方向を特徴量として検出し、前記原稿端検出手段は、前記表面画像から得た濃度境界の特徴量と該濃度境界に対応する前記裏面画像から得た濃度境界の特徴量の類似度から前記原稿端を検出することを特徴とする画像処理装置である。   The invention according to claim 2 of the present application further includes mirror image conversion means for performing mirror image conversion of either the front image or the back image in the configuration of the invention according to claim 1, and the density boundary detection The means detects at least the direction of the density boundary as the feature amount using the image subjected to mirror image conversion by the mirror image conversion means as the front image or the back image, and the document edge detection means detects the density obtained from the front image. The image processing apparatus is characterized in that the document edge is detected from a similarity between a boundary feature amount and a density boundary feature amount obtained from the back image corresponding to the density boundary.

本願請求項3に記載の発明は、本願請求項1に記載の発明における前記濃度境界検出手段が、少なくとも濃度境界の方向を特徴量として検出し、前記原稿端検出手段が、前記表面画像から得た濃度境界の特徴量と、該特徴量を得た前記表面画像における濃度境界の位置と鏡像関係の位置にある前記裏面画像から得た濃度境界の特徴量との類似度を算出するとともに、方向を有する特徴量については一方の特徴量における方向を鏡像変換して前記類似度を算出し、前記類似度に従って前記原稿端を検出することを特徴とする画像処理装置である。   In the invention according to claim 3 of the present application, the density boundary detection means in the invention according to claim 1 detects at least the direction of the density boundary as a feature amount, and the document edge detection means obtains from the surface image. And calculating the similarity between the density boundary feature amount and the density boundary feature amount obtained from the back image in a mirror image-related position with respect to the density boundary position in the surface image from which the feature amount was obtained, and the direction The image processing apparatus is characterized in that the similarity is calculated by mirror-transforming the direction of one of the feature values, and the document edge is detected according to the similarity.

本願請求項4に記載の発明は、本願請求項2または請求項3に記載の発明における前記原稿端検出手段が、前記表面画像と前記裏面画像との予め決められた大きさの領域内で類似度を算出することを特徴とする画像処理装置である。   In the invention described in claim 4 of the present application, the document edge detecting means in the invention described in claim 2 or claim 3 of the present invention is similar in a region having a predetermined size between the front image and the back image. An image processing apparatus characterized by calculating a degree.

本願請求項5に記載の発明は、本願請求項1から請求項4のいずれか1項に記載の発明における前記原稿端検出手段が、前記特徴量をもとに直線部分を抽出し,画像の最も端に位置する直線を原稿端として検出することを特徴とする画像処理装置である。   In the invention according to claim 5 of the present application, the document edge detecting means according to any one of claims 1 to 4 extracts a straight line portion based on the feature amount, and An image processing apparatus is characterized in that a straight line located at the end is detected as a document edge.

本願請求項6に記載の発明は、原稿の表面及び裏面を含む画像を読み取って表面画像及び裏面画像として出力する読取手段と、前記表面画像及び前記裏面画像を受け取って原稿端を検出する請求項1から請求項5のいずれか1項に記載の画像処理装置と、画像を媒体上に形成する形成手段と、前記表面画像及び前記裏面画像に対して前記画像処理装置で検出した前記原稿端をもとに前記画像形成手段で形成する画像を作成する画像作成手段を有することを特徴とする画像形成装置である。   The invention according to claim 6 of the present application is a reading means for reading an image including a front surface and a back surface of a document and outputting it as a front image and a back image, and receiving the front image and the back image to detect a document edge. The image processing apparatus according to any one of claims 1 to 5, forming means for forming an image on a medium, and the document edge detected by the image processing apparatus with respect to the front surface image and the back surface image. An image forming apparatus comprising image forming means for creating an image formed by the image forming means.

本願請求項7に記載の発明は、コンピュータに、請求項1から請求項5のいずれか1項に記載の画像処理装置の機能を実行させるものであることを特徴とする画像処理プログラムである。   The invention according to claim 7 of the present application is an image processing program for causing a computer to execute the function of the image processing apparatus according to any one of claims 1 to 5.

本願請求項1に記載の発明によれば、本構成を有しない場合に比べて、原稿を含む画像から原稿端を正確に検出することができる。   According to the first aspect of the present invention, it is possible to accurately detect the document edge from the image including the document as compared with the case where the present configuration is not provided.

本願請求項2に記載の発明によれば、本構成を有しない場合に比べて、ノイズなどに対して安定して原稿端を検出することができる。   According to the second aspect of the present invention, the document edge can be detected more stably against noise or the like than in the case where the present configuration is not provided.

本願請求項3に記載の発明によれば、本構成を有しない場合に比べて、ノイズなどに対して安定して原稿端を検出することができる。   According to the third aspect of the present invention, it is possible to detect the document edge stably against noise or the like as compared with the case where the present configuration is not provided.

本願請求項4に記載の発明によれば、表面画像と裏面画像中の原稿位置がずれていても原稿端を検出することができる。   According to the fourth aspect of the present invention, the document edge can be detected even if the document positions in the front image and the back image are shifted.

本願請求項5に記載の発明によれば、原稿に描かれている内容によらず、原稿端を検出することができる。   According to the fifth aspect of the present invention, it is possible to detect the edge of the document regardless of the contents drawn on the document.

本願請求項6に記載の発明によれば、本構成を有しない場合に比べて、原稿の画像部分を正確に処理し、媒体上に形成することができる。   According to the invention described in claim 6 of the present application, the image portion of the original can be processed accurately and formed on the medium as compared with the case without this configuration.

本願請求項7に記載の発明によれば、本願請求項1から請求項5のいずれか1項に記載の発明の効果を得ることができる。   According to the invention of claim 7 of the present application, the effect of the invention of any one of claims 1 to 5 can be obtained.

本発明の画像処理装置の第1の実施の形態を示す構成図である。1 is a configuration diagram illustrating a first embodiment of an image processing apparatus of the present invention. 本発明の画像処理装置の第1の実施の形態における動作の一例を示す流れ図である。3 is a flowchart showing an example of an operation in the first embodiment of the image processing apparatus of the present invention. 本発明の画像処理装置の第1の実施の形態における動作の一例により処理される画像の具体例の説明図である。It is explanatory drawing of the specific example of the image processed by an example of operation | movement in 1st Embodiment of the image processing apparatus of this invention. 本発明の画像処理装置の第2の実施の形態を示す構成図である。It is a block diagram which shows 2nd Embodiment of the image processing apparatus of this invention. 本発明の画像処理装置の第2の実施の形態における動作の一例を示す流れ図である。It is a flowchart which shows an example of operation | movement in 2nd Embodiment of the image processing apparatus of this invention. 本発明の画像処理装置の第2の実施の形態における動作の一例により処理される画像の具体例の説明図である。It is explanatory drawing of the specific example of the image processed by an example of operation | movement in 2nd Embodiment of the image processing apparatus of this invention. 本発明の画像形成装置の実施の一形態を示す構成図である。1 is a configuration diagram showing an embodiment of an image forming apparatus of the present invention. 本発明の画像処理装置の各実施の形態で説明した機能をコンピュータプログラムで実現した場合におけるコンピュータプログラム及びそのコンピュータプログラムを格納した記憶媒体とコンピュータの一例の説明図である。FIG. 11 is an explanatory diagram of an example of a computer program, a storage medium storing the computer program, and a computer when the functions described in the embodiments of the image processing apparatus of the present invention are realized by a computer program.

図1は、本発明の画像処理装置の第1の実施の形態を示す構成図である。図中、11は鏡像変換部、12は濃度境界検出部、13は原稿端検出部である。以下に説明する実施の形態では、原稿の表面を含む表面画像及び裏面を含む裏面画像が与えられるものとする。表面画像と裏面画像は、例えば原稿の表裏を一括して読み取る画像読取装置などによって取得されたものでよい。   FIG. 1 is a configuration diagram showing a first embodiment of an image processing apparatus according to the present invention. In the figure, 11 is a mirror image conversion unit, 12 is a density boundary detection unit, and 13 is a document edge detection unit. In the embodiment described below, it is assumed that a front image including the front surface of the document and a back image including the back surface are provided. For example, the front image and the back image may be acquired by an image reading device that reads the front and back of a document at once.

鏡像変換部11は、与えられた表面画像または裏面画像のいずれか一方を鏡像変換する。   The mirror image conversion unit 11 performs mirror image conversion on one of the given front surface image and back surface image.

濃度境界検出部12は、表面画像及び裏面画像からそれぞれ濃度が変化する濃度境界の特徴量を検出する。表面画像または裏面画像の一方は、鏡像変換部11で鏡像変換された画像を用いる。例えば鏡像変換部11で表面画像を鏡像変換した場合には、鏡像変換した画像から表面画像における濃度境界の特徴量を検出するとともに、与えられた裏面画像から裏面画像における濃度境界の特徴量を検出する。あるいは、例えば鏡像変換部11で裏面画像を鏡像変換した場合には、鏡像変換した画像から裏面画像における濃度境界の特徴量を検出するとともに、与えられた表面画像から表面画像における濃度境界の特徴量を検出する。検出する濃度境界の特徴量としては、例えば、濃度境界の方向や強度などを抽出すればよい。もちろん、長さや他の特徴量を抽出してもよいことは言うまでもない。   The density boundary detection unit 12 detects a feature amount of a density boundary whose density changes from the front image and the back image. One of the front image and the back image uses an image that has undergone mirror image conversion by the mirror image conversion unit 11. For example, when the mirror image is converted by the mirror image conversion unit 11, the feature value of the density boundary in the front image is detected from the image subjected to the mirror image conversion, and the feature value of the density boundary in the back image is detected from the given back image. To do. Alternatively, for example, when the rear surface image is mirror-image converted by the mirror image conversion unit 11, the feature value of the density boundary in the rear image is detected from the mirror-image-converted image, and the feature value of the density boundary in the front image from the given front image Is detected. As the feature value of the density boundary to be detected, for example, the direction and intensity of the density boundary may be extracted. Of course, it goes without saying that the length and other feature quantities may be extracted.

原稿端検出部13は、表面画像における濃度境界の特徴量と、対応する裏面画像における濃度境界の特徴量に従い、原稿端を検出する。例えば両者の特徴量の類似度を算出すればよい。類似度の算出の際には、表面画像と裏面画像との位置ズレなどを考慮し、予め決められた大きさの領域内で類似度を算出するように構成するとよい。例えば表面画像と裏面画像の両方に存在している濃度境界については、類似度から特徴量が類似していると判断されるので、そのような濃度境界を見つけ出せばよい。また、そのような濃度境界が原稿内に存在する場合でも、原稿端となる濃度境界は最も外側に存在するはずであることから、見つけた濃度境界のうち最も端に位置する直線状の濃度境界を原稿端として検出すればよい。   The document edge detection unit 13 detects the document edge according to the feature value of the density boundary in the front image and the feature value of the density boundary in the corresponding back image. For example, what is necessary is just to calculate the similarity of both feature-values. When calculating the degree of similarity, it is preferable that the degree of similarity be calculated within an area having a predetermined size in consideration of positional deviation between the front surface image and the back surface image. For example, with respect to the density boundary existing in both the front image and the back image, it is determined from the similarity that the feature amount is similar, and it is only necessary to find such a density boundary. Even if such a density boundary exists in the document, the density boundary at the edge of the document should exist at the outermost side. May be detected as the document edge.

図2は、本発明の画像処理装置の第1の実施の形態における動作の一例を示す流れ図である。S61において、鏡像変換部11は、与えられた表面画像または裏面画像のいずれか一方を鏡像変換する。ここでは裏面画像を鏡像変換することとする。   FIG. 2 is a flowchart showing an example of the operation of the image processing apparatus according to the first embodiment of the present invention. In S <b> 61, the mirror image conversion unit 11 performs mirror image conversion on one of the given front surface image and back surface image. Here, it is assumed that the back image is subjected to mirror image conversion.

S62において、濃度境界検出部12は、表面画像及び鏡像変換された裏面画像から、それぞれ濃度が変化する濃度境界の特徴量を検出する。ここでは少なくとも境界方向を検出するものとし、境界強度についても検出するものとする。   In S <b> 62, the density boundary detection unit 12 detects a feature value of the density boundary whose density changes from the front surface image and the mirror image-converted back surface image. Here, at least the boundary direction is detected, and the boundary strength is also detected.

S63において、原稿端検出部13は、まず濃度境界の特徴量の類似度を算出する。表面画像と鏡像変換された裏面画像の対応する位置における濃度境界の境界方向のなす角度をθとし、例えば類似度の関数F(θ)により値を求めればよい。関数F(θ)としては、ここではθが小さいほど値が大きくなるものとし、例えばθの逆数、cosθ、二値出力関数(1:0≦θ<Th、0:Th<θ)などが考えられる。もちろん、このほかの関数でもよく、境界強度を求めている場合には境界方向とともに境界ベクトルとして内積などのベクトル演算により類似度を求めてもよい。   In step S63, the document edge detection unit 13 first calculates the similarity of the feature value of the density boundary. The angle formed by the boundary direction of the density boundary at the corresponding position of the front image and the mirror image converted back image is θ, and the value may be obtained by, for example, the similarity function F (θ). Here, as the function F (θ), the smaller the θ, the larger the value. For example, the inverse of θ, cos θ, binary output function (1: 0 ≦ θ <Th, 0: Th <θ), etc. are considered. It is done. Of course, other functions may be used. When the boundary strength is obtained, the similarity may be obtained by a vector operation such as an inner product as a boundary vector together with the boundary direction.

原稿端検出部13は、S63で求めた類似度をもとに原稿端を抽出するが、その処理の一つとして、ここではS64において類似度画像を作成し、S65において類似度画像から直線を検出する処理を行う例を示している。S64において作成する類似度画像は、単純には、類似度を算出した表面画像及び鏡像変換した裏面画像と対応する位置の値としてS63で算出した類似度の値を並べればよい。あるいは、表面画像及び鏡像変換した裏面画像の対応する位置における画素値(色)の和または境界強度の和に類似度を乗算して求めた値を並べてもよい。もちろんこのほかにも、類似度に応じた特徴量の線形和、非線形和を求めるなど、種々の方法により求めた値を並べてもよい。   The document edge detection unit 13 extracts document edges based on the similarity obtained in S63. As one of the processes, here, a similarity image is created in S64, and a straight line is created from the similarity image in S65. The example which performs the process to detect is shown. For the similarity image created in S64, the similarity value calculated in S63 may be arranged as a position value corresponding to the front image for which the similarity is calculated and the back image subjected to the mirror image conversion. Alternatively, values obtained by multiplying the sum of pixel values (colors) or sum of boundary intensities at corresponding positions in the front image and the mirror image converted back image may be arranged. Of course, in addition to this, values obtained by various methods such as obtaining a linear sum or a nonlinear sum of feature amounts according to the degree of similarity may be arranged.

このようにして得られた類似度画像をもとに、S65において直線を検出する。表面画像と鏡像変換された裏面画像の対応する位置に共通して存在する濃度境界については類似度の値が大きくなるようにしている。原稿端は表面画像と鏡像変換された裏面画像の対応する位置に共通して存在する直線であることから、類似度画像から直線を検出すれば、検出された直線の中に原稿端が含まれることになる。なお、直線検出の方法としては、例えばハフ変換や端部追跡など、周知の方法を使用すればよい。   A straight line is detected in S65 based on the similarity image thus obtained. The similarity value is increased for the density boundary that exists in common at the corresponding positions of the front image and the mirror image converted back image. Since the document edge is a straight line that exists in common at the corresponding position of the front image and the mirror image converted back image, if the straight line is detected from the similarity image, the detected document line includes the document edge. It will be. As a straight line detection method, for example, a known method such as Hough transform or edge tracking may be used.

最後にS66において、S65で検出した直線の中から原稿端を抽出する。原稿内に種々の直線が描かれていたとしても、原稿端は最も外周に位置する直線であることから、最も端に位置する直線を原稿端として抽出すればよい。あるいは、原稿端の直線は文字などの直線に比べて長いことから、最も長い直線を原稿端として抽出してもよい。このようにして、対応する表面画像と裏面画像から原稿端が抽出される。   Finally, in S66, the document edge is extracted from the straight line detected in S65. Even if various straight lines are drawn in the original, the end of the original is the straight line located at the outermost periphery, and therefore, the straight line located at the end may be extracted as the original end. Alternatively, since the straight line at the document edge is longer than the straight line such as characters, the longest straight line may be extracted as the document edge. In this way, the document edge is extracted from the corresponding front and back images.

上述の動作の一例について具体例を用いて説明する。図3は、本発明の画像処理装置の第1の実施の形態における動作の一例により処理される画像の具体例の説明図である。図3(A)は与えられた表面画像と裏面画像を示している。例えば原稿の表裏を一括して読み取る画像読取装置などによって表面画像と裏面画像を取得する場合を考えると、読取の際に原稿が傾斜した状態で画像が読み取られることがある。しかし、読み取られた表面画像と裏面画像では、その原稿の形状は鏡像関係にある。図3(A)に示した表面画像と裏面画像においても、原稿の外形は鏡像関係にある。   An example of the above operation will be described using a specific example. FIG. 3 is an explanatory diagram of a specific example of an image processed by an example of an operation in the first embodiment of the image processing apparatus of the present invention. FIG. 3A shows the given front and back images. For example, when considering a case where a front image and a back image are acquired by an image reading device that reads the front and back of a document at once, an image may be read with the document tilted during reading. However, in the read front image and back image, the shape of the document has a mirror image relationship. Also in the front and back images shown in FIG. 3A, the outline of the document has a mirror image relationship.

まず、鏡像変換部11により、与えられた表面画像または裏面画像のいずれか一方を鏡像変換する。ここでは裏面画像を鏡像変換する。図3(B)においては、裏面画像として鏡像変換された画像を示している。   First, the mirror image conversion unit 11 performs mirror image conversion on either one of the given front surface image or back surface image. Here, the back image is mirror-image converted. FIG. 3B shows a mirror image-converted image as the back image.

次に濃度境界検出部12では、表面画像及び鏡像変換された裏面画像から、それぞれ濃度が変化する濃度境界の特徴量を検出する。図3(B)では、画像中の4点について、特徴量として検出した境界方向を矢線により示している。表面画像における点aは原稿端部分であり、点bは原稿に描かれた線分領域であり、点cは原稿上の雑音部分であり、点dは原稿外の雑音部分である。表面画像の各位置に対応する鏡像変換された裏面画像中の位置をa’,b’,c’,d’として示している。なお、鏡像変換された裏面画像におけるc’、d’においては濃度境界が存在しないため矢線は示していない。   Next, the density boundary detection unit 12 detects a feature value of the density boundary where the density changes from the front surface image and the back image subjected to mirror image conversion. In FIG. 3B, the boundary direction detected as the feature amount for four points in the image is indicated by arrow lines. A point a in the front image is an end portion of the document, a point b is a line segment region drawn on the document, a point c is a noise portion on the document, and a point d is a noise portion outside the document. The positions in the rear image subjected to mirror image conversion corresponding to the respective positions of the front image are indicated as a ', b', c ', d'. Note that arrow lines are not shown in c ′ and d ′ in the mirror image-converted back image because there is no density boundary.

濃度境界の特徴量を検出したら、原稿端検出部13において、まず濃度境界の特徴量の類似度を算出し、ここでは類似度画像を作成する。類似度画像の一例を図3(C)に示している。図3(C)では、表面画像と鏡像変換された裏面画像の対応する部分が類似している場合に黒く示している。   When the feature value of the density boundary is detected, the document edge detection unit 13 first calculates the similarity of the feature value of the density boundary, and creates a similarity image here. An example of the similarity image is shown in FIG. In FIG. 3C, when the corresponding part of the front surface image and the back image subjected to the mirror image conversion is similar, it is shown in black.

例えば図3(B)に示した表面画像と鏡像変換された裏面画像の対応する点における特徴量を比較すると、表面画像の点aにおける濃度境界の境界方向と鏡像変換された裏面画像の点a’における境界方向とから類似度を算出することにより、この部分では類似していることになるため図3(C)では黒く示している。しかし、点bにおける境界方向と点b’における境界方向は異なっており、従って算出した類似度から図3(C)では白く示している。さらに、表面画像では点c及び点dにおいて境界方向が検出されているが、鏡像変換された裏面画像では対応する点c’及び点d’においては濃度境界が存在しておらず、境界方向も検出されていない。従って、これらの部分についても図3(C)では白く示している。このようにして各点について類似している部分を黒く、類似していない部分を白くすると、図3(C)に示すように、原稿端と、たまたま表面画像と鏡像変換された裏面画像とに共通する線分が存在した部分が黒くなった類似度画像が得られる。例えば原稿端の濃度差が文字などの線に比べて薄い場合でも、類似度画像でははっきりと現れる。また、画像中に点cや点dなどの雑音が存在していても、類似度画像では消去されることになる。なお、図3(C)に示した類似度画像は説明のためのものであり、実際には白、黒ではなく、二値または多値の値を有するものであってよい。   For example, when comparing the feature amounts at corresponding points of the front image and the mirror image-converted back image shown in FIG. 3B, the boundary direction of the density boundary at the point a of the front image and the point a of the mirror image-converted back image By calculating the similarity from the boundary direction at “′”, it is similar in this portion, so it is shown in black in FIG. However, the boundary direction at the point b is different from the boundary direction at the point b ', and is therefore shown in white in FIG. 3C from the calculated similarity. Further, the boundary direction is detected at the point c and the point d in the front image, but the density boundary does not exist at the corresponding point c ′ and the point d ′ in the mirror image converted back surface, and the boundary direction is also Not detected. Therefore, these portions are also shown in white in FIG. In this way, when a similar part for each point is black and a non-similar part is white, as shown in FIG. 3C, a document edge, and it happens to be a front image and a mirror image converted back image. A similarity image in which the portion where the common line segment exists is black is obtained. For example, even when the density difference at the edge of the document is lighter than a line such as a character, it appears clearly in the similarity image. Even if noise such as point c or point d exists in the image, it is deleted in the similarity image. Note that the similarity image shown in FIG. 3C is for explanation, and may actually have a binary or multivalued value instead of white or black.

図3(C)に示した類似度画像から直線部分を検出すると、この例では図3(D)に示すように、原稿端が抽出されることになる。例えば最も外周に位置する直線を抽出すれば、原稿端が抽出される。あるいは、予め決めておいた長さより長い直線を検出すれば、文字などから得られた線分は除外される。また、例えば原稿端となる線分が途切れていても、各線分から得られる直線が重複している場合に線分を統合すれば、原稿端となる直線が得られる。   When a straight line portion is detected from the similarity image shown in FIG. 3C, in this example, the document edge is extracted as shown in FIG. 3D. For example, if the straight line located at the outermost periphery is extracted, the document edge is extracted. Alternatively, if a straight line longer than a predetermined length is detected, a line segment obtained from a character or the like is excluded. For example, even if the line segment serving as the document edge is interrupted, if the line segments obtained from the line segments overlap, the line segments serving as the document edge can be obtained by integrating the line segments.

図4は、本発明の画像処理装置の第2の実施の形態を示す構成図である。この第2の実施の形態では、画像を鏡像変換せずに、原稿端を検出する際に鏡像の位置の特徴量を比較して類似度を算出するようにした例を示している。なお、第1の実施の形態と異なる部分について主に説明する。   FIG. 4 is a block diagram showing a second embodiment of the image processing apparatus of the present invention. In this second embodiment, an example is shown in which the similarity is calculated by comparing the feature quantity of the position of the mirror image when detecting the document edge without performing mirror image conversion of the image. Note that differences from the first embodiment will be mainly described.

この第2の実施の形態では鏡像変換部11を有しておらず、画像に対する鏡像変換を行わないので、濃度境界検出部12では、与えられた表面画像及び裏面画像から、それぞれ濃度境界の特徴量を検出する。   Since the second embodiment does not have the mirror image conversion unit 11 and does not perform mirror image conversion on the image, the density boundary detection unit 12 determines the characteristics of the density boundary from the given front surface image and back surface image, respectively. Detect the amount.

原稿端検出部13は、表面画像における濃度境界の特徴量と、対応する裏面画像における濃度境界の特徴量に従い、原稿端を検出する。表面画像と裏面画像の対応する位置は、互いに鏡像関係にある位置であり、鏡像関係にある位置における特徴量の類似度を算出すればよい。類似度の算出の際には、表面画像と裏面画像との位置ズレなどを考慮し、予め決められた大きさの領域内で類似度を算出するように構成するとよい。特徴量として濃度境界の境界方向を用いる場合、表面画像と裏面画像が互いに鏡像の関係にあることから、濃度境界検出部12で検出した境界方向も鏡像の関係にある。従って、類似度を算出する際には、表面画像から得た境界方向か、あるいは裏面画像から得た境界方向のいずれか一方について、鏡像関係にある方向に変換しておく。   The document edge detection unit 13 detects the document edge according to the feature value of the density boundary in the front image and the feature value of the density boundary in the corresponding back image. The corresponding positions of the front image and the back image are positions that have a mirror image relationship with each other, and the similarity of the feature amounts at the positions that have the mirror image relationship may be calculated. When calculating the degree of similarity, it is preferable that the degree of similarity be calculated within an area having a predetermined size in consideration of positional deviation between the front surface image and the back surface image. When the boundary direction of the density boundary is used as the feature amount, the front surface image and the back surface image have a mirror image relationship with each other, and therefore the boundary direction detected by the density boundary detection unit 12 has a mirror image relationship. Therefore, when calculating the similarity, either the boundary direction obtained from the front surface image or the boundary direction obtained from the back surface image is converted into a direction having a mirror image relationship.

図5は、本発明の画像処理装置の第2の実施の形態における動作の一例を示す流れ図である。S71において、濃度境界検出部12は、与えられた表面画像及び裏面画像から、それぞれ濃度が変化する濃度境界の特徴量を検出する。ここでは少なくとも境界方向を検出するものとし、境界強度についても検出するものとする。   FIG. 5 is a flowchart showing an example of the operation of the image processing apparatus according to the second embodiment of the present invention. In S <b> 71, the density boundary detection unit 12 detects a feature value of a density boundary whose density changes from the given front surface image and back surface image. Here, at least the boundary direction is detected, and the boundary strength is also detected.

S72において、原稿端検出部13は、まず、表面画像及び裏面画像のいずれか一方について、S71で検出した濃度境界の特徴量のうち境界方向について鏡像変換する。ここでは上述の第1の実施の形態における鏡像変換部11で行った画像全体の鏡像変換は行わない。   In step S72, the document edge detection unit 13 first performs a mirror image conversion on one of the front surface image and the back surface image in the boundary direction among the feature values of the density boundary detected in step S71. Here, the mirror image conversion of the entire image performed by the mirror image conversion unit 11 in the first embodiment is not performed.

続いてS73において、原稿端検出部13は濃度境界の特徴量の類似度を算出する。この際に、表面画像の位置と鏡像の関係にある裏面画像の位置における濃度境界の特徴量から類似度を算出する。類似度の算出方法については第1の実施の形態で述べたので、ここでは省略するが、境界方向の類似度は方向の角度差が0度や180度で最大となり、90度や270度で最小となるように類似度を算出するとよい。   In step S73, the document edge detection unit 13 calculates the similarity between the feature values of the density boundary. At this time, the similarity is calculated from the feature value of the density boundary at the position of the back image in the relationship between the position of the front image and the mirror image. Since the calculation method of the similarity is described in the first embodiment, it is omitted here. However, the similarity in the boundary direction is maximum when the angle difference between the directions is 0 degree or 180 degrees, and is 90 degrees or 270 degrees. It is advisable to calculate the similarity so as to minimize it.

原稿端検出部13がS74以降の処理で行う類似度画像の作成、直線検出、原稿端抽出などの処理についても、第1の実施の形態で説明した図2のS64以降の処理であるので、ここでは説明を省略する。このようにして、画像を鏡像変換する代わりに、濃度境界の境界方向の鏡像変換と類似度算出の際の表面画像及び裏面画像の参照位置を変更するように構成しても、原稿端が得られることになる。   The processes such as the similarity image creation, straight line detection, and document edge extraction performed by the document edge detection unit 13 in the processes after S74 are also the processes after S64 in FIG. 2 described in the first embodiment. The description is omitted here. In this way, instead of performing mirror image conversion on the image, the document edge can be obtained even if the configuration is such that the reference position of the front image and back image in the mirror image conversion in the boundary direction of the density boundary and the similarity calculation is changed. Will be.

上述の動作の一例について具体例を用いて説明する。図6は、本発明の画像処理装置の第2の実施の形態における動作の一例により処理される画像の具体例の説明図である。図6(A)は与えられた表面画像と裏面画像を示しており、図3(A)に示したものである。   An example of the above operation will be described using a specific example. FIG. 6 is an explanatory diagram of a specific example of an image processed by an example of the operation in the second embodiment of the image processing apparatus of the present invention. FIG. 6A shows the given front and back images, which are shown in FIG.

まず、濃度境界検出部12では、表面画像及び裏面画像から、それぞれ濃度が変化する濃度境界の特徴量を検出する。図6(A)では、画像中の4点について、特徴量として検出した境界方向を矢線により示している。表面画像における点aと点eは原稿端部分であり、点bは原稿に描かれた線分領域であり、点cは原稿上の雑音部分であり、点dは原稿外の雑音部分である。表面画像の各位置に対応する鏡像変換された裏面画像中の位置をa’,b’,c’,d’,e’として示している。なお、鏡像変換された裏面画像におけるc’、d’においては濃度境界が存在しないため矢線は示していない。   First, the density boundary detection unit 12 detects a feature value of a density boundary whose density changes from the front image and the back image. In FIG. 6A, the boundary direction detected as the feature amount is indicated by arrow lines for four points in the image. In the front image, points a and e are document edge portions, point b is a line segment region drawn on the document, point c is a noise portion on the document, and point d is a noise portion outside the document. . The positions in the back image subjected to mirror image conversion corresponding to the respective positions of the front image are indicated as a ', b', c ', d', e '. Note that arrow lines are not shown in c ′ and d ′ in the mirror image-converted back image because there is no density boundary.

濃度境界の特徴量を検出したら、原稿端検出部13において、まず表面画像あるいは裏面画像のいずれか一方について、濃度境界検出部12で検出した濃度境界の特徴量のうち境界方向を鏡像変換しておく。ここでは図6(A)の裏面画像から検出した濃度境界の境界方向について、図中に「変換方向」と示した方向に鏡像変換するものとし、その結果を図6(B)に示している。裏面画像自体は鏡像変換されないが、境界方向を示している矢線の向きが鏡像変換されている。   When the feature value of the density boundary is detected, the document edge detection unit 13 first performs mirror image conversion of the boundary direction among the feature values of the density boundary detected by the density boundary detection unit 12 for either the front image or the back image. deep. Here, the boundary direction of the density boundary detected from the back surface image of FIG. 6A is assumed to be mirror-image converted in the direction indicated as “conversion direction” in the figure, and the result is shown in FIG. 6B. . The back image itself is not mirror-image converted, but the direction of the arrow indicating the boundary direction is mirror-image converted.

図6(B)に示した表面画像と裏面画像の鏡像の位置における特徴量を比較すると、例えば表面画像の点aにおける濃度境界の境界方向と裏面画像の点a’における鏡像変換された境界方向とから類似度を算出することにより、この部分では類似していることになるため図6(C)では黒く示している。しかし、点bにおける境界方向と点b’における鏡像変換された境界方向は異なっており、従って算出した類似度から図6(C)では白く示している。さらに、表面画像では点c及び点dにおいて境界方向が検出されているが、裏面画像では鏡像関係の位置にある点c’及び点d’においては濃度境界が存在しておらず、境界方向も検出されていない。従って、これらの部分についても図6(C)では白く示している。さらに、表面画像の点eにおける濃度境界の境界方向と裏面画像の点e’における鏡像変換された境界方向とは反対を向いているが、上述のように0度及び180度で最大となるように類似度を算出すれば、この部分では類似していることが検出されるので図6(C)では黒く示している。   Comparing the feature quantities at the positions of the mirror images of the front image and the back image shown in FIG. 6B, for example, the boundary direction of the density boundary at the point a of the front image and the boundary direction after the mirror image conversion at the point a ′ of the back image By calculating the similarity from the above, it is similar in this part, so it is shown in black in FIG. However, the boundary direction at the point b is different from the boundary direction obtained by mirror image conversion at the point b ', and is therefore shown in white in FIG. 6C from the calculated similarity. Further, the boundary direction is detected at the point c and the point d in the front image, but the density boundary does not exist at the point c ′ and the point d ′ at the mirror image positions in the back image, and the boundary direction is also Not detected. Accordingly, these portions are also shown in white in FIG. Further, although the boundary direction of the density boundary at the point e of the front image and the boundary direction after the mirror image conversion at the point e ′ of the back image are directed opposite to each other, they are maximized at 0 degree and 180 degrees as described above. If the similarity is calculated, it is detected that the image is similar in this portion, and is shown in black in FIG.

このようにして各点について類似している部分を黒く、類似していない部分を白くすると、図6(C)に示すように、原稿端と、たまたま表面画像と鏡像変換された裏面画像とに共通する線分が存在した部分が黒くなった類似度画像が得られる。例えば原稿端の濃度差が文字などの線に比べて薄い場合でも、類似度画像でははっきりと現れる。また、画像中に点cや点dなどの雑音が存在していても、類似度画像では消去されることになる。なお、図6(C)に示した類似度画像は説明のためのものであり、実際には白、黒ではなく、二値または多値の値を有するものであってよい。   In this way, when a similar part for each point is black and a non-similar part is white, as shown in FIG. 6C, an original image, and it happens to be a front image and a mirror image-converted back image. A similarity image in which the portion where the common line segment exists is black is obtained. For example, even when the density difference at the edge of the document is lighter than a line such as a character, it appears clearly in the similarity image. Even if noise such as point c or point d exists in the image, it is deleted in the similarity image. Note that the similarity image shown in FIG. 6C is for explanation, and may actually have a binary or multivalued value instead of white or black.

図6(C)に示した類似度画像から直線部分を検出すると、この例では図6(D)に示すように、原稿端が抽出されることになる。例えば最も外周に位置する直線を抽出すれば、原稿端が抽出される。あるいは、予め決めておいた長さより長い直線を検出すれば、文字などから得られた線分は除外されて原稿端が抽出される。また、例えば原稿端となる線分が途切れていても、各線分から得られる直線が重複している場合に線分を統合すれば、原稿端となる直線が得られる。   When a straight line portion is detected from the similarity image shown in FIG. 6C, in this example, the document edge is extracted as shown in FIG. 6D. For example, if the straight line located at the outermost periphery is extracted, the document edge is extracted. Alternatively, if a straight line longer than a predetermined length is detected, a line segment obtained from characters or the like is excluded and the document edge is extracted. For example, even if the line segment serving as the document edge is interrupted, if the line segments obtained from the line segments overlap, the line segments serving as the document edge can be obtained by integrating the line segments.

図7は、本発明の画像形成装置の実施の一形態を示す構成図である。図中、21,22は読取部、23は画像処理部、24は画像作成部、25は形成部である。読取部21,22は、原稿の表面及び裏面を含む画像を読み取って表面画像及び裏面画像として出力する。原稿の両面を読み取る構成としては、周知の構成を適用すればよい。   FIG. 7 is a block diagram showing an embodiment of the image forming apparatus of the present invention. In the figure, 21 and 22 are reading units, 23 is an image processing unit, 24 is an image creating unit, and 25 is a forming unit. The reading units 21 and 22 read an image including the front and back surfaces of the document and output the images as a front image and a back image. A known configuration may be applied as the configuration for reading both sides of the document.

画像処理部23は、本発明の画像処理装置の実施の形態として上述したものであり、読取部21で読み取った表面画像及び裏面画像を受け取り、原稿端を検出して画像作成部24に検出結果を渡す。   The image processing unit 23 has been described above as the embodiment of the image processing apparatus of the present invention. The image processing unit 23 receives the front image and the back image read by the reading unit 21, detects the document edge, and detects the detection result in the image creation unit 24. give.

画像作成部24は、読取部21で読み取った表面画像及び裏面画像に対して、画像処理部23から渡される原稿端の検出結果をもとに、形成部25で形成する画像を作成する。例えば、原稿端の検出結果から原稿の位置、大きさ、傾きなどが分かるので、傾きを補正し、補正後の原稿部分の画像を切り出せばよい。あるいはさらに、形成部25で使用する媒体の大きさに応じた拡大縮小処理などを行ってもよい。あるいは切り出した画像の大きさに応じた大きさの媒体を指定して形成部25に画像の形成を指示してもよい。また、例えば原稿端の検出結果から原稿端部分に対して補正処理を施して原稿端を画像から消去し、いわゆる枠消し機能を行ってもよい。   The image creating unit 24 creates an image to be formed by the forming unit 25 based on the detection result of the document edge passed from the image processing unit 23 with respect to the front and back images read by the reading unit 21. For example, since the position, size, and inclination of the document can be known from the detection result of the document edge, it is only necessary to correct the inclination and cut out the image of the corrected document portion. Alternatively, an enlargement / reduction process according to the size of the medium used in the forming unit 25 may be performed. Alternatively, a medium having a size corresponding to the size of the clipped image may be specified to instruct the forming unit 25 to form an image. Further, for example, a so-called frame erasing function may be performed by performing correction processing on the document edge portion based on the detection result of the document edge to erase the document edge from the image.

形成部25は、画像作成部24で作成した画像を媒体上に形成する。   The forming unit 25 forms the image created by the image creating unit 24 on the medium.

図8は、本発明の画像処理装置の各実施の形態で説明した機能をコンピュータプログラムで実現した場合におけるコンピュータプログラム及びそのコンピュータプログラムを格納した記憶媒体とコンピュータの一例の説明図である。図中、31はプログラム、32はコンピュータ、41は光磁気ディスク、42は光ディスク、43は磁気ディスク、44はメモリ、51はCPU、52は内部メモリ、53は読取部、54はハードディスク、55はインタフェース、56は通信部である。   FIG. 8 is an explanatory diagram of an example of a computer program, a storage medium storing the computer program, and a computer when the functions described in the embodiments of the image processing apparatus of the present invention are realized by a computer program. In the figure, 31 is a program, 32 is a computer, 41 is a magneto-optical disk, 42 is an optical disk, 43 is a magnetic disk, 44 is a memory, 51 is a CPU, 52 is an internal memory, 53 is a reading unit, 54 is a hard disk, and 55 is An interface 56 is a communication unit.

上述の本発明の画像処理装置の各実施の形態で説明した各部の機能を全部あるいは部分的に、コンピュータにより実行可能なプログラム31によって実現してもよい。その場合、そのプログラム31およびそのプログラムが用いるデータなどは、コンピュータが読み取り可能な記憶媒体に記憶させておけばよい。記憶媒体とは、コンピュータのハードウェア資源に備えられている読取部53に対して、プログラムの記述内容に応じて、磁気、光、電気等のエネルギーの変化状態を引き起こして、それに対応する信号の形式で、読取部53にプログラムの記述内容を伝達するものである。例えば、光磁気ディスク41,光ディスク42(CDやDVDなどを含む)、磁気ディスク43,メモリ44(ICカード、メモリカード、フラッシュメモリなどを含む)等である。もちろんこれらの記憶媒体は、可搬型に限られるものではない。   You may implement | achieve the function of each part demonstrated by each embodiment of the image processing apparatus of the above-mentioned this invention entirely or partially with the program 31 executable by a computer. In that case, the program 31 and data used by the program may be stored in a computer-readable storage medium. A storage medium is a signal of a corresponding signal that causes a change state of energy such as magnetism, light, electricity, etc., depending on the description content of the program, to the reading unit 53 provided in the hardware resource of the computer. The program description is transmitted to the reading unit 53 in a format. For example, there are a magneto-optical disk 41, an optical disk 42 (including a CD and a DVD), a magnetic disk 43, a memory 44 (including an IC card, a memory card, a flash memory, and the like). Of course, these storage media are not limited to portable types.

これらの記憶媒体にプログラム31を格納しておき、例えばコンピュータ32の読取部53あるいはインタフェース55にこれらの記憶媒体を装着することによって、コンピュータからプログラム31を読み出し、内部メモリ52またはハードディスク54(磁気ディスクやシリコンディスクなどを含む)に記憶し、CPU51によってプログラム31を実行することによって、上述の本発明の画像処理装置の各実施の形態で説明した機能が全部あるいは部分的に実現される。あるいは、通信路を介してプログラム31をコンピュータ32に転送し、コンピュータ32では通信部56でプログラム31を受信して内部メモリ52またはハードディスク54に記憶し、CPU51によってプログラム31を実行することによって実現してもよい。   The program 31 is stored in these storage media, and the program 31 is read from the computer by, for example, mounting these storage media on the reading unit 53 or the interface 55 of the computer 32, and the internal memory 52 or the hard disk 54 (magnetic disk) And the program 31 is executed by the CPU 51, so that the functions described in the embodiments of the image processing apparatus of the present invention described above are realized in whole or in part. Alternatively, the program 31 is transferred to the computer 32 via the communication path, and the computer 32 receives the program 31 by the communication unit 56 and stores it in the internal memory 52 or the hard disk 54, and the CPU 31 executes the program 31. May be.

コンピュータ32には、このほかインタフェース55を介して様々な装置と接続してもよい。例えば情報を表示する表示手段や利用者からの情報を受け付ける受付手段等も接続されていてもよい。また、例えば原稿の両面を読み取る画像読取装置がインタフェース55を介して接続され、画像読取装置で読み取った表面画像及び裏面画像から原稿端を検出してもよい。さらに、画像形成装置がインタフェース55を介して接続され、画像作成部24の機能を含めて上述の本発明の画像形成装置の実施の一形態で示した構成を実現してもよい。   In addition, the computer 32 may be connected to various devices via the interface 55. For example, display means for displaying information, reception means for receiving information from the user, and the like may be connected. Further, for example, an image reading device that reads both sides of the document may be connected via the interface 55, and the document edge may be detected from the front image and the back image read by the image reading device. Further, the image forming apparatus may be connected via the interface 55, and the configuration shown in the above-described embodiment of the image forming apparatus of the present invention including the function of the image creating unit 24 may be realized.

もちろん、部分的にハードウェアによって構成することもできるし、全部をハードウェアで構成してもよい。あるいは、他の構成とともに本発明の画像処理装置の各実施の形態で説明した機能の全部あるいは部分的に含めたプログラムとして構成してもよい。上述のように本発明の画像形成装置の実施の一形態で示した画像作成部24の機能を実現するプログラムとともに構成してもよい。もちろん、他の用途に適用する場合には、その用途におけるプログラムと一体化してもよい   Of course, it may be partially configured by hardware, or all may be configured by hardware. Alternatively, it may be configured as a program including all or part of the functions described in the embodiments of the image processing apparatus of the present invention together with other configurations. As described above, the program may be configured together with a program that realizes the function of the image creating unit 24 shown in the embodiment of the image forming apparatus of the present invention. Of course, when applied to other purposes, it may be integrated with the program for that purpose.

11…鏡像変換部、12…濃度境界検出部、13…原稿端検出部、21,22…読取部、23…画像処理部、24…画像作成部、25…形成部、31…プログラム、32…コンピュータ、41…光磁気ディスク、42…光ディスク、43…磁気ディスク、44…メモリ、51…CPU、52…内部メモリ、53…読取部、54…ハードディスク、55…インタフェース、56…通信部。   DESCRIPTION OF SYMBOLS 11 ... Mirror image conversion part, 12 ... Density boundary detection part, 13 ... Document edge detection part, 21, 22 ... Reading part, 23 ... Image processing part, 24 ... Image preparation part, 25 ... Formation part, 31 ... Program, 32 ... Computer 41 ... Magneto-optical disk 42 ... Optical disk 43 ... Magnetic disk 44 ... Memory 51 ... CPU 52 ... Internal memory 53 ... Reading part 54 ... Hard disk 55 ... Interface 56 ... Communication part

Claims (7)

原稿の表面を含む表面画像及び裏面を含む裏面画像からそれぞれ濃度が変化する濃度境界の特徴量を検出する濃度境界検出手段と、前記表面画像から得た濃度境界の特徴量と該濃度境界に対応する前記裏面画像から得た濃度境界の特徴量に従って原稿端を検出する原稿端検出手段を有することを特徴とする画像処理装置。   Density boundary detecting means for detecting density boundary feature amounts each having a density change from the front image including the front side and the back side image including the back side, and corresponding to the density boundary feature amount and the density boundary obtained from the front image An image processing apparatus comprising document edge detecting means for detecting a document edge according to a feature value of a density boundary obtained from the back image. さらに、前記表面画像または前記裏面画像のいずれか一方を鏡像変換する鏡像変換手段を有し、前記濃度境界検出手段は、前記表面画像または前記裏面画像として前記鏡像変換手段で鏡像変換された画像を用いて少なくとも濃度境界の方向を特徴量として検出し、前記原稿端検出手段は、前記表面画像から得た濃度境界の特徴量と該濃度境界に対応する前記裏面画像から得た濃度境界の特徴量の類似度から前記原稿端を検出することを特徴とする請求項1に記載の画像処理装置。   Furthermore, it has a mirror image conversion means for performing mirror image conversion on either the front image or the back image, and the density boundary detection means takes the image that has undergone mirror image conversion by the mirror image conversion means as the front image or the back image. And at least the direction of the density boundary is detected as a feature amount, and the document edge detection unit detects the feature amount of the density boundary obtained from the front surface image and the feature amount of the density boundary obtained from the back surface image corresponding to the density boundary. The image processing apparatus according to claim 1, wherein the edge of the document is detected from the similarity. 前記濃度境界検出手段は、少なくとも濃度境界の方向を特徴量として検出し、前記原稿端検出手段は、前記表面画像から得た濃度境界の特徴量と、該特徴量を得た前記表面画像における濃度境界の位置と鏡像関係の位置にある前記裏面画像から得た濃度境界の特徴量との類似度を算出するとともに、方向を有する特徴量については一方の特徴量における方向を鏡像変換して前記類似度を算出し、前記類似度に従って前記原稿端を検出することを特徴とする請求項1に記載の画像処理装置。   The density boundary detection unit detects at least the direction of the density boundary as a feature amount, and the document edge detection unit detects the feature amount of the density boundary obtained from the surface image and the density in the surface image from which the feature amount was obtained. The similarity between the boundary position and the feature value of the density boundary obtained from the back image at a mirror image-related position is calculated, and for the feature quantity having a direction, the direction of one feature quantity is mirror-image transformed to obtain the similarity The image processing apparatus according to claim 1, wherein a degree is calculated, and the document edge is detected according to the similarity. 前記原稿端検出手段は、前記表面画像と前記裏面画像との予め決められた大きさの領域内で類似度を算出することを特徴とする請求項2または請求項3に記載の画像処理装置。   4. The image processing apparatus according to claim 2, wherein the document edge detection unit calculates a similarity in an area having a predetermined size between the front surface image and the back surface image. 5. 前記原稿端検出手段は、前記特徴量をもとに直線部分を抽出し,画像の最も端に位置する直線を原稿端として検出することを特徴とする請求項1から請求項4のいずれか1項に記載の画像処理装置。   5. The document edge detection unit extracts a straight line portion based on the feature amount, and detects a straight line located at the end of the image as a document edge. 6. The image processing apparatus according to item. 原稿の表面及び裏面を含む画像を読み取って表面画像及び裏面画像として出力する読取手段と、前記表面画像及び前記裏面画像を受け取って原稿端を検出する請求項1から請求項5のいずれか1項に記載の画像処理装置と、画像を媒体上に形成する形成手段と、前記表面画像及び前記裏面画像に対して前記画像処理装置で検出した前記原稿端をもとに前記形成手段で形成する画像を作成する画像作成手段を有することを特徴とする画像形成装置。   6. A reading unit that reads an image including a front surface and a back surface of a document and outputs the image as a front image and a back image, and receives the front image and the back image to detect a document edge. An image forming apparatus that forms an image on a medium, and an image that is formed by the forming unit based on the document edge detected by the image processing apparatus with respect to the front image and the back image. An image forming apparatus comprising image creating means for creating the image. コンピュータに、請求項1から請求項5のいずれか1項に記載の画像処理装置の機能を実行させるものであることを特徴とする画像処理プログラム。   An image processing program for causing a computer to execute the function of the image processing apparatus according to any one of claims 1 to 5.
JP2010007964A 2010-01-18 2010-01-18 Image processing apparatus, image processing program, and image forming apparatus Expired - Fee Related JP5527523B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010007964A JP5527523B2 (en) 2010-01-18 2010-01-18 Image processing apparatus, image processing program, and image forming apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010007964A JP5527523B2 (en) 2010-01-18 2010-01-18 Image processing apparatus, image processing program, and image forming apparatus

Publications (2)

Publication Number Publication Date
JP2011145970A true JP2011145970A (en) 2011-07-28
JP5527523B2 JP5527523B2 (en) 2014-06-18

Family

ID=44460750

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010007964A Expired - Fee Related JP5527523B2 (en) 2010-01-18 2010-01-18 Image processing apparatus, image processing program, and image forming apparatus

Country Status (1)

Country Link
JP (1) JP5527523B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017108322A (en) * 2015-12-11 2017-06-15 コニカミノルタ株式会社 Image reader and image forming apparatus

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002281244A (en) * 2001-03-16 2002-09-27 Canon Electronics Inc Image reading apparatus and method therefor, controller, program and memory medium
JP2004254166A (en) * 2003-02-21 2004-09-09 Kyocera Mita Corp Image forming apparatus
JP2006237999A (en) * 2005-02-24 2006-09-07 Canon Electronics Inc Image processing apparatus and image processing system
JP2009017409A (en) * 2007-07-06 2009-01-22 Pfu Ltd Image reading processor, image reader and image reading processing method

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002281244A (en) * 2001-03-16 2002-09-27 Canon Electronics Inc Image reading apparatus and method therefor, controller, program and memory medium
JP2004254166A (en) * 2003-02-21 2004-09-09 Kyocera Mita Corp Image forming apparatus
JP2006237999A (en) * 2005-02-24 2006-09-07 Canon Electronics Inc Image processing apparatus and image processing system
JP2009017409A (en) * 2007-07-06 2009-01-22 Pfu Ltd Image reading processor, image reader and image reading processing method

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017108322A (en) * 2015-12-11 2017-06-15 コニカミノルタ株式会社 Image reader and image forming apparatus

Also Published As

Publication number Publication date
JP5527523B2 (en) 2014-06-18

Similar Documents

Publication Publication Date Title
US11481878B2 (en) Content-based detection and three dimensional geometric reconstruction of objects in image and video data
US9984429B2 (en) Feature-based signal localization in digital capture systems
US20120294528A1 (en) Method of Detecting and Correcting Digital Images of Books in the Book Spine Area
JP2011181071A (en) Method and apparatus for detecting page boundary
EP2536123B1 (en) Image processing method and image processing apparatus
JP5832656B2 (en) Method and apparatus for facilitating detection of text in an image
KR101011908B1 (en) Method of noise reduction for digital images and image processing device thereof
JP6106808B2 (en) Specify barcode placement in document
JP4565396B2 (en) Image processing apparatus and image processing program
JP5725276B2 (en) Binarization processing apparatus, image processing apparatus, binarization processing program, image processing program
JP5527523B2 (en) Image processing apparatus, image processing program, and image forming apparatus
US8995762B2 (en) Image processing apparatus and non-transitory computer readable medium for obtaining similarity between a local color displacement distribution and an extracted color displacement
JP6137464B2 (en) Image processing apparatus and image processing program
JP4569785B2 (en) Binarization device and binarization processing program
JP2012065230A (en) Image binarizing method and image binarizing apparatus
JP5939393B2 (en) Image processing apparatus and image processing program
JP6144892B2 (en) Image processing apparatus, image processing method, and program
JP2010182219A (en) Image processing apparatus
JP2014071784A (en) Device and method for reading driver&#39;s license
JP5146653B2 (en) Image processing apparatus and image processing program
JP6815274B2 (en) Image reader and image reading method
JP6155609B2 (en) Parallax calculating apparatus and program
JP2012008914A (en) Image processing device and image processing program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20121220

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20131219

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20131225

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140218

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140319

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140401

R150 Certificate of patent or registration of utility model

Ref document number: 5527523

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees