JP2011145970A - Image processing apparatus, image processing program, and image forming apparatus - Google Patents
Image processing apparatus, image processing program, and image forming apparatus Download PDFInfo
- Publication number
- JP2011145970A JP2011145970A JP2010007964A JP2010007964A JP2011145970A JP 2011145970 A JP2011145970 A JP 2011145970A JP 2010007964 A JP2010007964 A JP 2010007964A JP 2010007964 A JP2010007964 A JP 2010007964A JP 2011145970 A JP2011145970 A JP 2011145970A
- Authority
- JP
- Japan
- Prior art keywords
- image
- boundary
- document
- density
- density boundary
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000012545 processing Methods 0.000 title claims abstract description 44
- 238000006243 chemical reaction Methods 0.000 claims abstract description 41
- 238000001514 detection method Methods 0.000 claims abstract description 23
- 239000000284 extract Substances 0.000 claims abstract description 5
- 238000003708 edge detection Methods 0.000 claims description 18
- 230000006870 function Effects 0.000 description 13
- 238000010586 diagram Methods 0.000 description 10
- 238000000034 method Methods 0.000 description 10
- 238000004590 computer program Methods 0.000 description 6
- 238000004891 communication Methods 0.000 description 4
- 230000003287 optical effect Effects 0.000 description 3
- 238000004364 calculation method Methods 0.000 description 2
- 230000015572 biosynthetic process Effects 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000005611 electricity Effects 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 230000005389 magnetism Effects 0.000 description 1
- 238000002360 preparation method Methods 0.000 description 1
- 238000011946 reduction process Methods 0.000 description 1
Images
Landscapes
- Holders For Sensitive Materials And Originals (AREA)
- Image Input (AREA)
- Facsimile Scanning Arrangements (AREA)
Abstract
Description
本発明は、画像処理装置および画像処理プログラム、画像形成装置に関するものである。 The present invention relates to an image processing apparatus, an image processing program, and an image forming apparatus.
従来より、様々な方法により原稿端を検出している。例えば特許文献1では、原稿の読み取り面とは反対の面から照明光を照射することにより原稿を影状に黒く見えるようにして、原稿端を検出している。また、特許文献2では用紙搬送路に画像読取手段を設置し、その画像読取手段によって読み取った画像信号から、明度とともに彩度も参照して、印刷用紙の端を検出している。
Conventionally, document edges are detected by various methods. For example, in
これらの原稿端の検出方法は、いずれも読取装置と連動して原稿端を検出するものである。このように読取装置に特別な構成を加えることなく、単に原稿を読み取った画像などのように、原稿を含む画像から原稿の端部を検出することが考えられている。また、例えば特許文献3では、原稿端ではないが、有効画像の広がりを判別することが行われている。
All of these document edge detection methods detect the document edge in conjunction with the reading device. As described above, it is considered to detect an end portion of an original from an image including the original such as an image obtained by reading the original without adding a special configuration to the reading apparatus. For example, in
また本発明と関連する別の従来技術として、鏡像画像を利用する技術がある。例えば特許文献4には、原稿の表面を読み取った表面画像データと、裏面を読み取って鏡像反転した裏面画像データとの濃度を比較して裏写りデータを判別し、裏写りを除去することが記載されている。また、例えば特許文献5には、読み取った原稿表面の左右反転画像を記憶しておき、原稿の裏面画像と表面反転画像とを比較して、表面反転画像の方が裏面画像よりも濃度が薄い場合は、その箇所に対応する表面の画像を消去し出力することにより、裏写りを除去することが記載されている。
Another conventional technique related to the present invention is a technique using a mirror image. For example,
本発明は、特別なセンサを用いずに原稿を含む画像から原稿端を正確に抽出する画像処理装置および画像処理プログラムと、そのような画像処理装置を用いた画像形成装置を提供することを目的とするものである。 An object of the present invention is to provide an image processing apparatus and an image processing program for accurately extracting an edge of an original from an image including an original without using a special sensor, and an image forming apparatus using such an image processing apparatus. It is what.
本願請求項1に記載の発明は、原稿の表面を含む表面画像及び裏面を含む裏面画像からそれぞれ濃度が変化する濃度境界の特徴量を検出する濃度境界検出手段と、前記表面画像から得た濃度境界の特徴量と該濃度境界に対応する前記裏面画像から得た濃度境界の特徴量に従って原稿端を検出する原稿端検出手段を有することを特徴とする画像処理装置である。 According to the first aspect of the present invention, there are provided density boundary detection means for detecting feature values of density boundaries whose density changes from the front image including the front surface of the document and the back image including the back surface, and the density obtained from the surface image. An image processing apparatus comprising document edge detecting means for detecting a document edge according to a feature value of a boundary and a feature value of a density boundary obtained from the back image corresponding to the density boundary.
本願請求項2に記載の発明は、本願請求項1に記載の発明の構成に、さらに、前記表面画像または前記裏面画像のいずれか一方を鏡像変換する鏡像変換手段を有し、前記濃度境界検出手段は、前記表面画像または前記裏面画像として前記鏡像変換手段で鏡像変換された画像を用いて少なくとも濃度境界の方向を特徴量として検出し、前記原稿端検出手段は、前記表面画像から得た濃度境界の特徴量と該濃度境界に対応する前記裏面画像から得た濃度境界の特徴量の類似度から前記原稿端を検出することを特徴とする画像処理装置である。
The invention according to
本願請求項3に記載の発明は、本願請求項1に記載の発明における前記濃度境界検出手段が、少なくとも濃度境界の方向を特徴量として検出し、前記原稿端検出手段が、前記表面画像から得た濃度境界の特徴量と、該特徴量を得た前記表面画像における濃度境界の位置と鏡像関係の位置にある前記裏面画像から得た濃度境界の特徴量との類似度を算出するとともに、方向を有する特徴量については一方の特徴量における方向を鏡像変換して前記類似度を算出し、前記類似度に従って前記原稿端を検出することを特徴とする画像処理装置である。
In the invention according to
本願請求項4に記載の発明は、本願請求項2または請求項3に記載の発明における前記原稿端検出手段が、前記表面画像と前記裏面画像との予め決められた大きさの領域内で類似度を算出することを特徴とする画像処理装置である。
In the invention described in
本願請求項5に記載の発明は、本願請求項1から請求項4のいずれか1項に記載の発明における前記原稿端検出手段が、前記特徴量をもとに直線部分を抽出し,画像の最も端に位置する直線を原稿端として検出することを特徴とする画像処理装置である。
In the invention according to
本願請求項6に記載の発明は、原稿の表面及び裏面を含む画像を読み取って表面画像及び裏面画像として出力する読取手段と、前記表面画像及び前記裏面画像を受け取って原稿端を検出する請求項1から請求項5のいずれか1項に記載の画像処理装置と、画像を媒体上に形成する形成手段と、前記表面画像及び前記裏面画像に対して前記画像処理装置で検出した前記原稿端をもとに前記画像形成手段で形成する画像を作成する画像作成手段を有することを特徴とする画像形成装置である。
The invention according to
本願請求項7に記載の発明は、コンピュータに、請求項1から請求項5のいずれか1項に記載の画像処理装置の機能を実行させるものであることを特徴とする画像処理プログラムである。
The invention according to claim 7 of the present application is an image processing program for causing a computer to execute the function of the image processing apparatus according to any one of
本願請求項1に記載の発明によれば、本構成を有しない場合に比べて、原稿を含む画像から原稿端を正確に検出することができる。 According to the first aspect of the present invention, it is possible to accurately detect the document edge from the image including the document as compared with the case where the present configuration is not provided.
本願請求項2に記載の発明によれば、本構成を有しない場合に比べて、ノイズなどに対して安定して原稿端を検出することができる。 According to the second aspect of the present invention, the document edge can be detected more stably against noise or the like than in the case where the present configuration is not provided.
本願請求項3に記載の発明によれば、本構成を有しない場合に比べて、ノイズなどに対して安定して原稿端を検出することができる。 According to the third aspect of the present invention, it is possible to detect the document edge stably against noise or the like as compared with the case where the present configuration is not provided.
本願請求項4に記載の発明によれば、表面画像と裏面画像中の原稿位置がずれていても原稿端を検出することができる。 According to the fourth aspect of the present invention, the document edge can be detected even if the document positions in the front image and the back image are shifted.
本願請求項5に記載の発明によれば、原稿に描かれている内容によらず、原稿端を検出することができる。 According to the fifth aspect of the present invention, it is possible to detect the edge of the document regardless of the contents drawn on the document.
本願請求項6に記載の発明によれば、本構成を有しない場合に比べて、原稿の画像部分を正確に処理し、媒体上に形成することができる。
According to the invention described in
本願請求項7に記載の発明によれば、本願請求項1から請求項5のいずれか1項に記載の発明の効果を得ることができる。
According to the invention of claim 7 of the present application, the effect of the invention of any one of
図1は、本発明の画像処理装置の第1の実施の形態を示す構成図である。図中、11は鏡像変換部、12は濃度境界検出部、13は原稿端検出部である。以下に説明する実施の形態では、原稿の表面を含む表面画像及び裏面を含む裏面画像が与えられるものとする。表面画像と裏面画像は、例えば原稿の表裏を一括して読み取る画像読取装置などによって取得されたものでよい。 FIG. 1 is a configuration diagram showing a first embodiment of an image processing apparatus according to the present invention. In the figure, 11 is a mirror image conversion unit, 12 is a density boundary detection unit, and 13 is a document edge detection unit. In the embodiment described below, it is assumed that a front image including the front surface of the document and a back image including the back surface are provided. For example, the front image and the back image may be acquired by an image reading device that reads the front and back of a document at once.
鏡像変換部11は、与えられた表面画像または裏面画像のいずれか一方を鏡像変換する。
The mirror
濃度境界検出部12は、表面画像及び裏面画像からそれぞれ濃度が変化する濃度境界の特徴量を検出する。表面画像または裏面画像の一方は、鏡像変換部11で鏡像変換された画像を用いる。例えば鏡像変換部11で表面画像を鏡像変換した場合には、鏡像変換した画像から表面画像における濃度境界の特徴量を検出するとともに、与えられた裏面画像から裏面画像における濃度境界の特徴量を検出する。あるいは、例えば鏡像変換部11で裏面画像を鏡像変換した場合には、鏡像変換した画像から裏面画像における濃度境界の特徴量を検出するとともに、与えられた表面画像から表面画像における濃度境界の特徴量を検出する。検出する濃度境界の特徴量としては、例えば、濃度境界の方向や強度などを抽出すればよい。もちろん、長さや他の特徴量を抽出してもよいことは言うまでもない。
The density boundary detection unit 12 detects a feature amount of a density boundary whose density changes from the front image and the back image. One of the front image and the back image uses an image that has undergone mirror image conversion by the mirror
原稿端検出部13は、表面画像における濃度境界の特徴量と、対応する裏面画像における濃度境界の特徴量に従い、原稿端を検出する。例えば両者の特徴量の類似度を算出すればよい。類似度の算出の際には、表面画像と裏面画像との位置ズレなどを考慮し、予め決められた大きさの領域内で類似度を算出するように構成するとよい。例えば表面画像と裏面画像の両方に存在している濃度境界については、類似度から特徴量が類似していると判断されるので、そのような濃度境界を見つけ出せばよい。また、そのような濃度境界が原稿内に存在する場合でも、原稿端となる濃度境界は最も外側に存在するはずであることから、見つけた濃度境界のうち最も端に位置する直線状の濃度境界を原稿端として検出すればよい。
The document
図2は、本発明の画像処理装置の第1の実施の形態における動作の一例を示す流れ図である。S61において、鏡像変換部11は、与えられた表面画像または裏面画像のいずれか一方を鏡像変換する。ここでは裏面画像を鏡像変換することとする。
FIG. 2 is a flowchart showing an example of the operation of the image processing apparatus according to the first embodiment of the present invention. In S <b> 61, the mirror
S62において、濃度境界検出部12は、表面画像及び鏡像変換された裏面画像から、それぞれ濃度が変化する濃度境界の特徴量を検出する。ここでは少なくとも境界方向を検出するものとし、境界強度についても検出するものとする。 In S <b> 62, the density boundary detection unit 12 detects a feature value of the density boundary whose density changes from the front surface image and the mirror image-converted back surface image. Here, at least the boundary direction is detected, and the boundary strength is also detected.
S63において、原稿端検出部13は、まず濃度境界の特徴量の類似度を算出する。表面画像と鏡像変換された裏面画像の対応する位置における濃度境界の境界方向のなす角度をθとし、例えば類似度の関数F(θ)により値を求めればよい。関数F(θ)としては、ここではθが小さいほど値が大きくなるものとし、例えばθの逆数、cosθ、二値出力関数(1:0≦θ<Th、0:Th<θ)などが考えられる。もちろん、このほかの関数でもよく、境界強度を求めている場合には境界方向とともに境界ベクトルとして内積などのベクトル演算により類似度を求めてもよい。
In step S63, the document
原稿端検出部13は、S63で求めた類似度をもとに原稿端を抽出するが、その処理の一つとして、ここではS64において類似度画像を作成し、S65において類似度画像から直線を検出する処理を行う例を示している。S64において作成する類似度画像は、単純には、類似度を算出した表面画像及び鏡像変換した裏面画像と対応する位置の値としてS63で算出した類似度の値を並べればよい。あるいは、表面画像及び鏡像変換した裏面画像の対応する位置における画素値(色)の和または境界強度の和に類似度を乗算して求めた値を並べてもよい。もちろんこのほかにも、類似度に応じた特徴量の線形和、非線形和を求めるなど、種々の方法により求めた値を並べてもよい。
The document
このようにして得られた類似度画像をもとに、S65において直線を検出する。表面画像と鏡像変換された裏面画像の対応する位置に共通して存在する濃度境界については類似度の値が大きくなるようにしている。原稿端は表面画像と鏡像変換された裏面画像の対応する位置に共通して存在する直線であることから、類似度画像から直線を検出すれば、検出された直線の中に原稿端が含まれることになる。なお、直線検出の方法としては、例えばハフ変換や端部追跡など、周知の方法を使用すればよい。 A straight line is detected in S65 based on the similarity image thus obtained. The similarity value is increased for the density boundary that exists in common at the corresponding positions of the front image and the mirror image converted back image. Since the document edge is a straight line that exists in common at the corresponding position of the front image and the mirror image converted back image, if the straight line is detected from the similarity image, the detected document line includes the document edge. It will be. As a straight line detection method, for example, a known method such as Hough transform or edge tracking may be used.
最後にS66において、S65で検出した直線の中から原稿端を抽出する。原稿内に種々の直線が描かれていたとしても、原稿端は最も外周に位置する直線であることから、最も端に位置する直線を原稿端として抽出すればよい。あるいは、原稿端の直線は文字などの直線に比べて長いことから、最も長い直線を原稿端として抽出してもよい。このようにして、対応する表面画像と裏面画像から原稿端が抽出される。 Finally, in S66, the document edge is extracted from the straight line detected in S65. Even if various straight lines are drawn in the original, the end of the original is the straight line located at the outermost periphery, and therefore, the straight line located at the end may be extracted as the original end. Alternatively, since the straight line at the document edge is longer than the straight line such as characters, the longest straight line may be extracted as the document edge. In this way, the document edge is extracted from the corresponding front and back images.
上述の動作の一例について具体例を用いて説明する。図3は、本発明の画像処理装置の第1の実施の形態における動作の一例により処理される画像の具体例の説明図である。図3(A)は与えられた表面画像と裏面画像を示している。例えば原稿の表裏を一括して読み取る画像読取装置などによって表面画像と裏面画像を取得する場合を考えると、読取の際に原稿が傾斜した状態で画像が読み取られることがある。しかし、読み取られた表面画像と裏面画像では、その原稿の形状は鏡像関係にある。図3(A)に示した表面画像と裏面画像においても、原稿の外形は鏡像関係にある。 An example of the above operation will be described using a specific example. FIG. 3 is an explanatory diagram of a specific example of an image processed by an example of an operation in the first embodiment of the image processing apparatus of the present invention. FIG. 3A shows the given front and back images. For example, when considering a case where a front image and a back image are acquired by an image reading device that reads the front and back of a document at once, an image may be read with the document tilted during reading. However, in the read front image and back image, the shape of the document has a mirror image relationship. Also in the front and back images shown in FIG. 3A, the outline of the document has a mirror image relationship.
まず、鏡像変換部11により、与えられた表面画像または裏面画像のいずれか一方を鏡像変換する。ここでは裏面画像を鏡像変換する。図3(B)においては、裏面画像として鏡像変換された画像を示している。
First, the mirror
次に濃度境界検出部12では、表面画像及び鏡像変換された裏面画像から、それぞれ濃度が変化する濃度境界の特徴量を検出する。図3(B)では、画像中の4点について、特徴量として検出した境界方向を矢線により示している。表面画像における点aは原稿端部分であり、点bは原稿に描かれた線分領域であり、点cは原稿上の雑音部分であり、点dは原稿外の雑音部分である。表面画像の各位置に対応する鏡像変換された裏面画像中の位置をa’,b’,c’,d’として示している。なお、鏡像変換された裏面画像におけるc’、d’においては濃度境界が存在しないため矢線は示していない。 Next, the density boundary detection unit 12 detects a feature value of the density boundary where the density changes from the front surface image and the back image subjected to mirror image conversion. In FIG. 3B, the boundary direction detected as the feature amount for four points in the image is indicated by arrow lines. A point a in the front image is an end portion of the document, a point b is a line segment region drawn on the document, a point c is a noise portion on the document, and a point d is a noise portion outside the document. The positions in the rear image subjected to mirror image conversion corresponding to the respective positions of the front image are indicated as a ', b', c ', d'. Note that arrow lines are not shown in c ′ and d ′ in the mirror image-converted back image because there is no density boundary.
濃度境界の特徴量を検出したら、原稿端検出部13において、まず濃度境界の特徴量の類似度を算出し、ここでは類似度画像を作成する。類似度画像の一例を図3(C)に示している。図3(C)では、表面画像と鏡像変換された裏面画像の対応する部分が類似している場合に黒く示している。
When the feature value of the density boundary is detected, the document
例えば図3(B)に示した表面画像と鏡像変換された裏面画像の対応する点における特徴量を比較すると、表面画像の点aにおける濃度境界の境界方向と鏡像変換された裏面画像の点a’における境界方向とから類似度を算出することにより、この部分では類似していることになるため図3(C)では黒く示している。しかし、点bにおける境界方向と点b’における境界方向は異なっており、従って算出した類似度から図3(C)では白く示している。さらに、表面画像では点c及び点dにおいて境界方向が検出されているが、鏡像変換された裏面画像では対応する点c’及び点d’においては濃度境界が存在しておらず、境界方向も検出されていない。従って、これらの部分についても図3(C)では白く示している。このようにして各点について類似している部分を黒く、類似していない部分を白くすると、図3(C)に示すように、原稿端と、たまたま表面画像と鏡像変換された裏面画像とに共通する線分が存在した部分が黒くなった類似度画像が得られる。例えば原稿端の濃度差が文字などの線に比べて薄い場合でも、類似度画像でははっきりと現れる。また、画像中に点cや点dなどの雑音が存在していても、類似度画像では消去されることになる。なお、図3(C)に示した類似度画像は説明のためのものであり、実際には白、黒ではなく、二値または多値の値を有するものであってよい。 For example, when comparing the feature amounts at corresponding points of the front image and the mirror image-converted back image shown in FIG. 3B, the boundary direction of the density boundary at the point a of the front image and the point a of the mirror image-converted back image By calculating the similarity from the boundary direction at “′”, it is similar in this portion, so it is shown in black in FIG. However, the boundary direction at the point b is different from the boundary direction at the point b ', and is therefore shown in white in FIG. 3C from the calculated similarity. Further, the boundary direction is detected at the point c and the point d in the front image, but the density boundary does not exist at the corresponding point c ′ and the point d ′ in the mirror image converted back surface, and the boundary direction is also Not detected. Therefore, these portions are also shown in white in FIG. In this way, when a similar part for each point is black and a non-similar part is white, as shown in FIG. 3C, a document edge, and it happens to be a front image and a mirror image converted back image. A similarity image in which the portion where the common line segment exists is black is obtained. For example, even when the density difference at the edge of the document is lighter than a line such as a character, it appears clearly in the similarity image. Even if noise such as point c or point d exists in the image, it is deleted in the similarity image. Note that the similarity image shown in FIG. 3C is for explanation, and may actually have a binary or multivalued value instead of white or black.
図3(C)に示した類似度画像から直線部分を検出すると、この例では図3(D)に示すように、原稿端が抽出されることになる。例えば最も外周に位置する直線を抽出すれば、原稿端が抽出される。あるいは、予め決めておいた長さより長い直線を検出すれば、文字などから得られた線分は除外される。また、例えば原稿端となる線分が途切れていても、各線分から得られる直線が重複している場合に線分を統合すれば、原稿端となる直線が得られる。 When a straight line portion is detected from the similarity image shown in FIG. 3C, in this example, the document edge is extracted as shown in FIG. 3D. For example, if the straight line located at the outermost periphery is extracted, the document edge is extracted. Alternatively, if a straight line longer than a predetermined length is detected, a line segment obtained from a character or the like is excluded. For example, even if the line segment serving as the document edge is interrupted, if the line segments obtained from the line segments overlap, the line segments serving as the document edge can be obtained by integrating the line segments.
図4は、本発明の画像処理装置の第2の実施の形態を示す構成図である。この第2の実施の形態では、画像を鏡像変換せずに、原稿端を検出する際に鏡像の位置の特徴量を比較して類似度を算出するようにした例を示している。なお、第1の実施の形態と異なる部分について主に説明する。 FIG. 4 is a block diagram showing a second embodiment of the image processing apparatus of the present invention. In this second embodiment, an example is shown in which the similarity is calculated by comparing the feature quantity of the position of the mirror image when detecting the document edge without performing mirror image conversion of the image. Note that differences from the first embodiment will be mainly described.
この第2の実施の形態では鏡像変換部11を有しておらず、画像に対する鏡像変換を行わないので、濃度境界検出部12では、与えられた表面画像及び裏面画像から、それぞれ濃度境界の特徴量を検出する。
Since the second embodiment does not have the mirror
原稿端検出部13は、表面画像における濃度境界の特徴量と、対応する裏面画像における濃度境界の特徴量に従い、原稿端を検出する。表面画像と裏面画像の対応する位置は、互いに鏡像関係にある位置であり、鏡像関係にある位置における特徴量の類似度を算出すればよい。類似度の算出の際には、表面画像と裏面画像との位置ズレなどを考慮し、予め決められた大きさの領域内で類似度を算出するように構成するとよい。特徴量として濃度境界の境界方向を用いる場合、表面画像と裏面画像が互いに鏡像の関係にあることから、濃度境界検出部12で検出した境界方向も鏡像の関係にある。従って、類似度を算出する際には、表面画像から得た境界方向か、あるいは裏面画像から得た境界方向のいずれか一方について、鏡像関係にある方向に変換しておく。
The document
図5は、本発明の画像処理装置の第2の実施の形態における動作の一例を示す流れ図である。S71において、濃度境界検出部12は、与えられた表面画像及び裏面画像から、それぞれ濃度が変化する濃度境界の特徴量を検出する。ここでは少なくとも境界方向を検出するものとし、境界強度についても検出するものとする。 FIG. 5 is a flowchart showing an example of the operation of the image processing apparatus according to the second embodiment of the present invention. In S <b> 71, the density boundary detection unit 12 detects a feature value of a density boundary whose density changes from the given front surface image and back surface image. Here, at least the boundary direction is detected, and the boundary strength is also detected.
S72において、原稿端検出部13は、まず、表面画像及び裏面画像のいずれか一方について、S71で検出した濃度境界の特徴量のうち境界方向について鏡像変換する。ここでは上述の第1の実施の形態における鏡像変換部11で行った画像全体の鏡像変換は行わない。
In step S72, the document
続いてS73において、原稿端検出部13は濃度境界の特徴量の類似度を算出する。この際に、表面画像の位置と鏡像の関係にある裏面画像の位置における濃度境界の特徴量から類似度を算出する。類似度の算出方法については第1の実施の形態で述べたので、ここでは省略するが、境界方向の類似度は方向の角度差が0度や180度で最大となり、90度や270度で最小となるように類似度を算出するとよい。
In step S73, the document
原稿端検出部13がS74以降の処理で行う類似度画像の作成、直線検出、原稿端抽出などの処理についても、第1の実施の形態で説明した図2のS64以降の処理であるので、ここでは説明を省略する。このようにして、画像を鏡像変換する代わりに、濃度境界の境界方向の鏡像変換と類似度算出の際の表面画像及び裏面画像の参照位置を変更するように構成しても、原稿端が得られることになる。
The processes such as the similarity image creation, straight line detection, and document edge extraction performed by the document
上述の動作の一例について具体例を用いて説明する。図6は、本発明の画像処理装置の第2の実施の形態における動作の一例により処理される画像の具体例の説明図である。図6(A)は与えられた表面画像と裏面画像を示しており、図3(A)に示したものである。 An example of the above operation will be described using a specific example. FIG. 6 is an explanatory diagram of a specific example of an image processed by an example of the operation in the second embodiment of the image processing apparatus of the present invention. FIG. 6A shows the given front and back images, which are shown in FIG.
まず、濃度境界検出部12では、表面画像及び裏面画像から、それぞれ濃度が変化する濃度境界の特徴量を検出する。図6(A)では、画像中の4点について、特徴量として検出した境界方向を矢線により示している。表面画像における点aと点eは原稿端部分であり、点bは原稿に描かれた線分領域であり、点cは原稿上の雑音部分であり、点dは原稿外の雑音部分である。表面画像の各位置に対応する鏡像変換された裏面画像中の位置をa’,b’,c’,d’,e’として示している。なお、鏡像変換された裏面画像におけるc’、d’においては濃度境界が存在しないため矢線は示していない。 First, the density boundary detection unit 12 detects a feature value of a density boundary whose density changes from the front image and the back image. In FIG. 6A, the boundary direction detected as the feature amount is indicated by arrow lines for four points in the image. In the front image, points a and e are document edge portions, point b is a line segment region drawn on the document, point c is a noise portion on the document, and point d is a noise portion outside the document. . The positions in the back image subjected to mirror image conversion corresponding to the respective positions of the front image are indicated as a ', b', c ', d', e '. Note that arrow lines are not shown in c ′ and d ′ in the mirror image-converted back image because there is no density boundary.
濃度境界の特徴量を検出したら、原稿端検出部13において、まず表面画像あるいは裏面画像のいずれか一方について、濃度境界検出部12で検出した濃度境界の特徴量のうち境界方向を鏡像変換しておく。ここでは図6(A)の裏面画像から検出した濃度境界の境界方向について、図中に「変換方向」と示した方向に鏡像変換するものとし、その結果を図6(B)に示している。裏面画像自体は鏡像変換されないが、境界方向を示している矢線の向きが鏡像変換されている。
When the feature value of the density boundary is detected, the document
図6(B)に示した表面画像と裏面画像の鏡像の位置における特徴量を比較すると、例えば表面画像の点aにおける濃度境界の境界方向と裏面画像の点a’における鏡像変換された境界方向とから類似度を算出することにより、この部分では類似していることになるため図6(C)では黒く示している。しかし、点bにおける境界方向と点b’における鏡像変換された境界方向は異なっており、従って算出した類似度から図6(C)では白く示している。さらに、表面画像では点c及び点dにおいて境界方向が検出されているが、裏面画像では鏡像関係の位置にある点c’及び点d’においては濃度境界が存在しておらず、境界方向も検出されていない。従って、これらの部分についても図6(C)では白く示している。さらに、表面画像の点eにおける濃度境界の境界方向と裏面画像の点e’における鏡像変換された境界方向とは反対を向いているが、上述のように0度及び180度で最大となるように類似度を算出すれば、この部分では類似していることが検出されるので図6(C)では黒く示している。 Comparing the feature quantities at the positions of the mirror images of the front image and the back image shown in FIG. 6B, for example, the boundary direction of the density boundary at the point a of the front image and the boundary direction after the mirror image conversion at the point a ′ of the back image By calculating the similarity from the above, it is similar in this part, so it is shown in black in FIG. However, the boundary direction at the point b is different from the boundary direction obtained by mirror image conversion at the point b ', and is therefore shown in white in FIG. 6C from the calculated similarity. Further, the boundary direction is detected at the point c and the point d in the front image, but the density boundary does not exist at the point c ′ and the point d ′ at the mirror image positions in the back image, and the boundary direction is also Not detected. Accordingly, these portions are also shown in white in FIG. Further, although the boundary direction of the density boundary at the point e of the front image and the boundary direction after the mirror image conversion at the point e ′ of the back image are directed opposite to each other, they are maximized at 0 degree and 180 degrees as described above. If the similarity is calculated, it is detected that the image is similar in this portion, and is shown in black in FIG.
このようにして各点について類似している部分を黒く、類似していない部分を白くすると、図6(C)に示すように、原稿端と、たまたま表面画像と鏡像変換された裏面画像とに共通する線分が存在した部分が黒くなった類似度画像が得られる。例えば原稿端の濃度差が文字などの線に比べて薄い場合でも、類似度画像でははっきりと現れる。また、画像中に点cや点dなどの雑音が存在していても、類似度画像では消去されることになる。なお、図6(C)に示した類似度画像は説明のためのものであり、実際には白、黒ではなく、二値または多値の値を有するものであってよい。 In this way, when a similar part for each point is black and a non-similar part is white, as shown in FIG. 6C, an original image, and it happens to be a front image and a mirror image-converted back image. A similarity image in which the portion where the common line segment exists is black is obtained. For example, even when the density difference at the edge of the document is lighter than a line such as a character, it appears clearly in the similarity image. Even if noise such as point c or point d exists in the image, it is deleted in the similarity image. Note that the similarity image shown in FIG. 6C is for explanation, and may actually have a binary or multivalued value instead of white or black.
図6(C)に示した類似度画像から直線部分を検出すると、この例では図6(D)に示すように、原稿端が抽出されることになる。例えば最も外周に位置する直線を抽出すれば、原稿端が抽出される。あるいは、予め決めておいた長さより長い直線を検出すれば、文字などから得られた線分は除外されて原稿端が抽出される。また、例えば原稿端となる線分が途切れていても、各線分から得られる直線が重複している場合に線分を統合すれば、原稿端となる直線が得られる。 When a straight line portion is detected from the similarity image shown in FIG. 6C, in this example, the document edge is extracted as shown in FIG. 6D. For example, if the straight line located at the outermost periphery is extracted, the document edge is extracted. Alternatively, if a straight line longer than a predetermined length is detected, a line segment obtained from characters or the like is excluded and the document edge is extracted. For example, even if the line segment serving as the document edge is interrupted, if the line segments obtained from the line segments overlap, the line segments serving as the document edge can be obtained by integrating the line segments.
図7は、本発明の画像形成装置の実施の一形態を示す構成図である。図中、21,22は読取部、23は画像処理部、24は画像作成部、25は形成部である。読取部21,22は、原稿の表面及び裏面を含む画像を読み取って表面画像及び裏面画像として出力する。原稿の両面を読み取る構成としては、周知の構成を適用すればよい。
FIG. 7 is a block diagram showing an embodiment of the image forming apparatus of the present invention. In the figure, 21 and 22 are reading units, 23 is an image processing unit, 24 is an image creating unit, and 25 is a forming unit. The reading
画像処理部23は、本発明の画像処理装置の実施の形態として上述したものであり、読取部21で読み取った表面画像及び裏面画像を受け取り、原稿端を検出して画像作成部24に検出結果を渡す。
The
画像作成部24は、読取部21で読み取った表面画像及び裏面画像に対して、画像処理部23から渡される原稿端の検出結果をもとに、形成部25で形成する画像を作成する。例えば、原稿端の検出結果から原稿の位置、大きさ、傾きなどが分かるので、傾きを補正し、補正後の原稿部分の画像を切り出せばよい。あるいはさらに、形成部25で使用する媒体の大きさに応じた拡大縮小処理などを行ってもよい。あるいは切り出した画像の大きさに応じた大きさの媒体を指定して形成部25に画像の形成を指示してもよい。また、例えば原稿端の検出結果から原稿端部分に対して補正処理を施して原稿端を画像から消去し、いわゆる枠消し機能を行ってもよい。
The
形成部25は、画像作成部24で作成した画像を媒体上に形成する。
The forming unit 25 forms the image created by the
図8は、本発明の画像処理装置の各実施の形態で説明した機能をコンピュータプログラムで実現した場合におけるコンピュータプログラム及びそのコンピュータプログラムを格納した記憶媒体とコンピュータの一例の説明図である。図中、31はプログラム、32はコンピュータ、41は光磁気ディスク、42は光ディスク、43は磁気ディスク、44はメモリ、51はCPU、52は内部メモリ、53は読取部、54はハードディスク、55はインタフェース、56は通信部である。 FIG. 8 is an explanatory diagram of an example of a computer program, a storage medium storing the computer program, and a computer when the functions described in the embodiments of the image processing apparatus of the present invention are realized by a computer program. In the figure, 31 is a program, 32 is a computer, 41 is a magneto-optical disk, 42 is an optical disk, 43 is a magnetic disk, 44 is a memory, 51 is a CPU, 52 is an internal memory, 53 is a reading unit, 54 is a hard disk, and 55 is An interface 56 is a communication unit.
上述の本発明の画像処理装置の各実施の形態で説明した各部の機能を全部あるいは部分的に、コンピュータにより実行可能なプログラム31によって実現してもよい。その場合、そのプログラム31およびそのプログラムが用いるデータなどは、コンピュータが読み取り可能な記憶媒体に記憶させておけばよい。記憶媒体とは、コンピュータのハードウェア資源に備えられている読取部53に対して、プログラムの記述内容に応じて、磁気、光、電気等のエネルギーの変化状態を引き起こして、それに対応する信号の形式で、読取部53にプログラムの記述内容を伝達するものである。例えば、光磁気ディスク41,光ディスク42(CDやDVDなどを含む)、磁気ディスク43,メモリ44(ICカード、メモリカード、フラッシュメモリなどを含む)等である。もちろんこれらの記憶媒体は、可搬型に限られるものではない。
You may implement | achieve the function of each part demonstrated by each embodiment of the image processing apparatus of the above-mentioned this invention entirely or partially with the program 31 executable by a computer. In that case, the program 31 and data used by the program may be stored in a computer-readable storage medium. A storage medium is a signal of a corresponding signal that causes a change state of energy such as magnetism, light, electricity, etc., depending on the description content of the program, to the
これらの記憶媒体にプログラム31を格納しておき、例えばコンピュータ32の読取部53あるいはインタフェース55にこれらの記憶媒体を装着することによって、コンピュータからプログラム31を読み出し、内部メモリ52またはハードディスク54(磁気ディスクやシリコンディスクなどを含む)に記憶し、CPU51によってプログラム31を実行することによって、上述の本発明の画像処理装置の各実施の形態で説明した機能が全部あるいは部分的に実現される。あるいは、通信路を介してプログラム31をコンピュータ32に転送し、コンピュータ32では通信部56でプログラム31を受信して内部メモリ52またはハードディスク54に記憶し、CPU51によってプログラム31を実行することによって実現してもよい。
The program 31 is stored in these storage media, and the program 31 is read from the computer by, for example, mounting these storage media on the
コンピュータ32には、このほかインタフェース55を介して様々な装置と接続してもよい。例えば情報を表示する表示手段や利用者からの情報を受け付ける受付手段等も接続されていてもよい。また、例えば原稿の両面を読み取る画像読取装置がインタフェース55を介して接続され、画像読取装置で読み取った表面画像及び裏面画像から原稿端を検出してもよい。さらに、画像形成装置がインタフェース55を介して接続され、画像作成部24の機能を含めて上述の本発明の画像形成装置の実施の一形態で示した構成を実現してもよい。
In addition, the
もちろん、部分的にハードウェアによって構成することもできるし、全部をハードウェアで構成してもよい。あるいは、他の構成とともに本発明の画像処理装置の各実施の形態で説明した機能の全部あるいは部分的に含めたプログラムとして構成してもよい。上述のように本発明の画像形成装置の実施の一形態で示した画像作成部24の機能を実現するプログラムとともに構成してもよい。もちろん、他の用途に適用する場合には、その用途におけるプログラムと一体化してもよい
Of course, it may be partially configured by hardware, or all may be configured by hardware. Alternatively, it may be configured as a program including all or part of the functions described in the embodiments of the image processing apparatus of the present invention together with other configurations. As described above, the program may be configured together with a program that realizes the function of the
11…鏡像変換部、12…濃度境界検出部、13…原稿端検出部、21,22…読取部、23…画像処理部、24…画像作成部、25…形成部、31…プログラム、32…コンピュータ、41…光磁気ディスク、42…光ディスク、43…磁気ディスク、44…メモリ、51…CPU、52…内部メモリ、53…読取部、54…ハードディスク、55…インタフェース、56…通信部。
DESCRIPTION OF
Claims (7)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010007964A JP5527523B2 (en) | 2010-01-18 | 2010-01-18 | Image processing apparatus, image processing program, and image forming apparatus |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010007964A JP5527523B2 (en) | 2010-01-18 | 2010-01-18 | Image processing apparatus, image processing program, and image forming apparatus |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2011145970A true JP2011145970A (en) | 2011-07-28 |
JP5527523B2 JP5527523B2 (en) | 2014-06-18 |
Family
ID=44460750
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2010007964A Expired - Fee Related JP5527523B2 (en) | 2010-01-18 | 2010-01-18 | Image processing apparatus, image processing program, and image forming apparatus |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5527523B2 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017108322A (en) * | 2015-12-11 | 2017-06-15 | コニカミノルタ株式会社 | Image reader and image forming apparatus |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002281244A (en) * | 2001-03-16 | 2002-09-27 | Canon Electronics Inc | Image reading apparatus and method therefor, controller, program and memory medium |
JP2004254166A (en) * | 2003-02-21 | 2004-09-09 | Kyocera Mita Corp | Image forming apparatus |
JP2006237999A (en) * | 2005-02-24 | 2006-09-07 | Canon Electronics Inc | Image processing apparatus and image processing system |
JP2009017409A (en) * | 2007-07-06 | 2009-01-22 | Pfu Ltd | Image reading processor, image reader and image reading processing method |
-
2010
- 2010-01-18 JP JP2010007964A patent/JP5527523B2/en not_active Expired - Fee Related
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002281244A (en) * | 2001-03-16 | 2002-09-27 | Canon Electronics Inc | Image reading apparatus and method therefor, controller, program and memory medium |
JP2004254166A (en) * | 2003-02-21 | 2004-09-09 | Kyocera Mita Corp | Image forming apparatus |
JP2006237999A (en) * | 2005-02-24 | 2006-09-07 | Canon Electronics Inc | Image processing apparatus and image processing system |
JP2009017409A (en) * | 2007-07-06 | 2009-01-22 | Pfu Ltd | Image reading processor, image reader and image reading processing method |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017108322A (en) * | 2015-12-11 | 2017-06-15 | コニカミノルタ株式会社 | Image reader and image forming apparatus |
Also Published As
Publication number | Publication date |
---|---|
JP5527523B2 (en) | 2014-06-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11481878B2 (en) | Content-based detection and three dimensional geometric reconstruction of objects in image and video data | |
US9984429B2 (en) | Feature-based signal localization in digital capture systems | |
US20120294528A1 (en) | Method of Detecting and Correcting Digital Images of Books in the Book Spine Area | |
JP2011181071A (en) | Method and apparatus for detecting page boundary | |
EP2536123B1 (en) | Image processing method and image processing apparatus | |
JP5832656B2 (en) | Method and apparatus for facilitating detection of text in an image | |
KR101011908B1 (en) | Method of noise reduction for digital images and image processing device thereof | |
JP6106808B2 (en) | Specify barcode placement in document | |
JP4565396B2 (en) | Image processing apparatus and image processing program | |
JP5725276B2 (en) | Binarization processing apparatus, image processing apparatus, binarization processing program, image processing program | |
JP5527523B2 (en) | Image processing apparatus, image processing program, and image forming apparatus | |
US8995762B2 (en) | Image processing apparatus and non-transitory computer readable medium for obtaining similarity between a local color displacement distribution and an extracted color displacement | |
JP6137464B2 (en) | Image processing apparatus and image processing program | |
JP4569785B2 (en) | Binarization device and binarization processing program | |
JP2012065230A (en) | Image binarizing method and image binarizing apparatus | |
JP5939393B2 (en) | Image processing apparatus and image processing program | |
JP6144892B2 (en) | Image processing apparatus, image processing method, and program | |
JP2010182219A (en) | Image processing apparatus | |
JP2014071784A (en) | Device and method for reading driver's license | |
JP5146653B2 (en) | Image processing apparatus and image processing program | |
JP6815274B2 (en) | Image reader and image reading method | |
JP6155609B2 (en) | Parallax calculating apparatus and program | |
JP2012008914A (en) | Image processing device and image processing program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20121220 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20131219 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20131225 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20140218 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20140319 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20140401 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5527523 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
S533 | Written request for registration of change of name |
Free format text: JAPANESE INTERMEDIATE CODE: R313533 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
LAPS | Cancellation because of no payment of annual fees |