JP5104528B2 - Image processing apparatus and image processing program - Google Patents
Image processing apparatus and image processing program Download PDFInfo
- Publication number
- JP5104528B2 JP5104528B2 JP2008120966A JP2008120966A JP5104528B2 JP 5104528 B2 JP5104528 B2 JP 5104528B2 JP 2008120966 A JP2008120966 A JP 2008120966A JP 2008120966 A JP2008120966 A JP 2008120966A JP 5104528 B2 JP5104528 B2 JP 5104528B2
- Authority
- JP
- Japan
- Prior art keywords
- area
- image
- region
- inclusion
- image component
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Image Analysis (AREA)
Description
本発明は、画像処理装置および画像処理プログラムに関する。 The present invention relates to an image processing apparatus and an image processing program.
画像から画像構成要素(画像オブジェクトとも呼ばれる)の領域を抽出する技術が知られている。 A technique for extracting an area of an image constituent element (also called an image object) from an image is known.
特許文献1には、文書画像の背景色を特定し、当該背景色を用いて当該文書画像から背景領域以外の画素を抽出し、当該画素を統合して連結成分を生成し、当該連結成分を少なくとも形状特徴を用いて所定の領域に分類して、当該文書画像の領域識別の結果を得る方法が記載されている。 In Patent Document 1, a background color of a document image is specified, pixels other than the background region are extracted from the document image using the background color, and the connected components are generated by integrating the pixels. A method is described in which at least a shape feature is used to classify a predetermined region and a result of region identification of the document image is obtained.
特許文献2には、画像内の同色領域を抽出する方法であって、ある一定の大きさの探索ブロックを画像内でラスタスキャンし、当該探索ブロック内の画素の分散を求め、分散がある閾値を下回るときに当該探索ブロックを種ブロックとし、種ブロックを基準に周りの画素が種ブロックと同色領域がどうかを画素単位で判定していき、同色領域を抽出していく方法が記載されている。
特許文献3には、入力画像の読み取り情報に基づいて、入力画像の同一とみなす色の範囲を設定し、当該設定された色の範囲の連結画素に同一ラベルを付すことにより、入力画像のラベリングを行う技術が記載されている。ここで、上記入力画像の読み取り情報は、入力画像の色数、読み取り解像度、輝度値、彩度、隣接画素間の色差、色の分散などである。 Japanese Patent Laid-Open No. 2004-228688 sets the color range that is regarded as the same color of the input image based on the read information of the input image, and labels the connected pixels in the set color range, thereby labeling the input image. Techniques for performing are described. Here, the reading information of the input image includes the number of colors of the input image, reading resolution, luminance value, saturation, color difference between adjacent pixels, color dispersion, and the like.
特許文献4には、画像全体を、特徴量の均一性がある部分は領域を大きく、均一性が無い部分は領域を小さくして複数に分割し、当該分割した領域を対象として、その各領域の中で大きな領域を起点領域として選択し、当該起点領域の周辺にある領域でその特徴量が起点領域の特徴量に類似する領域を起点領域に統合して一つの分割領域を形成し、これを未統合の領域を対象として繰り返し行うことで複数の分割領域を形成する方法が記載されている。
In
ところで、画像の中から、背景色の領域で区画される各領域を、画像構成要素領域として抽出する場合、1つの領域として扱うべき複数の領域が別々の画像構成要素領域として抽出されることがある。 By the way, when each area divided by the background color area is extracted from the image as an image component area, a plurality of areas to be handled as one area may be extracted as separate image component areas. is there.
本発明は、背景領域で分断されているが1つの領域として扱うべき複数の領域を1つの画像構成要素領域として抽出することが可能な画像処理装置および画像処理プログラムを提供することを目的とする。 An object of the present invention is to provide an image processing apparatus and an image processing program capable of extracting a plurality of areas which are divided by a background area but should be handled as one area as one image component area. .
本発明に係る画像処理装置は、画像を受け付ける画像受付手段と、前記画像の背景色を特定する背景色特定手段と、前記画像の中から、前記背景色の領域で区画される各領域を、画像構成要素領域として抽出する領域抽出手段と、前記抽出された画像構成要素領域のうちの少なくとも2つの画像構成要素領域同士の関係が、1つの画像構成要素領域として扱うべき所定の条件を満たす場合に、前記少なくとも2つの画像構成要素領域を1つの画像構成要素領域に統合する領域統合手段と、を有する。 An image processing apparatus according to the present invention includes an image receiving unit that receives an image, a background color specifying unit that specifies a background color of the image, and each region partitioned by the region of the background color from the image. A region extracting means for extracting as an image component region and a relationship between at least two of the extracted image component regions satisfy a predetermined condition to be treated as one image component region in, that having a, a region integrating means for integrating the at least two image components area in one image component area.
本発明では更に、前記領域統合手段は、前記抽出された画像構成要素領域のうちある画像構成要素領域(以下、「被包含領域」と称す)の外接矩形が他の画像構成要素領域(以下、「包含領域」と称す)の外接矩形に包含され、かつ前記被包含領域が前記包含領域に所定程度以上近接する場合に、前記包含領域と前記被包含領域とを1つの画像構成要素領域に統合する。 In the present invention , the region integration unit may further include a circumscribed rectangle of an image component region (hereinafter referred to as “included region”) among the extracted image component regions as another image component region (hereinafter referred to as “image component region”). The inclusion region and the inclusion region are integrated into one image component region when the inclusion region is included in a circumscribed rectangle of the “inclusion region”) and the inclusion region is close to the inclusion region by a predetermined degree or more. To do.
また、本発明では更に、前記領域統合手段は、前記被包含領域の外接矩形の4辺の各々について、当該辺が前記包含領域と近接するか否かを判定し、所定数の辺が前記包含領域に近接すると判定された場合に、前記被包含領域が前記包含領域に近接すると判定する。 Further , in the present invention , the region integration means determines, for each of the four sides of the circumscribed rectangle of the inclusion region, whether or not the side is close to the inclusion region, and a predetermined number of sides is included in the inclusion region. When it is determined that the area is close to the area, it is determined that the inclusion area is close to the inclusion area.
また、本発明の一態様では、前記領域統合手段は、前記辺上の各画素について、当該辺に垂直な方向について、当該画素と前記包含領域との間隔が所定間隔以下であるか否かを検査し、当該検査結果に基づき、当該辺が前記包含領域に近接するか否かを判定する。 In the aspect of the invention, the region integration unit may determine whether or not the interval between the pixel and the inclusion region is equal to or less than a predetermined interval for each pixel on the side in a direction perpendicular to the side. Inspection is performed, and it is determined based on the inspection result whether the side is close to the inclusion region.
また、本発明の一態様では、前記領域統合手段は、前記辺上の画素のうち前記間隔が所定間隔以下である画素の個数が所定数以上である場合に、当該辺は前記包含領域に近接すると判定する。 In the aspect of the invention, the region integration unit may be configured such that, when the number of pixels having the interval equal to or less than the predetermined interval among the pixels on the side is equal to or greater than the predetermined number, the side is close to the inclusion region. Judge that.
また、本発明の一態様では、前記領域統合手段は、前記辺上の各画素について、当該辺に垂直な方向について、当該画素と前記包含領域との間隔が所定間隔以下であり、かつ当該画素に対向する前記包含領域の幅が所定幅以上であるか否かを検査し、当該検査結果に基づき、当該辺が前記包含領域に近接するか否かを判定する。 In the aspect of the invention, the region integration unit may be configured such that, for each pixel on the side, an interval between the pixel and the inclusion region is equal to or less than a predetermined interval in a direction perpendicular to the side. It is inspected whether the width of the inclusion area opposite to is greater than or equal to a predetermined width, and based on the inspection result, it is determined whether the side is close to the inclusion area.
また、本発明の一態様では、前記領域統合手段は、前記辺上の画素のうち前記間隔が所定間隔以下であり前記幅が所定幅以上である画素の個数が所定数以上である場合に、当該辺は前記包含領域に近接すると判定する。 Also, in one aspect of the present invention, the region integration unit is configured such that, among the pixels on the side, the number of pixels in which the interval is equal to or smaller than a predetermined interval and the width is equal to or greater than a predetermined width It is determined that the side is close to the inclusion area.
また、本発明の一態様では、前記領域統合手段は、前記被包含領域の外接矩形が大きくなるほど前記所定間隔が大きくなるように、前記被包含領域の外接矩形の大きさに応じて前記所定間隔を変化させる。 In the aspect of the invention, the region integration unit may determine the predetermined interval according to a size of the circumscribed rectangle of the included region such that the larger the circumscribed rectangle of the included region, the larger the predetermined interval. To change.
また、本発明の一態様では、前記領域統合手段は、前記被包含領域の外接矩形が大きくなるほど前記所定幅が大きくなるように、前記被包含領域の外接矩形の大きさに応じて前記所定幅を変化させる。 In the aspect of the invention, the region integration unit may be configured such that the predetermined width is increased according to a size of the circumscribed rectangle of the included region so that the predetermined width increases as the circumscribed rectangle of the included region increases. To change.
また、参考例では、前記領域統合手段は、前記抽出された画像構成要素領域のうちの2つの画像構成要素領域の外接矩形が互いに重複し、かつ前記2つの画像構成要素領域の特徴が互いに所定程度以上類似する場合に、前記2つの画像構成要素領域を1つの画像構成要素領域に統合する。 Further, in the reference example , the region integration unit includes a circumscribed rectangle of two image component regions of the extracted image component regions that overlap each other, and features of the two image component regions are predetermined to each other. If they are more or less similar, the two image component regions are integrated into one image component region.
また、参考例では、前記領域統合手段は、前記抽出された画像構成要素領域のうちの2つの画像構成要素領域の外接矩形が互いに所定程度以上近接し、かつ前記2つの画像構成要素領域の特徴が互いに所定程度以上類似する場合に、前記2つの画像構成要素領域を1つの画像構成要素領域に統合する。 Further, in the reference example , the region integration unit is characterized in that circumscribed rectangles of two image component regions of the extracted image component regions are close to each other by a predetermined degree or more, and the characteristics of the two image component regions Are similar to each other by a predetermined degree or more, the two image component regions are integrated into one image component region.
本発明に係る画像処理プログラムは、コンピュータに、画像を受け付ける手順と、前記画像の背景色を特定する手順と、前記画像の中から、前記背景色の領域で区画される各領域を、画像構成要素領域として抽出する手順と、前記抽出された画像構成要素領域のうちの少なくとも2つの画像構成要素領域同士の関係が、1つの画像構成要素領域として扱うべき所定の条件を満たす場合に、前記少なくとも2つの画像構成要素領域を1つの画像構成要素領域に統合する手順と、を実行させる。 An image processing program according to the present invention includes: a procedure for accepting an image to a computer; a procedure for specifying a background color of the image; and each region partitioned by the background color region from the image. When at least two of the extracted image component regions and the relationship between at least two image component regions among the extracted image component regions satisfy a predetermined condition to be treated as one image component region, the at least a step of integrating the two image component area in one image component area, Ru is running.
本発明に係る画像処理プログラムでは更に、前記統合する手順では、前記抽出された画像構成要素領域のうちある画像構成要素領域(以下、「被包含領域」と称す)の外接矩形が他の画像構成要素領域(以下、「包含領域」と称す)の外接矩形に包含され、かつ前記被包含領域が前記包含領域に所定程度以上近接する場合に、前記包含領域と前記被包含領域とを1つの画像構成要素領域に統合すると共に、前記被包含領域の外接矩形の4辺の各々について、当該辺が前記包含領域と近接するか否かを判定し、所定数の辺が前記包含領域に近接すると判定された場合に、前記被包含領域が前記包含領域に近接すると判定する。 In the image processing program according to the present invention , in the integration step, a circumscribed rectangle of an image component region (hereinafter referred to as “included region”) among the extracted image component regions is another image configuration. When the element region (hereinafter referred to as “inclusion region”) is included in a circumscribed rectangle and the inclusion region is close to the inclusion region by a predetermined degree or more, the inclusion region and the inclusion region are combined into one image. For each of the four sides of the circumscribed rectangle of the inclusion region, it is determined whether or not the side is close to the inclusion region, and a predetermined number of sides is determined to be close to the inclusion region If it is determined that the inclusion area is close to the inclusion area .
また、参考例では、前記統合する手順では、前記抽出された画像構成要素領域のうちの2つの画像構成要素領域の外接矩形が互いに重複し、かつ前記2つの画像構成要素領域の特徴が互いに所定程度以上類似する場合に、前記2つの画像構成要素領域を1つの画像構成要素領域に統合する。 In the reference example , in the integration step, circumscribed rectangles of two image component regions of the extracted image component regions overlap each other, and characteristics of the two image component regions are predetermined to each other. If they are more or less similar, the two image component regions are integrated into one image component region.
また、参考例では、前記統合する手順では、前記抽出された画像構成要素領域のうちの2つの画像構成要素領域の外接矩形が互いに所定程度以上近接し、かつ前記2つの画像構成要素領域の特徴が互いに所定程度以上類似する場合に、前記2つの画像構成要素領域を1つの画像構成要素領域に統合する。 In the reference example , in the integration step, the circumscribed rectangles of the two image component regions out of the extracted image component regions are close to each other by a predetermined degree and the features of the two image component regions are Are similar to each other by a predetermined degree or more, the two image component regions are integrated into one image component region.
請求項1に記載の発明によれば、背景領域で分断されているが1つの領域として扱うべき複数の領域を1つの画像構成要素領域として抽出することが可能となる。 According to the first aspect of the present invention, it is possible to extract a plurality of areas that are divided by the background area but should be handled as one area as one image component area.
更に請求項1に記載の発明によれば、背景領域で分断された互いに近接する外周領域と内部領域とを1つの画像構成要素領域として抽出することが可能となる。 Furthermore , according to the first aspect of the present invention, it is possible to extract an outer peripheral area and an inner area that are separated from each other by a background area as one image component area.
更に請求項1に記載の発明によれば、被包含領域の外接矩形の各辺が包含領域に近接するかを判定することにより、被包含領域が包含領域に近接するか否かを簡単に判定することが可能となる。 Further , according to the invention described in claim 1 , it is easily determined whether or not the inclusion area is close to the inclusion area by determining whether or not each side of the circumscribed rectangle of the inclusion area is close to the inclusion area. It becomes possible to do.
請求項2に記載の発明によれば、辺上の各画素と包含領域との間隔が所定間隔であるか否かを検査することにより、辺が包含領域に近接するか否かを簡単に判定することが可能となる。
According to the invention described in
請求項3に記載の発明によれば、辺上の画素のうち上記間隔が所定間隔以下である画素の個数に応じて、辺が包含領域に近接するか否かを判定することが可能となる。 According to the third aspect of the present invention, it is possible to determine whether or not the side is close to the inclusion region according to the number of pixels on the side where the interval is equal to or less than the predetermined interval. .
請求項4に記載の発明によれば、辺上の各画素と包含領域との間隔と、辺上の各画素に対向する包含領域の幅とを考慮して、辺が包含領域に近接するか否かを判定することが可能となる。
According to the invention of
請求項5に記載の発明によれば、辺上の画素のうち上記間隔が所定間隔以下であり上記幅が所定幅以上である画素の個数に応じて、辺が包含領域に近接するか否かを判定することが可能となる。 According to the fifth aspect of the present invention, whether or not the side is close to the inclusion region according to the number of pixels on the side where the interval is equal to or smaller than the predetermined interval and the width is equal to or larger than the predetermined width. Can be determined.
請求項6に記載の発明によれば、被包含領域の大きさに応じた適切な所定間隔を設定することが可能となる。 According to the invention described in claim 6 , it is possible to set an appropriate predetermined interval according to the size of the inclusion region.
請求項7に記載の発明によれば、被包含領域の大きさに応じた適切な所定幅を設定することが可能となる。 According to the seventh aspect of the present invention, it is possible to set an appropriate predetermined width according to the size of the inclusion region.
参考例によれば、背景領域で分断された、互いに外接矩形が重複し、かつ互いに特徴が類似する2つの領域を1つの画像構成要素領域として抽出することが可能となる。 According to the reference example , it is possible to extract, as one image component area, two areas that are separated by a background area and that have circumscribed rectangles that overlap each other and that have similar characteristics.
参考例によれば、背景領域で分断された、互いに外接矩形が近接し、かつ互いに特徴が類似する2つの領域を1つの画像構成要素領域として抽出することが可能となる。 According to the reference example , it is possible to extract, as one image component area, two areas that are separated by a background area and that have circumscribed rectangles close to each other and that have similar characteristics.
請求項8に記載の発明によれば、背景領域で分断されているが1つの領域として扱うべき複数の領域を1つの画像構成要素領域として抽出することが可能となる。 According to the eighth aspect of the present invention, it is possible to extract a plurality of areas that are divided by the background area but should be handled as one area as one image component area.
更に請求項8に記載の発明によれば、背景領域で分断された互いに近接する外周領域と内部領域とを1つの画像構成要素領域として抽出することが可能となると共に被包含領域の外接矩形の各辺が包含領域に近接するかを判定することにより、被包含領域が包含領域に近接するか否かを簡単に判定することが可能となる。 Furthermore , according to the eighth aspect of the present invention, it is possible to extract an outer peripheral area and an inner area adjacent to each other divided by the background area as one image constituent element area, and a circumscribed rectangle of the inclusion area. By determining whether each side is close to the inclusion region, it is possible to easily determine whether the inclusion region is close to the inclusion region .
参考例によれば、背景領域で分断された、互いに外接矩形が重複し、かつ互いに特徴が類似する2つの領域を1つの画像構成要素領域として抽出することが可能となる。 According to the reference example , it is possible to extract, as one image component area, two areas that are separated by a background area and that have circumscribed rectangles that overlap each other and that have similar characteristics.
参考例によれば、背景領域で分断された、互いに外接矩形が近接し、かつ互いに特徴が類似する2つの領域を1つの画像構成要素領域として抽出することが可能となる。
According to the reference example , it is possible to extract, as one image component area, two areas that are separated by a background area and that have circumscribed rectangles close to each other and that have similar characteristics.
以下、本発明の実施の形態を図面に従って説明する。 Hereinafter, embodiments of the present invention will be described with reference to the drawings.
図1は、本実施の形態に係る画像処理装置10の構成の一例を示すブロック図である。この画像処理装置10は、処理対象の画像の中から画像構成要素の領域(すなわち画像構成要素領域)を抽出する装置である。以下の説明では、画像構成要素を「画像オブジェクト」と称し、画像構成要素領域を「画像オブジェクト領域」と称す。
FIG. 1 is a block diagram illustrating an example of a configuration of an
画像処理装置10は、一つの態様では、ハードウェア資源とソフトウェアとの協働により実現され、例えばコンピュータである。具体的には、画像処理装置10の機能は、記録媒体に記録された画像処理プログラムがメインメモリに読み出されてCPU(Central Processing Unit)により実行されることによって実現される。上記画像処理プログラムは、CD−ROM等のコンピュータ読み取り可能な記録媒体に記録されて提供されることも可能であるし、データ信号として通信により提供されることも可能である。ただし、画像処理装置10は、ハードウェアのみにより実現されてもよい。また、画像処理装置10は、物理的に1つの装置により実現されてもよいし、複数の装置により実現されてもよい。
In one embodiment, the
図1に示されるように、画像処理装置10は、画像受付部11、背景色特定部12、領域抽出部13、領域統合部14、および画像オブジェクト出力部15を有する。
As illustrated in FIG. 1, the
画像受付部11は、処理対象の画像(以下、「入力画像」と称す)を受け付ける。入力画像は、一つの態様では、複数の色成分を有するカラー画像であり、例えば、赤(R)、緑(G)、青(B)の3つの色成分を含む。また、入力画像は、例えば、水平方向および垂直方向にマトリクス状に複数の画素が配列されてなる画像データであり、各画素は、各色の階調値を有する。具体的な一態様では、入力画像は、RGB各色8ビットのビットマップ画像データである。入力画像は、例えば、原稿の画像を光学的に読み取る画像読取装置により生成された画像データである。ただし、入力画像は、各種の記録媒体に記録された画像データなどであってもよい。
The
背景色特定部12は、画像受付部11により受け付けられた入力画像の背景色を特定する。背景色特定部12は、特定の1つの色を背景色として特定してもよいし、色空間における特定の範囲の色を背景色として特定してもよい。背景色特定部12は、様々な方法により背景色を特定することができるが、例えば、入力画像において出現頻度が最も高い色、または当該色から所定範囲内の色を背景色として特定する。
The background
領域抽出部13は、上記入力画像の中から、上記背景色の領域(すなわち背景領域)で区画される各領域を、画像オブジェクト領域として抽出する。一つの態様では、領域抽出部13は、入力画像の画素を背景色の画素と背景色以外の画素とに分類することにより、入力画像を2値画像に変換する。例えば、領域抽出部13は、背景色の画素の画素値を「0」とし、背景色以外の画素の画素値を「1」として、図2に示されるフルカラーの入力画像から、図3に示される2値画像を生成する。図3では、画素値「0」の領域は白色で表現され、画素値「1」の領域は黒色で表現されている。ついで、領域抽出部13は、上記2値画像中の背景色以外の画素の各連結成分の領域を、画像オブジェクト領域として抽出する。ここで、連結成分とは、2値画像中で、同じ値を持つ画素が互いに連結して一つの塊を形成しているものである。具体的な一態様では、領域抽出部13は、上記2値画像に対してラベリング処理を行って、ラベリング画像を生成する。ここで、ラベリング処理とは、2値画像中の各連結成分の画素に対し、連結成分毎に異なるラベルを割り当てる処理である。例えば、領域抽出部13は、図3の2値画像に対してラベリング処理を行って、図4に示されるラベリング画像を生成する。図4では、各連結成分の画素には、連結成分毎に異なるラベル番号1,2,3,4が割り当てられており、互いに異なるラベル番号が付与された領域は、互いに異なるハッチングで表現されている。同一のラベル番号が割り当てられた画素群の領域が、それぞれ画像オブジェクト領域に対応する。すなわち、図4の例では、ラベル番号1〜4の4つの画像オブジェクト領域が抽出されている。なお、図4において、白抜き文字「D」の外周領域および内部領域は、本来1つの画像オブジェクト領域として扱われるべきであるが、背景領域で分断されてラベル番号3,4の別々の画像オブジェクト領域として抽出されている。このように、領域抽出部13の抽出処理では、白抜き文字の外周領域および内部領域など、背景領域で分断されているが1つの領域として扱うべき領域は、背景色以外の画素が連結しないため、同一領域として抽出されない。
The
領域統合部14は、領域抽出部13により抽出された画像オブジェクト領域のうちの少なくとも2つの画像オブジェクト領域同士の関係が、1つの画像オブジェクト領域として扱うべき所定の条件を満たす場合に、上記少なくとも2つの画像オブジェクト領域を1つの画像オブジェクト領域に統合する。
The
上記所定の条件は、例えば、どのような場合に画像オブジェクト領域を統合すべきかに応じて、また、どのような場合に画像オブジェクト領域を統合すべきでないかに応じて、予め設定される。当該所定の条件は、例えば、画像オブジェクト領域同士の位置関係に関する条件や、画像オブジェクト領域同士の特徴の類似度合いに関する条件などを含む。なお、当該所定の条件の具体例については、後に詳しく説明する。 The predetermined condition is set in advance, for example, depending on when the image object area should be integrated and when the image object area should not be integrated. The predetermined condition includes, for example, a condition related to the positional relationship between the image object areas, a condition related to the degree of similarity of features between the image object areas, and the like. A specific example of the predetermined condition will be described in detail later.
画像オブジェクト領域の統合に関し、一つの態様では、領域統合部14は、少なくとも2つの画像オブジェクト領域を統合する場合、これらの画像オブジェクト領域のラベル番号を共通のラベル番号に統一し、統一後のラベリング画像を処理結果として出力する。例えば、領域統合部14は、図4の白抜き文字「D」の2つの画像オブジェクト領域を統合する場合、ラベル番号4の画素にラベル番号3を振りなおして、図5に示されるラベリング画像を処理結果として出力する。別の態様では、領域統合部14は、少なくとも2つの画像オブジェクト領域を統合する場合、その旨を示す情報を処理結果として出力する。例えば、領域統合部14は、図4の白抜き文字「D」の2つの画像オブジェクト領域を統合する場合、ラベル番号3,4の画像オブジェクト領域を1つの画像オブジェクト領域に統合する旨を示す統合情報を、処理結果として出力する。
Regarding integration of image object areas, in one aspect, when integrating at least two image object areas, the
画像オブジェクト出力部15は、領域抽出部13および領域統合部14の処理結果に基づき、画像オブジェクトまたは画像オブジェクトを生成するための情報を出力する。
The image
一つの態様では、画像オブジェクト出力部15は、画像オブジェクトを生成するための情報として、画像オブジェクト毎に、マスク画像および切り取り画像を出力する。ここで、マスク画像は、画像オブジェクト領域の外接矩形で区画され、画像オブジェクトの形状を表す2値画像である。例えば、マスク画像は、背景領域の画素に画素値「0」が付与され、画像オブジェクト領域の画素に画素値「1」が付与された画像である。また、切り取り画像は、画像オブジェクト領域の外接矩形で入力画像を切り取って得られる画像である。例えば、画像オブジェクト出力部15は、図5のラベリング画像から、または図4のラベリング画像と統合情報とから、図6に示される3つのマスク画像21〜23を生成し、図2の入力画像と図5のラベリング画像とから図7に示される3つのフルカラーの切り取り画像31〜33を生成する。
In one aspect, the image
別の態様では、画像オブジェクト出力部15は、上記マスク画像および切り取り画像に基づき画像オブジェクトを生成して出力する。具体的には、マスク画像と切り取り画像とのアンドをとり、すなわち切り取り画像をマスク画像でマスクして、画像オブジェクトを生成する。例えば、画像オブジェクト出力部15は、図7の3つの切り取り画像31〜33をそれぞれ図6の3つのマスク画像21〜23でマスクして、図8に示される3つのフルカラーの画像オブジェクト41〜43を生成する。
In another aspect, the image
なお、仮に領域統合部14による統合処理が実施されない場合には、例えば、図4に示されるラベリング画像から図9に示される4つのマスク画像51〜54が生成されることになる。すなわち、白抜き文字「D」の外周と内部とは、別々の画像オブジェクトとして抽出されることになる。
If the integration processing by the
図10は、本実施の形態に係る画像処理装置10の動作の一例を示すフローチャートである。以下、図10を参照して、画像処理装置10の動作の一例を説明する。
FIG. 10 is a flowchart showing an example of the operation of the
画像処理装置10は、入力画像(例えば24ビットフルカラー画像データ)を受け付ける(S1)。
The
ついで、画像処理装置10は、入力画像の背景色を特定する(S2)。
Next, the
ついで、画像処理装置10は、入力画像の中から、背景色の領域で区画される各領域を、画像オブジェクト領域として抽出する(S3)。すなわち、画像処理装置10は、背景上の画像オブジェクト領域を検出する。
Next, the
ついで、画像処理装置10は、上記抽出された画像オブジェクト領域について、画像オブジェクト領域の統合処理を行う(S4)。すなわち、画像処理装置10は、上記抽出された画像オブジェクト領域のうちの少なくとも2つの画像オブジェクト領域同士の関係が、1つの画像オブジェクト領域として扱うべき所定の条件を満たす場合に、当該少なくとも2つの画像オブジェクト領域を1つの画像オブジェクト領域に統合する。
Next, the
そして、画像処理装置10は、ステップS3およびS4の処理結果に基づき、画像オブジェクトまたは画像オブジェクトを生成するための情報を出力する(S5)。
Then, the
以下、領域統合部14の処理、すなわち上記ステップS4の統合処理の具体例として、第1〜第3の具体例を示す。
Hereinafter, first to third specific examples will be shown as specific examples of the process of the
[第1の具体例]
上述のとおり、白抜き文字の外周領域と内部領域は、領域抽出部13により別々の画像オブジェクト領域として抽出される。しかし、白抜き文字の外周と内部とは両方で1つの画像オブジェクトを構成するので、白抜き文字の外周領域と内部領域は、1つの画像オブジェクト領域として抽出されることが望ましい。ここで、白抜き文字において、内部領域の外接矩形は外周領域の外接矩形に包含され、内部領域と外周領域とは互いに近接する。したがって、ある画像オブジェクト領域の外接矩形が他の画像オブジェクト領域の外接矩形に包含され、かつ当該2つの画像オブジェクト領域が互いに近接している場合には、当該2つの画像オブジェクト領域は白抜き文字を構成する可能性が高い。
[First specific example]
As described above, the outer peripheral area and the inner area of the outline character are extracted as separate image object areas by the
上記の事情等に鑑み、本例では、領域統合部14は、領域抽出部13により抽出された画像オブジェクト領域のうちある画像オブジェクト領域(以下、「被包含領域」と称す)の外接矩形が他の画像オブジェクト領域(以下、「包含領域」と称す)の外接矩形に包含され、かつ被包含領域が包含領域に所定程度以上近接する場合に、包含領域と被包含領域とを1つの画像オブジェクト領域に統合する。
In view of the above circumstances and the like, in this example, the
具体的には、領域統合部14は、領域抽出部13により抽出された各画像オブジェクト領域の外接矩形を特定し、任意の2つの画像オブジェクト領域の外接矩形の包含関係を調査する。そして、包含関係が成立する場合に、所定の判定基準に従って、当該2つの画像オブジェクト領域同士が近接するか否かを判定し、近接すると判定される場合に、当該2つの画像オブジェクト領域を1つの画像オブジェクト領域に統合する。
Specifically, the
以下、図11を参照しながら、被包含領域が包含領域に近接するか否かの判定の例を説明する。図11では、白抜き文字「D」の内部領域(被包含領域)51の外接矩形52が、外周領域(包含領域)53の外接矩形54に包囲されている。
Hereinafter, an example of determining whether or not the inclusion region is close to the inclusion region will be described with reference to FIG. In FIG. 11, the circumscribed
領域統合部14は、被包含領域51の外接矩形52の4辺の各々について、当該辺が包含領域53と近接するか否かを判定し、所定数の辺が包含領域53に近接すると判定された場合に、被包含領域51が包含領域53に近接すると判定する。
For each of the four sides of the circumscribed
ここで、上記所定数は、例えば、アルファベット、数字、漢字など、どのような文字の白抜き文字を考慮するか、図12のような白抜き文字の画像端部Eとの接触を考慮するかなどに応じて適宜に設定されればよい。例えば、白抜き文字である可能性が非常に高い場合に限り統合したい場合には「4」が設定され、白抜き文字の画像端部との接触等を考慮する場合には「3」が設定され、漢字の白抜き文字を考慮する場合には「2」が設定され、出来るだけ漏れなく統合したい場合には「1」が設定される。また、例えば図13に示される漢字「田」などの白抜き文字などを考慮して、具体的な一態様では、領域統合部14は、被包含領域の外接矩形の4辺のうち互いに直交する少なくとも2つの辺が包含領域に近接すると判定された場合に、被包含領域が包含領域に近接すると判定する。すなわち、画像の水平方向に平行な2辺のうち少なくとも1辺が包含領域に近接し、かつ画像の垂直方向に平行な2辺のうち少なくとも1辺が包含領域に近接すると判定された場合に、両領域が近接すると判定する。
Here, for the predetermined number, for example, what kind of white character such as alphabet, number, kanji, etc. is considered, or whether contact with the image end E of the white character as shown in FIG. What is necessary is just to set suitably according to etc. For example, “4” is set when it is desired to integrate only when the possibility of being a white character is very high, and “3” is set when the contact of the white character with the image edge is considered. Then, “2” is set when considering white characters of Chinese characters, and “1” is set when integrating without omission as much as possible. Further, for example, in consideration of a white character such as the Chinese character “da” shown in FIG. 13, in one specific aspect, the
上記被包含領域の外接矩形の各辺が包含領域に近接するか否かの判定は、適宜の方法で行われればよいが、例えば以下のように行われる。 Whether or not each side of the circumscribed rectangle of the inclusion area is close to the inclusion area may be determined by an appropriate method, for example, as follows.
領域統合部14は、外接矩形52の辺上の各画素について、当該辺に垂直な方向について、当該画素と包含領域53との間隔が所定間隔以下であるか否かを検査し、当該検査結果に基づき、当該辺が包含領域53に近接するか否かを判定する。
For each pixel on the side of the circumscribed
例えば、領域統合部14は、辺上の画素のうち上記間隔が所定間隔以下である画素の個数が所定数以上である場合に、当該辺は包含領域53に近接すると判定する。上記所定数は、辺上の画素の総個数(すなわち辺の長さ)に応じて変化してもよく、例えば、辺上の画素の総個数に所定の割合を乗じて得られる数である。
For example, the
ここで、白抜き文字のサイズが大きいほど、被包含領域51の外接矩形52のサイズは大きくなり、被包含領域51と包含領域53との間隔も大きくなると考えられる。当該事情等を考慮して、一つの態様では、領域統合部14は、被包含領域51の外接矩形52が大きくなるほど上記所定間隔が大きくなるように、被包含領域51の外接矩形52の大きさに応じて上記所定間隔を変化させる。
Here, it is considered that the larger the size of the white character, the larger the size of the circumscribed
具体的な一態様では、領域統合部14は、図11において破線矢印で示されるように、外接矩形52の辺上の各画素から、当該辺に垂直に被包含領域51から離れる方向に所定画素数分だけ走査し、包含領域53に到達するか否かを検査し、当該検査結果に基づき、当該辺が包含領域53に近接するか否かを判定する。例えば、走査した本数のうち、所定本数(または所定割合)以上が包含領域53に到達した場合に、当該辺が包含領域53に近接すると判定する。領域統合部14は、被包含領域51の外接矩形52の大きさに応じて、上記走査する画素数を変化させる。
In a specific aspect, the
ところで、入力画像に表が含まれる場合、表の枠と、表の枠内の文字とは、互いに包含関係を有するが、別々の画像オブジェクトとして抽出したい場合がある。すなわち、白抜き文字の外周と内部とは統合したいが、表の枠と枠内の文字とは統合したくない、という要望がある。 By the way, when a table is included in the input image, the table frame and the characters in the table frame have an inclusive relationship with each other, but it may be desired to extract them as separate image objects. That is, there is a demand for integrating the outer periphery and the inside of the outline character, but not integrating the frame of the table and the character in the frame.
上記の事情等を考慮して、一つの態様では、領域統合部14は、外接矩形52の辺上の各画素から包含領域53までの間隔と、外接矩形52の辺上の各画素に対向する包含領域53の幅とに基づいて、当該辺が包含領域53に近接するか否かを判定する。具体的には、領域統合部14は、外接矩形52の辺上の各画素について、当該辺に垂直な方向について、当該画素と包含領域53との間隔が所定間隔以下であり、かつ当該画素に対向する包含領域53の幅が所定幅以上であるか否かを検査し、当該検査結果に基づき、当該辺が包含領域53に近接するか否かを判定する。例えば、領域統合部14は、外接矩形52の辺上の画素のうち上記間隔が所定間隔以下であり上記幅が所定幅以上である画素の個数が所定数以上である場合に、当該辺は包含領域53に近接すると判定する。当該態様においても、上記所定数は、辺上の画素の総個数(すなわち辺の長さ)に応じて変化してよく、例えば、辺上の画素の総個数に所定の割合を乗じて得られる数である。また、当該態様においても、領域統合部14は、被包含領域51の外接矩形52が大きくなるほど上記所定間隔が大きくなるように、被包含領域51の外接矩形52の大きさに応じて上記所定間隔を変化させてもよい。
In consideration of the above-described circumstances and the like, in one aspect, the
表のサイズが大きいほど、枠内の文字の領域である被包含領域の外接矩形のサイズは大きくなり、表の枠線の幅も大きくなると考えられる。当該事情等を考慮して、一つの態様では、領域統合部14は、被包含領域51の外接矩形52が大きくなるほど上記所定幅が大きくなるように、被包含領域51の外接矩形52の大きさに応じて上記所定幅を変化させる。
It is considered that the larger the size of the table, the larger the size of the circumscribed rectangle of the inclusion area, which is the character area in the frame, and the width of the border of the table. In consideration of the circumstances and the like, in one aspect, the
具体的な一態様では、領域統合部14は、図14に示されるように、外接矩形52の辺上の各画素から、当該辺に垂直に被包含領域51から離れる方向に所定画素数分だけ走査し、包含領域53に到達するか否かを検査する。さらに、領域統合部14は、上記各走査において、包含領域53に到達したあと、図14の実線矢印のように、さらに所定画素数分だけ追加走査し、追加走査が包含領域53から抜け出るか否かを検査し、当該検査結果に基づき、当該辺が包含領域53に近接するか否かを判定する。例えば、走査した本数のうち、所定本数(または所定割合)以上が包含領域53に到達し、かつ追加走査が包含領域53から抜け出なかった場合に、当該辺が包含領域53に近接すると判定する。領域統合部14は、被包含領域51の外接矩形52の大きさに応じて、上記最初に走査する画素数と、上記追加走査する画素数とを変化させる。
In one specific aspect, the
図15は、第1の具体例に係る統合処理の一例を示すフローチャートである。以下、図15を参照して、第1の具体例に係る統合処理の一例を説明する。 FIG. 15 is a flowchart illustrating an example of the integration process according to the first specific example. Hereinafter, an example of the integration process according to the first specific example will be described with reference to FIG.
画像処理装置10は、抽出された各画像オブジェクト領域の外接矩形を特定する(S11)。
The
ついで、画像処理装置10は、抽出された画像オブジェクト領域の中から2つの画像オブジェクト領域を選択し、当該2つの画像オブジェクト領域の外接矩形の間に包含関係があるか否かを判定する(S12)。
Next, the
そして、包含関係があると判定された場合(S12:YES)、画像処理装置10は、被包含領域が包含領域と近接するか否かを判定する(S13)。具体的には、画像処理装置10は、被包含領域の外接矩形の各辺上の各画素から水平方向および垂直方向に走査を行い、被包含領域の外接矩形の各辺が包含領域と近接するか否かを判定し、4辺とも包含領域と近接すると判定された場合には、被包含領域が包含領域と近接すると判定し、そうでない場合には近接しないと判定する。
If it is determined that there is an inclusion relationship (S12: YES), the
被包含領域が包含領域と近接すると判定された場合(S13:YES)、画像処理装置10は、被包含領域と包含領域とを1つの画像オブジェクト領域に統合し(S14)、処理をステップS15に進める。
When it is determined that the inclusion area is close to the inclusion area (S13: YES), the
一方、ステップS12で包含関係がないと判定された場合(S12:NO)、およびステップS13で被包含領域が包含領域と近接しないと判定された場合(S13:NO)、画像所理装置10は、上記統合処理を行うことなく、処理をステップS15に進める。
On the other hand, if it is determined in step S12 that there is no inclusion relationship (S12: NO), and if it is determined in step S13 that the inclusion region is not close to the inclusion region (S13: NO), the
ステップS15では、画像処理装置10は、すべての画像オブジェクト領域の組み合わせについて上記ステップS12〜S14の処理が終了したか否かを判断し、終了していない場合には(S15:NO)、処理をステップS12に戻し、終了している場合には(S15:YES)、処理を終了させる。
In step S15, the
例えば、図11の例では、被包含領域51の外接矩形52は包含領域53の外接矩形54に包含されており、かつ外接矩形52は4方向で包含領域53に近接しているので、上記統合処理により、被包含領域51と包含領域53とは統合される。
For example, in the example of FIG. 11, the circumscribed
一方、図16の例では、円グラフの3つの数値画像の領域の外接矩形61〜63は、円グラフ画像の領域の外接矩形64に包含されているが、外接矩形61〜63は4方向では円グラフ画像の領域に近接していないので、上記統合処理により、3つの数値画像の領域は円グラフ画像の領域に統合されない。
On the other hand, in the example of FIG. 16, circumscribed
[第2の具体例]
図17には、入力画像に含まれる図柄の一例が示されている。図17において、白色の領域は背景領域を表し、白色領域上の35個の灰色の領域は有色領域を表している。当該35個の有色領域は、領域抽出部13により別々の画像オブジェクト領域として抽出される。しかし、図17では、35個の有色領域が集まって1つの画像オブジェクトを構成しているので、当該35個の有色領域は1つの画像オブジェクト領域として抽出されることが望ましい。ここで、図17のような図柄の場合、各領域の外接矩形は隣接する領域の外接矩形と重複し、かつ当該2つの領域の特徴(色など)は互いに類似する。したがって、2つの画像オブジェクト領域の外接矩形が互いに重複し、かつ当該2つの画像オブジェクト領域の特徴が互いに類似する場合には、当該2つの画像オブジェクト領域は1つの画像オブジェクト領域を構成する可能性が高い。
[Second specific example]
FIG. 17 shows an example of symbols included in the input image. In FIG. 17, a white area represents a background area, and 35 gray areas on the white area represent colored areas. The 35 colored areas are extracted as separate image object areas by the
上記の事情等に鑑み、本例では、領域統合部14は、領域抽出部13により抽出された画像オブジェクト領域のうちの2つの画像オブジェクト領域の外接矩形が互いに重複し、かつ当該2つの画像オブジェクト領域の特徴が互いに所定程度以上類似する場合に、当該2つの画像オブジェクト領域を1つの画像オブジェクト領域に統合する。
In view of the above circumstances and the like, in this example, the
具体的には、領域統合部14は、領域抽出部13により抽出された各画像オブジェクト領域の外接矩形を特定し、任意の2つの画像オブジェクト領域の外接矩形について重複関係を調査する。そして、重複関係が成立する場合に、当該2つの画像オブジェクト領域の特徴量を求め、当該2つの特徴量を比較し、当該比較の結果に応じて、当該2つの画像オブジェクト領域を1つの画像オブジェクト領域に統合する。具体的には、領域統合部14は、所定の判定基準に従って、当該2つの特徴量が類似するか否かを判定し、類似すると判定された場合に、当該2つの画像オブジェクト領域を1つの画像オブジェクト領域に統合する。
Specifically, the
一つの態様では、上記特徴量は、画像オブジェクト領域に係る画像オブジェクトの色情報、画像オブジェクト領域の外接矩形の大きさ、画像オブジェクト領域の形状、画像オブジェクト領域が外接矩形内に占める割合、画像オブジェクト領域に係る画像オブジェクトの属性情報(均一色領域か写真領域かなど)の少なくとも1つである。ただし、特徴量としては、上記以外のものが使用されてもよい。 In one aspect, the feature amount includes the color information of the image object related to the image object region, the size of the circumscribed rectangle of the image object region, the shape of the image object region, the ratio of the image object region in the circumscribed rectangle, the image object This is at least one of attribute information (such as a uniform color area or a photographic area) of the image object related to the area. However, features other than those described above may be used as feature amounts.
図18は、第2の具体例に係る統合処理の一例を示すフローチャートである。以下、図18を参照して、第2の具体例に係る統合処理の一例を説明する。 FIG. 18 is a flowchart illustrating an example of the integration process according to the second specific example. Hereinafter, an example of the integration process according to the second specific example will be described with reference to FIG.
画像処理装置10は、抽出された各画像オブジェクト領域の外接矩形を特定する(S21)。
The
ついで、画像処理装置10は、抽出された画像オブジェクト領域の中から2つの画像オブジェクト領域を選択し、当該2つの画像オブジェクト領域の外接矩形の間に重複関係があるか否かを判定する(S22)。
Next, the
そして、重複関係があると判定された場合(S22:YES)、画像処理装置10は、当該2つの画像オブジェクト領域の特徴量が互いに類似するか否かを判定する(S23)。
If it is determined that there is an overlapping relationship (S22: YES), the
特徴量が類似すると判定された場合(S23:YES)、画像処理装置10は、当該2つの画像オブジェクト領域を1つの画像オブジェクト領域に統合し(S24)、処理をステップS25に進める。
When it is determined that the feature amounts are similar (S23: YES), the
一方、ステップS22で重複関係がないと判定された場合(S22:NO)、およびステップS23で特徴量が類似しないと判定された場合(S23:NO)、画像所理装置10は、上記統合処理を行うことなく、処理をステップS25に進める。
On the other hand, when it is determined in step S22 that there is no overlapping relationship (S22: NO), and when it is determined in step S23 that the feature amount is not similar (S23: NO), the
ステップS25では、画像処理装置10は、すべての画像オブジェクト領域の組み合わせについて上記ステップS22〜S24の処理が終了したか否かを判断し、終了していない場合には(S25:NO)、処理をステップS22に戻し、終了している場合には(S25:YES)、処理を終了させる。
In step S25, the
上記処理により、例えば図17の図柄の35個の画像オブジェクト領域は、1つの画像オブジェクト領域に統合される。 By the above processing, for example, 35 image object areas of the design of FIG. 17 are integrated into one image object area.
[第3の具体例]
図19には、入力画像に含まれる図柄の一例が示されている。図19において、白色の領域は背景領域を表し、白色領域上の5個の灰色領域は有色領域を表している。当該5個の有色領域は、領域抽出部13により別々の画像オブジェクト領域として抽出される。しかし、図19では、5個の有色領域が集まって1つの画像オブジェクトを構成しているので、当該5個の有色領域は1つの画像オブジェクト領域として抽出されることが望ましい。ここで、図19のような図柄の場合、各領域の外接矩形は隣接する領域の外接矩形と近接し、かつ当該2つの領域の特徴(色など)は互いに類似する。したがって、2つの画像オブジェクト領域の外接矩形が互いに近接し、かつ当該2つの画像オブジェクト領域の特徴が互いに類似する場合には、当該2つの画像オブジェクト領域は1つの画像オブジェクト領域を構成する可能性が高い。
[Third example]
FIG. 19 shows an example of symbols included in the input image. In FIG. 19, a white area represents a background area, and five gray areas on the white area represent colored areas. The five colored regions are extracted as separate image object regions by the
上記の事情等に鑑み、本例では、領域統合部14は、領域抽出部13により抽出された画像オブジェクト領域のうちの2つの画像オブジェクト領域の外接矩形が互いに所定程度以上近接し、かつ当該2つの画像オブジェクト領域の特徴が互いに所定程度以上類似する場合に、当該2つの画像オブジェクト領域を1つの画像オブジェクト領域に統合する。
In view of the above circumstances and the like, in this example, the
一つの態様では、領域統合部14は、領域抽出部13により抽出された各画像オブジェクト領域の外接矩形を特定し、任意の2つの画像オブジェクト領域の外接矩形の近接度合いと、当該2つの画像オブジェクト領域の各々の特徴量とを求め、当該近接度合いと特徴量とに応じて、当該2つの画像オブジェクト領域を1つの画像オブジェクト領域に統合する。例えば、領域統合部14は、2つの特徴量の類似度合いを求め、外接矩形の近接度合いXが所定値X1以上であり、かつ特徴量の類似度合いYが所定値Y1以上である場合に、2つの画像オブジェクト領域を統合する。この場合、近接度合いXが大きくなるほど所定値Y1が小さくなるように、近接度合いXに応じて所定値Y1を変化させてもよい。また、類似度合いYが大きくなるほど所定値X1が小さくなるように、類似度合いYに応じて所定値X1を変化させてもよい。また、領域統合部14は、近接度合いXと類似度合いYとの積X・Yが所定値K以上である場合に、2つの画像オブジェクト領域を統合するようにしてもよい。上記近接度合いXは、例えば、水平および垂直方向の外接矩形間の距離、水平および垂直方向の外接矩形の重複幅(または重複の度合い)に基づき算出される。
In one aspect, the
別の態様では、領域統合部14は、領域抽出部13により抽出された各画像オブジェクト領域の外接矩形を特定し、任意の2つの画像オブジェクト領域の外接矩形について所定距離内で近接する近接関係を調査する。そして、近接関係が成立する場合に、当該2つの画像オブジェクト領域の特徴量を求め、当該2つの特徴量を比較し、当該比較の結果に応じて、当該2つの画像オブジェクト領域を1つの画像オブジェクト領域に統合する。具体的には、領域統合部14は、所定の判定基準に従って、当該2つの特徴量が類似するか否かを判定し、類似すると判定された場合に、当該2つの画像オブジェクト領域を1つの画像オブジェクト領域に統合する。当該態様において、領域統合部14は、近接関係が成立する場合に、2つの特徴量を比較するとともに、2つの画像オブジェクト領域の外接矩形の近接度合いを求め、特徴量の比較結果と近接度合いとに応じて、当該2つの画像オブジェクト領域を1つの画像オブジェクト領域に統合してもよい。
In another aspect, the
上記特徴量は、一つの態様では、画像オブジェクト領域に係る画像オブジェクトの色情報、画像オブジェクト領域の外接矩形の大きさ、画像オブジェクト領域の形状、画像オブジェクト領域が外接矩形内に占める割合、画像オブジェクト領域に係る画像オブジェクトの属性情報(均一色領域か写真領域かなど)の少なくとも1つである。ただし、特徴量としては、上記以外のものが使用されてもよい。 In one aspect, the feature amount includes the color information of the image object related to the image object area, the size of the circumscribed rectangle of the image object area, the shape of the image object area, the ratio of the image object area in the circumscribed rectangle, the image object This is at least one of attribute information (such as a uniform color area or a photographic area) of the image object related to the area. However, features other than those described above may be used as feature amounts.
図20は、第3の具体例に係る統合処理の一例を示すフローチャートである。以下、図20を参照して、第3の具体例に係る統合処理の一例を説明する。 FIG. 20 is a flowchart illustrating an example of the integration process according to the third specific example. Hereinafter, an example of the integration process according to the third specific example will be described with reference to FIG.
画像処理装置10は、抽出された各画像オブジェクト領域の外接矩形を特定する(S31)。
The
ついで、画像処理装置10は、抽出された画像オブジェクト領域の中から2つの画像オブジェクト領域を選択し、当該2つの画像オブジェクト領域の外接矩形の間に近接関係があるか否かを判定する(S32)。例えば、画像処理装置10は、外接矩形間の距離を算出し、当該距離が所定値以下であるか否かを判定する。
Next, the
そして、近接関係があると判定された場合(S32:YES)、画像処理装置10は、当該2つの画像オブジェクト領域の特徴量を求める(S33)。また、画像処理装置10は、当該2つの画像オブジェクト領域の外接矩形の近接度合いを求める(S34)。
Then, when it is determined that there is a proximity relationship (S32: YES), the
ついで、画像処理装置10は、上記特徴量と近接度合いとに基づき、当該2つの画像オブジェクト領域を統合すべきか否かを判定する(S35)。例えば、画像処理装置10は、特徴量の類似度合いを算出し、当該類似度合いと近接度合いとの積が所定値以下であるか否かを判定する。
Next, the
そして、統合すべきと判定された場合(S35:YES)、画像処理装置10は、当該2つの画像オブジェクト領域を1つの画像オブジェクト領域に統合し(S36)、処理をステップS37に進める。
If it is determined that they should be integrated (S35: YES), the
一方、ステップS32で近接関係がないと判定された場合(S32:NO)、およびステップS35で統合すべきでないと判定された場合(S35:NO)、画像所理装置10は、上記統合処理を行うことなく、処理をステップS37に進める。
On the other hand, if it is determined in step S32 that there is no proximity relationship (S32: NO) and if it is determined in step S35 that it should not be integrated (S35: NO), the
ステップS37では、画像処理装置10は、すべての画像オブジェクト領域の組み合わせについて上記ステップS32〜S36の処理が終了したか否かを判断し、終了していない場合には(S37:NO)、処理をステップS32に戻し、終了している場合には(S37:YES)、処理を終了させる。
In step S37, the
上記処理により、例えば図19の図柄の5個の画像オブジェクト領域は、1つの画像オブジェクト領域に統合される。 By the above processing, for example, five image object areas of the design of FIG. 19 are integrated into one image object area.
なお、本発明は、上記実施の形態に限定されるものではなく、本発明の要旨を逸脱しない範囲内で種々変更することができる。 In addition, this invention is not limited to the said embodiment, It can change variously within the range which does not deviate from the summary of this invention.
10 画像処理装置、11 画像受付部、12 背景色特定部、13 領域抽出部、14 領域統合部、15 画像オブジェクト出力部。
DESCRIPTION OF
Claims (8)
前記画像の背景色を特定する背景色特定手段と、
前記画像の中から、前記背景色の領域で区画される各領域を、画像構成要素領域として抽出する領域抽出手段と、
前記抽出された画像構成要素領域のうちの少なくとも2つの画像構成要素領域同士の関係が、1つの画像構成要素領域として扱うべき所定の条件を満たす場合に、前記少なくとも2つの画像構成要素領域を1つの画像構成要素領域に統合する領域統合手段と、
を有し、
前記領域統合手段は、前記抽出された画像構成要素領域のうちある画像構成要素領域(以下、「被包含領域」と称す)の外接矩形が他の画像構成要素領域(以下、「包含領域」と称す)の外接矩形に包含され、かつ前記被包含領域が前記包含領域に所定程度以上近接する場合に、前記包含領域と前記被包含領域とを1つの画像構成要素領域に統合すると共に、前記被包含領域の外接矩形の4辺の各々について、当該辺が前記包含領域と近接するか否かを判定し、所定数の辺が前記包含領域に近接すると判定された場合に、前記被包含領域が前記包含領域に近接すると判定することを特徴とする画像処理装置。 Image receiving means for receiving images;
Background color specifying means for specifying the background color of the image;
An area extracting means for extracting each area partitioned by the background color area from the image as an image component area;
When the relationship between at least two image component regions of the extracted image component regions satisfies a predetermined condition to be treated as one image component region, the at least two image component regions are set to 1 Region integration means for integrating into one image component region;
I have a,
The region integration means is configured such that a circumscribed rectangle of an image component region (hereinafter referred to as “included region”) among the extracted image component regions is defined as another image component region (hereinafter referred to as “include region”). The inclusion area and the inclusion area are integrated into a single image component area, and the inclusion area is included in a single image component area. For each of the four sides of the circumscribed rectangle of the inclusion area, it is determined whether the side is close to the inclusion area, and when it is determined that a predetermined number of sides are close to the inclusion area, the inclusion area is An image processing apparatus that determines to be close to the inclusion area .
前記領域統合手段は、前記辺上の各画素について、当該辺に垂直な方向について、当該画素と前記包含領域との間隔が所定間隔以下であるか否かを検査し、当該検査結果に基づき、当該辺が前記包含領域に近接するか否かを判定することを特徴とする画像処理装置。 The image processing apparatus according to claim 1 ,
The region integration means, for each pixel on the side, inspects whether the interval between the pixel and the inclusion region is equal to or less than a predetermined interval in a direction perpendicular to the side, and based on the inspection result, An image processing apparatus that determines whether or not the side is close to the inclusion area.
前記領域統合手段は、前記辺上の画素のうち前記間隔が所定間隔以下である画素の個数が所定数以上である場合に、当該辺は前記包含領域に近接すると判定することを特徴とする画像処理装置。 The image processing apparatus according to claim 2 ,
The image is characterized in that the region integration unit determines that the side is close to the inclusion region when the number of pixels having the interval equal to or smaller than the predetermined interval among the pixels on the side is equal to or larger than the predetermined number. Processing equipment.
前記領域統合手段は、前記辺上の各画素について、当該辺に垂直な方向について、当該画素と前記包含領域との間隔が所定間隔以下であり、かつ当該画素に対向する前記包含領域の幅が所定幅以上であるか否かを検査し、当該検査結果に基づき、当該辺が前記包含領域に近接するか否かを判定することを特徴とする画像処理装置。 The image processing apparatus according to claim 1 ,
For each pixel on the side, the region integration unit is configured such that, in a direction perpendicular to the side, the interval between the pixel and the inclusion region is equal to or less than a predetermined interval, and the width of the inclusion region facing the pixel is An image processing apparatus that inspects whether or not a width is equal to or greater than a predetermined width and determines whether or not the side is close to the inclusion region based on the inspection result.
前記領域統合手段は、前記辺上の画素のうち前記間隔が所定間隔以下であり前記幅が所定幅以上である画素の個数が所定数以上である場合に、当該辺は前記包含領域に近接すると判定することを特徴とする画像処理装置。 The image processing apparatus according to claim 4 ,
The region integration unit may determine that the side is close to the inclusion region when the number of pixels of the pixels on the side is equal to or smaller than the predetermined interval and the width is equal to or larger than the predetermined number. An image processing apparatus characterized by determining.
前記領域統合手段は、前記被包含領域の外接矩形が大きくなるほど前記所定間隔が大きくなるように、前記被包含領域の外接矩形の大きさに応じて前記所定間隔を変化させることを特徴とする画像処理装置。 An image processing apparatus according to any one of claims 2 to 5 ,
The area integration means changes the predetermined interval according to the size of the circumscribed rectangle of the inclusion region so that the predetermined interval increases as the circumscribed rectangle of the inclusion region increases. Processing equipment.
前記領域統合手段は、前記被包含領域の外接矩形が大きくなるほど前記所定幅が大きくなるように、前記被包含領域の外接矩形の大きさに応じて前記所定幅を変化させることを特徴とする画像処理装置。 The image processing apparatus according to any one of claims 4 to 6 ,
The area integration unit changes the predetermined width according to the size of the circumscribed rectangle of the inclusion area so that the predetermined width increases as the circumscribed rectangle of the inclusion area increases. Processing equipment.
画像を受け付ける手順と、
前記画像の背景色を特定する手順と、
前記画像の中から、前記背景色の領域で区画される各領域を、画像構成要素領域として抽出する手順と、
前記抽出された画像構成要素領域のうちの少なくとも2つの画像構成要素領域同士の関係が、1つの画像構成要素領域として扱うべき所定の条件を満たす場合に、前記少なくとも2つの画像構成要素領域を1つの画像構成要素領域に統合する手順と、
を実行させることを特徴とする画像処理プログラムであって、
前記統合する手順では、前記抽出された画像構成要素領域のうちある画像構成要素領域(以下、「被包含領域」と称す)の外接矩形が他の画像構成要素領域(以下、「包含領域」と称す)の外接矩形に包含され、かつ前記被包含領域が前記包含領域に所定程度以上近接する場合に、前記包含領域と前記被包含領域とを1つの画像構成要素領域に統合すると共に、前記被包含領域の外接矩形の4辺の各々について、当該辺が前記包含領域と近接するか否かを判定し、所定数の辺が前記包含領域に近接すると判定された場合に、前記被包含領域が前記包含領域に近接すると判定することを特徴とする画像処理プログラム。 On the computer,
The procedure for accepting images,
Identifying the background color of the image;
A procedure for extracting each area partitioned by the background color area from the image as an image component area;
When the relationship between at least two image component regions of the extracted image component regions satisfies a predetermined condition to be treated as one image component region, the at least two image component regions are set to 1 The steps to merge into one image component area,
An image processing program for causing the execution,
In the integration procedure, a circumscribed rectangle of an image component region (hereinafter referred to as “included region”) among the extracted image component regions is referred to as another image component region (hereinafter referred to as “include region”). The inclusion area and the inclusion area are integrated into a single image component area, and the inclusion area is included in a single image component area. For each of the four sides of the circumscribed rectangle of the inclusion area, it is determined whether the side is close to the inclusion area, and when it is determined that a predetermined number of sides are close to the inclusion area, the inclusion area is An image processing program that determines to be close to the inclusion area.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008120966A JP5104528B2 (en) | 2008-05-07 | 2008-05-07 | Image processing apparatus and image processing program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008120966A JP5104528B2 (en) | 2008-05-07 | 2008-05-07 | Image processing apparatus and image processing program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2009271691A JP2009271691A (en) | 2009-11-19 |
JP5104528B2 true JP5104528B2 (en) | 2012-12-19 |
Family
ID=41438191
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2008120966A Expired - Fee Related JP5104528B2 (en) | 2008-05-07 | 2008-05-07 | Image processing apparatus and image processing program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5104528B2 (en) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5636674B2 (en) * | 2010-01-07 | 2014-12-10 | 富士ゼロックス株式会社 | Image processing apparatus and image processing program |
WO2020054067A1 (en) * | 2018-09-14 | 2020-03-19 | 三菱電機株式会社 | Image information processing device, image information processing method, and image information processing program |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3504054B2 (en) * | 1995-07-17 | 2004-03-08 | 株式会社東芝 | Document processing apparatus and document processing method |
-
2008
- 2008-05-07 JP JP2008120966A patent/JP5104528B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2009271691A (en) | 2009-11-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4745297B2 (en) | Method and system for identifying regions of uniform color in digital images | |
JP2005309819A (en) | Figure reading method, its device, major color extraction method, and its device | |
EP2645332B1 (en) | Image processing device that separates image into plural regions | |
JP5337563B2 (en) | Form recognition method and apparatus | |
US8611658B2 (en) | Image processing apparatus and image processing method | |
JP2007129535A (en) | Image processor, image processing method, program thereof, and computer-readable recording medium recorded with same program | |
US7715624B2 (en) | Recognizing or reproducing a character's color | |
WO2015002719A1 (en) | Method of improving contrast for text extraction and recognition applications | |
US20120237121A1 (en) | Image processing device, image processing method, and storage medium for storing image processing program | |
JP2008187710A (en) | Method and system for specifying image characteristics, method for determining background color, control program and recording medium | |
JP2011013898A (en) | Image processing apparatus, image processing method, and program | |
JP5104528B2 (en) | Image processing apparatus and image processing program | |
JP5151708B2 (en) | Image processing apparatus and image processing program | |
JP2004199622A (en) | Apparatus and method for image processing, recording media, and program | |
JP2003087562A (en) | Image processor and image processing method | |
US8660354B2 (en) | Image processing apparatus including an obtaining unit, an isolating unit, a classifying unit, information processing apparatus, and image reading apparatus | |
JP2005175641A (en) | Image processor | |
JP4631371B2 (en) | Image processing device | |
JP2626108B2 (en) | Pattern recognition method and apparatus | |
JP2019153230A (en) | Information processor and information processing program | |
JP4973603B2 (en) | Image processing apparatus and image processing program | |
CN114119427B (en) | Picture conversion method, device, equipment and readable storage medium | |
JP2001143076A (en) | Image processor | |
JP4650958B2 (en) | Image processing apparatus, method, and program | |
JP2005184403A (en) | Image processing apparatus |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20110421 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20120601 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20120612 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20120813 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20120904 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20120917 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5104528 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20151012 Year of fee payment: 3 |
|
S533 | Written request for registration of change of name |
Free format text: JAPANESE INTERMEDIATE CODE: R313533 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
LAPS | Cancellation because of no payment of annual fees |