JP2022113965A - Image processing apparatus - Google Patents

Image processing apparatus Download PDF

Info

Publication number
JP2022113965A
JP2022113965A JP2021010004A JP2021010004A JP2022113965A JP 2022113965 A JP2022113965 A JP 2022113965A JP 2021010004 A JP2021010004 A JP 2021010004A JP 2021010004 A JP2021010004 A JP 2021010004A JP 2022113965 A JP2022113965 A JP 2022113965A
Authority
JP
Japan
Prior art keywords
image
cluster
area
feature amount
extracting
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021010004A
Other languages
Japanese (ja)
Inventor
心一郎 増田
Shinichiro Masuda
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Riso Kagaku Corp
Original Assignee
Riso Kagaku Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Riso Kagaku Corp filed Critical Riso Kagaku Corp
Priority to JP2021010004A priority Critical patent/JP2022113965A/en
Publication of JP2022113965A publication Critical patent/JP2022113965A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Analysis (AREA)

Abstract

To appropriately separate a foreign substance from a specific target.SOLUTION: An image processing apparatus includes: object extraction means 211 that extracts an object that connects pixels with pixel values satisfying a predetermined value for each pixel in an image; object feature quantity calculation means 212 that calculates a feature quantity relating to a color for each of the object based on the pixel value of a region other than an outer edge region of the object; classification means 213 that classifies each of the objects into either of two clusters based on the feature quantity of each of the objects; cluster feature quantity calculation means 214 that calculates a cluster feature quantity including at least either one of a color or an area for the classified two clusters; and target extraction means 215 that extracts a region of a specific target in the image based on the two cluster feature quantities.SELECTED DRAWING: Figure 2

Description

本発明は、画像処理装置に係り、特に、特定の対象物と異物の分離を適切に行う画像処理装置に関する。 The present invention relates to an image processing apparatus, and more particularly to an image processing apparatus that properly separates a specific object from a foreign object.

一般的に、撮影画像には、抽出したい画像のみならず、除去したい画像を含んでいることがあり、これらの画像を適切に分離させることが必要となる。 In general, a captured image may include not only an image to be extracted but also an image to be removed, and it is necessary to separate these images appropriately.

図1は、一般的な閾値による画像抽出を説明した説明図である。(a)は、シアンインクのドットの薄片を撮影した原稿画像を示しており、図1(b)~(c)は、特許文献1に記載の技術において、閾値に基づいて抽出される画像の一例を示している。 FIG. 1 is an explanatory diagram illustrating image extraction using a general threshold. (a) shows a document image of a thin piece of a cyan ink dot, and FIGS. An example is shown.

図1(a)に示すように、原稿画像には、インク定着部領域IK101の画像と、異物領域IB101,103の画像とが含まれている。 As shown in FIG. 1A, the document image includes an image of the ink fixing portion area IK101 and images of the foreign matter areas IB101 and 103. As shown in FIG.

特許文献1の技術を用いて、特定の対象物であるインク定着部領域IK101の画像のみを抽出しようとする場合、原稿画像内の全画素の色の画素値(例えば、彩度の画素値)を抽出し、ある望ましい値(例えば、15)を閾値とし、画素値が「0」~「15」の画素は非抽出とし白で表示するように制御する。 When trying to extract only the image of the ink fixation area IK101, which is a specific object, using the technique of Patent Document 1, the color pixel values (for example, saturation pixel values) of all pixels in the document image are is extracted, and a desired value (eg, 15) is set as a threshold, and pixels with pixel values of "0" to "15" are not extracted and are controlled to be displayed in white.

この場合、図1(b)に示すように、人間の目でみれば明らかにインク定着部領域IK101の画像ではない異物領域IB101,103の画像も抽出されてしまっている。 In this case, as shown in FIG. 1(b), images of the foreign matter areas IB101 and 103, which are obviously not the image of the ink fixing portion area IK101, are also extracted as seen by the human eye.

また、図1(c)に示すように、異物領域IB101,103の画像を非抽出とすべく、閾値を「42」に変更し、画素値が「0」~「42」の画素を非抽出とすると、異物だけでなくインク定着部領域IK101の外縁も非抽出となり、インク定着部領域IK101全体が正確に抽出されなくなってしまう。これは、インク定着部領域IK101の外縁の画素値と異物の画素値が等しいため発生する。 Also, as shown in FIG. 1(c), the threshold is changed to "42" so as not to extract the images of the foreign matter areas IB101 and 103, and pixels with pixel values of "0" to "42" are not extracted. As a result, not only the foreign matter but also the outer edge of the ink fixing portion area IK101 are not extracted, and the entire ink fixing portion area IK101 cannot be extracted accurately. This occurs because the pixel value of the outer edge of the ink fixing portion area IK101 is equal to the pixel value of the foreign matter.

このように、一般的な閾値による画像抽出の技術では、インク定着部のみを正確に抽出することが困難であった。 As described above, it is difficult to accurately extract only the ink-fixed portion with the general image extraction technique based on the threshold value.

ここで、撮影画像において抽出したい画像と除去したい画像を分離させる技術として、主に口腔内の歯列を撮影した画像を対象として、歯に映った明るいかたまり(オブジェクト)が診断すべき患部であるのかもしくは単なる光の乱反射による雑音なのかを閾値と比較することにより判定し、雑音と判定したオブジェクトは削除し、患部が見やすい画像を出力する手法に関する技術が開示されている(例えば、特許文献1)。 Here, as a technology to separate the image to be extracted from the image to be removed in the photographed image, the target is mainly the image of the dentition in the oral cavity, and the bright mass (object) reflected in the tooth is the diseased part to be diagnosed. There is disclosed a technique related to a method of outputting an image in which the affected area is easy to see, by comparing with a threshold whether the object is a noise due to diffused reflection of light, and deleting the object determined as noise (for example, Patent Document 1 ).

特許第5869822号公報Japanese Patent No. 5869822

しかしながら、特許文献1に記載の技術では、判定手段はオブジェクトの面積のみに基づいており、患部が雑音と同程度の場合は両者を正確に判別できず、また、事前情報として判別の閾値を予め与えておく必要があった。 However, in the technique described in Patent Document 1, the determination means is based only on the area of the object, and if the affected area is about the same as the noise, the two cannot be accurately determined. I had to give.

このように、閾値による抽出方法では、インク定着物のような対象物と異物を含む画像の場合、インク定着部外縁の画素値と、異物の画素値が近いため、対象物と異物の分離を、正確にかつ手間をかけずに行うことができなかった。 As described above, in the extraction method using the threshold value, in the case of an image including an object such as an ink-fixed object and a foreign object, the pixel value of the outer edge of the ink-fixed portion is close to the pixel value of the foreign object. , could not be done accurately and effortlessly.

本発明は、このような課題に鑑みてなされたもので、特定の対象物と異物の分離を適切に行う画像処理装置を提供することを目的とする。 SUMMARY OF THE INVENTION It is an object of the present invention to provide an image processing apparatus capable of appropriately separating a specific object from a foreign object.

上記目的を達成するため、本発明に係る画像処理装置の特徴は、
特定の対象物と異物が混在する画像において、前記特定の対象物を抽出する画像処理装置であって、
前記画像内の各画素に対して、所定の値を満たす画素値となる画素を連結させたオブジェクトを抽出するオブジェクト抽出手段と、
前記オブジェクトの外縁領域以外の領域の画素値に基づいて、色に関する特徴量を、オブジェクト毎に、算出するオブジェクト特徴量算出手段と、
各オブジェクトの特徴量に基づいて、各オブジェクトを2つのクラスタのいずれかに分類する分類手段と、
前記分類された2つのクラスタに対して、色または面積のいずれかの1つを少なくとも含むクラスタ特徴量を算出するクラスタ特徴量算出手段と、
前記画像において、前記2つのクラスタ特徴量に基づいて、前記特定の対象物の領域を抽出する対象物抽出手段と、
を備えることにある。
In order to achieve the above object, the features of the image processing apparatus according to the present invention are:
An image processing device for extracting a specific object from an image in which a specific object and a foreign substance are mixed,
an object extracting means for extracting an object obtained by connecting pixels having a pixel value satisfying a predetermined value for each pixel in the image;
object feature amount calculation means for calculating a feature amount related to color for each object based on pixel values of areas other than the outer edge area of the object;
Classification means for classifying each object into one of two clusters based on the feature amount of each object;
Cluster feature quantity calculation means for calculating a cluster feature quantity including at least one of color and area for the two classified clusters;
object extracting means for extracting a region of the specific object from the image based on the two cluster feature amounts;
It is to prepare

本発明に係る画像処理装置の特徴によれば、特定の対象物と異物の分離を適切に行うことができる。 According to the characteristics of the image processing apparatus according to the present invention, it is possible to appropriately separate a specific target object and a foreign substance.

(a)は、シアンインクのドットの薄片を撮影した原稿画像を示しており、(b)~(c)は、特許文献1に記載の技術において、閾値に基づいて抽出される画像の一例を示している。(a) shows an original image of a thin piece of a cyan ink dot, and (b) to (c) show an example of an image extracted based on a threshold in the technique described in Patent Document 1. showing. 本発明の実施形態に係る画像処理装置のハードウェア構成を示すブロック図である。1 is a block diagram showing the hardware configuration of an image processing apparatus according to an embodiment of the present invention; FIG. 本発明の実施形態に係る画像処理装置が備えるオブジェクト抽出手段により、抽出されたオブジェクトの例を示した図である。FIG. 4 is a diagram showing an example of an object extracted by an object extracting unit included in the image processing apparatus according to the embodiment of the present invention; (a)は、オブジェクトL1~L14を特徴量空間にプロットした図であり、図4(b)は、特徴量空間にプロットされたオブジェクトL1~L14を、2つのクラスタに分類した図である。(a) is a diagram in which the objects L1 to L14 are plotted in the feature amount space, and FIG. 4(b) is a diagram in which the objects L1 to L14 plotted in the feature amount space are classified into two clusters. 本発明の実施形態に係る画像処理装置が備えるクラスタ特徴量算出手段により算出されたクラスタ特徴量を示した図である。FIG. 4 is a diagram showing cluster feature amounts calculated by cluster feature amount calculation means included in the image processing apparatus according to the embodiment of the present invention; 本発明の実施形態に係る画像処理装置に接続された外部装置に出力された画像の一例を示した図である。FIG. 4 is a diagram showing an example of an image output to an external device connected to the image processing apparatus according to the embodiment of the invention; 本発明の実施形態に係る画像処理装置における処理内容を示したフローチャートである。4 is a flow chart showing processing contents in the image processing apparatus according to the embodiment of the present invention;

以下、本発明の実施の形態について、図面を参照して説明する。各図面を通じて同一若しくは同等の部位や構成要素には、同一若しくは同等の符号を付している。ただし、図面は模式的なものであり、現実のものとは異なることに留意すべきである。また、図面相互間においても互いの寸法の関係や比率が異なる部分が含まれている。 BEST MODE FOR CARRYING OUT THE INVENTION Hereinafter, embodiments of the present invention will be described with reference to the drawings. The same or equivalent reference numerals are attached to the same or equivalent parts and components throughout each drawing. However, it should be noted that the drawings are schematic and differ from reality. In addition, there are portions with different dimensional relationships and ratios between the drawings.

また、以下に示す実施の形態は、この発明の技術的思想を具体化するための装置等を例示するものであって、この発明の技術的思想は、各構成部品の配置等を下記のものに特定するものでない。この発明の技術的思想は、特許請求の範囲において、種々の変更を加えることができる。 Further, the embodiments shown below are examples of apparatuses and the like for embodying the technical idea of the present invention. not specific to The technical idea of this invention can be modified in various ways within the scope of claims.

図2は、本発明の実施形態に係る画像処理装置10のハードウェア構成を示すブロック図である。本図に示すように、画像処理装置10は、コントローラ20と画像読取機構30とを備えている。画像処理装置10は、画像読取機構30で読み取った原稿の画像データから原稿の下地を除去して外部装置に出力する処理を行なう。 FIG. 2 is a block diagram showing the hardware configuration of the image processing apparatus 10 according to the embodiment of the invention. As shown in the figure, the image processing apparatus 10 has a controller 20 and an image reading mechanism 30 . The image processing apparatus 10 removes the background of the document from the image data of the document read by the image reading mechanism 30 and outputs the data to an external device.

画像読取機構30は、光源、原稿台、原稿台カバー、電荷結合型撮像素子列であるCCD、CCDを走査させる駆動モータ、CCDの出力信号をデジタル信号に変換するADコンバータ等を備えている。光源から原稿台に載置された原稿に光を照射し、その露光面の反射光をCCDで読み取ることにより、原稿露光面の画像データを取得する。原稿台カバーは、原稿台に載置された原稿を押さえるとともに外光を遮断する役割を担っている。この原稿台カバーは、CCDの読み取り範囲よりも原稿が小さい場合に画像データへの影響を少なくするために白色となっている。また、原稿台カバーにオートシートフィーダ機能を備えさせるようにしてもよい。 The image reading mechanism 30 includes a light source, a platen, a platen cover, a CCD that is an array of charge-coupled imaging elements, a drive motor that scans the CCD, an AD converter that converts the output signal of the CCD into a digital signal, and the like. Image data of the exposed surface of the original is obtained by irradiating the original placed on the original table with light from a light source and reading reflected light from the exposed surface with a CCD. The platen cover serves to hold down the document placed on the platen and to block external light. This platen cover is white in order to reduce the influence on the image data when the document is smaller than the reading range of the CCD. Also, the document platen cover may be provided with an auto sheet feeder function.

コントローラ20は、CPU21、ROM22、RAM23、インタフェース24を備えている。CPU21は、ROM22に記録されたプログラムにしたがって処理を行なうことで、画像読取機構30の光学的な原稿読取動作を制御するとともに、読み取った原稿画像からインク定着部領域の画像を適切に抽出する画像処理を行なう。RAM23は、この際の作業領域として用いられる。インタフェース24は、USB等の所定のプロトコルを用いて外部装置との通信を行なう。なお、ここでは、CPU21は、読み取った原稿画像からインク定着部領域の画像を適切に抽出する画像処理を行うが、これに限らない。例えば、インタフェース24を介して取得した原稿画像からインク定着部領域の画像を適切に抽出する画像処理を行うようにしてもよい。 The controller 20 has a CPU 21 , a ROM 22 , a RAM 23 and an interface 24 . The CPU 21 performs processing according to a program recorded in the ROM 22, thereby controlling the optical document reading operation of the image reading mechanism 30, and extracting an image of the ink fixing portion area from the read document image appropriately. process. The RAM 23 is used as a work area at this time. The interface 24 communicates with an external device using a predetermined protocol such as USB. Here, the CPU 21 performs image processing for appropriately extracting the image of the ink fixing portion area from the read document image, but the present invention is not limited to this. For example, image processing may be performed to appropriately extract the image of the ink fixing portion area from the document image acquired via the interface 24 .

CPU21は、その機能上、オブジェクト抽出手段211と、オブジェクト特徴量算出手段212と、分類手段213と、クラスタ特徴量算出手段214と、対象物抽出手段215と、画像出力手段216とを備える。 The CPU 21 functionally includes object extraction means 211 , object feature quantity calculation means 212 , classification means 213 , cluster feature quantity calculation means 214 , object extraction means 215 , and image output means 216 .

オブジェクト抽出手段211は、図1(a)に示した原稿画像内の各画素に対して、所定の値を満たす画素値となる画素を連結させたオブジェクトを抽出する。 The object extracting means 211 extracts an object in which pixels having pixel values satisfying a predetermined value are connected to each pixel in the document image shown in FIG. 1(a).

図3は、本発明の実施形態に係る画像処理装置10が備えるオブジェクト抽出手段211により、抽出されたオブジェクトの例を示した図である。 FIG. 3 is a diagram showing an example of objects extracted by the object extraction means 211 included in the image processing apparatus 10 according to the embodiment of the present invention.

図3に示すように、オブジェクト抽出手段211は、原稿画像内の各画素に対して、所定の値を満たす画素値となる画素を連結させて、オブジェクトL1~L16を抽出している。ここでは、オブジェクトそれぞれを識別可能となるようにラベルとしてL1~L16を付与している。 As shown in FIG. 3, the object extracting means 211 extracts objects L1 to L16 by connecting pixels having pixel values satisfying a predetermined value with respect to each pixel in the document image. Here, L1 to L16 are given as labels so that each object can be identified.

オブジェクト特徴量算出手段212は、オブジェクトL1~L16の外縁領域以外の領域の画素値に基づいて、色に関する特徴量を、オブジェクトL1~L16毎に、算出する。ここでは、各オブジェクトL1~L16の色に関する特徴量をそれぞれの代表色とし、オブジェクトL1~L16を構成する画素のR, G, Bの平均値を算出する。 The object feature amount calculator 212 calculates a feature amount related to color for each of the objects L1 to L16 based on the pixel values of the areas other than the outer edge areas of the objects L1 to L16. Here, the feature amounts relating to the colors of the objects L1 to L16 are used as the respective representative colors, and the average values of R, G, and B of the pixels forming the objects L1 to L16 are calculated.

分類手段213は、各オブジェクトの特徴量に基づいて、各オブジェクトを2つのクラスタのいずれかに分類する。 Classifying means 213 classifies each object into one of two clusters based on the feature amount of each object.

図4(a)は、オブジェクトL1~L16を特徴量空間にプロットした図であり、図4(b)は、特徴量空間にプロットされたオブジェクトL1~L16を、2つのクラスタに分類した図である。 FIG. 4(a) is a diagram in which the objects L1 to L16 are plotted in the feature amount space, and FIG. 4(b) is a diagram in which the objects L1 to L16 plotted in the feature amount space are classified into two clusters. be.

図4(b)に示すように、分類手段213は、特徴量空間にプロットされたオブジェクトL1~L16について、クラスタ分析を行うことにより、2つのクラスタC1,C2のどちらかに分類する。ここでは、クラスタ分析のアルゴリズムとして、非階層的手法であるk-means法を用いている。なお、クラスタ分析のアルゴリズムは様々あり、いずれのアルゴリズムを用いてもよいが、今回のようにインク定着部と異物の二つに分類したい、即ちクラスタ数が2つと決まっている場合は非階層的手法が望ましい。 As shown in FIG. 4B, the classifying means 213 classifies the objects L1 to L16 plotted in the feature amount space into one of two clusters C1 and C2 by performing cluster analysis. Here, the k-means method, which is a non-hierarchical method, is used as an algorithm for cluster analysis. There are various algorithms for cluster analysis, and any algorithm can be used. method is preferred.

図4(b)に示すように、オブジェクトL1~L12はクラスタC1に分類されており、オブジェクトL13~L16はクラスタC2に分類されている。 As shown in FIG. 4B, objects L1-L12 are classified into cluster C1, and objects L13-L16 are classified into cluster C2.

この段階では、2つのクラスタC1,C2のうち、いずれのクラスタがインク定着部領域IK101に対応しているかはわからない。 At this stage, it is not known which of the two clusters C1 and C2 corresponds to the ink fixing portion area IK101.

そこで、クラスタ特徴量算出手段214は、分類された2つのクラスタに対して、色または面積のいずれかの1つを少なくとも含むクラスタ特徴量を算出する。 Therefore, the cluster feature amount calculation means 214 calculates a cluster feature amount including at least one of color and area for the classified two clusters.

図5は、クラスタ特徴量算出手段214により算出されたクラスタ特徴量を示した図である。 FIG. 5 is a diagram showing cluster feature amounts calculated by the cluster feature amount calculation means 214. As shown in FIG.

図5に示すように、クラスタ特徴量算出手段214は、オブジェクトL1~L12それぞれ面積を求め、2つのクラスタC1,C2についてそれぞれの平均をクラスタ特徴量として算出している。 As shown in FIG. 5, the cluster feature amount calculator 214 obtains the area of each of the objects L1 to L12, and calculates the average of the two clusters C1 and C2 as the cluster feature amount.

ここでは、クラスタC1のクラスタ特徴量である平均面積が「1383.58」として算出され、クラスタC2のクラスタ特徴量である平均面積が「30.25」として算出されている。 Here, the average area, which is the cluster feature amount of cluster C1, is calculated as "1383.58", and the average area, which is the cluster feature amount of cluster C2, is calculated as "30.25".

対象物抽出手段215は、画像において、2つのクラスタC1,C2それぞれのクラスタ特徴量に基づいて、特定の対象物の領域(インク定着部領域IK101)を抽出する。 The target object extracting means 215 extracts a specific target object region (ink fixing portion region IK101) from the image based on the cluster feature amounts of the two clusters C1 and C2.

図1(a)に示すように、インク定着部領域IK101のオブジェクトの面積より、異物領域IB101,103のオブジェクトの面積の方が平均的に小さい。また、インク定着部領域IK101では、オブジェクトの面積が小さいものから大きいものまであるが、異物領域IB101,103では、オブジェクトの面積が小さいものしかない。 As shown in FIG. 1A, the area of the object in the foreign matter areas IB101 and 103 is smaller on average than the area of the object in the ink fixing portion area IK101. Also, in the ink fixing portion area IK101, the area of the object ranges from small to large.

そこで、対象物抽出手段215は、2つのクラスタC1,C2それぞれのクラスタ特徴量に基づいて、例えば、対象物抽出手段215は、2つのクラスタC1,C2それぞれのクラスタ特徴量に基づいて、平均面積の大きいクラスタC1をインク定着部領域IK101として抽出する。また、対象物抽出手段215は、面積のバラツキの大きいクラスタC1をインク定着部領域IK101として抽出するようにしてもよい。 Therefore, the object extraction means 215 calculates the average area is extracted as the ink fixing portion area IK101. Further, the object extracting means 215 may extract the cluster C1 having a large area variation as the ink fixing portion area IK101.

これにより、クラスタC1をインク定着部領域IK101とし、クラスタC2を異物領域IB101,103として決定することができる。 As a result, the cluster C1 can be determined as the ink fixing portion area IK101, and the cluster C2 can be determined as the foreign matter areas IB101 and 103. FIG.

画像出力手段216は、インク定着部領域IK101を抽出した画像を、インタフェース24を介して外部装置に出力する。 The image output means 216 outputs the image obtained by extracting the ink fixing portion area IK101 to an external device via the interface 24 .

図6は、外部装置に出力された画像の一例を示した図である。 FIG. 6 is a diagram showing an example of an image output to an external device.

図6に示すように、原稿画像から、クラスタC2である異物領域IB101,103を削除し、クラスタC1であるインク定着部領域IK101のみを抽出された画像が出力されている。 As shown in FIG. 6, an image in which foreign matter areas IB101 and 103, which are clusters C2, are deleted from the document image and only the ink fixing portion area IK101, which is cluster C1, is extracted is output.

図7は、本発明の実施形態に係る画像処理装置10における処理内容を示したフローチャートである。 FIG. 7 is a flow chart showing the processing contents of the image processing apparatus 10 according to the embodiment of the present invention.

図7に示すように、画像読取機構30から画像が入力されると(ステップS101)、オブジェクト抽出手段211は、原稿画像内の各画素に対して、所定の値を満たす画素値となる画素を連結させたオブジェクトを抽出する(ステップS103)。 As shown in FIG. 7, when an image is input from the image reading mechanism 30 (step S101), the object extracting means 211 selects pixels having pixel values satisfying a predetermined value for each pixel in the document image. The connected objects are extracted (step S103).

ステップS105において、オブジェクト抽出手段211は、抽出したオブジェクトそれぞれを識別可能となるようにラベルとしてL1~L16を付与する。 In step S105, the object extraction means 211 assigns labels L1 to L16 to the extracted objects so that they can be identified.

ステップS107において、オブジェクト特徴量算出手段212は、オブジェクトL1~L16の外縁領域以外の領域の画素値に基づいて、色に関する特徴量を、オブジェクトL1~L16毎に算出する。 In step S107, the object feature amount calculator 212 calculates a feature amount related to color for each of the objects L1 to L16 based on the pixel values of the areas other than the outer edge areas of the objects L1 to L16.

ステップS109において、分類手段213は、各オブジェクトの特徴量に基づいて、各オブジェクトを2つのクラスタのいずれかに分類する。 In step S109, the classification means 213 classifies each object into one of two clusters based on the feature amount of each object.

ステップS111において、クラスタ特徴量算出手段214は、分類された2つのクラスタに対して、色または面積のいずれかの1つを少なくとも含むクラスタ特徴量を算出する。 In step S111, the cluster feature quantity calculation unit 214 calculates a cluster feature quantity including at least one of color and area for the classified two clusters.

ステップS113において、対象物抽出手段215は、画像において、2つのクラスタC1,C2それぞれのクラスタ特徴量に基づいて、異物の領域(異物領域IB101,103)を除去し、特定の対象物の領域(インク定着部領域IK101)を抽出する。 In step S113, the object extracting means 215 removes foreign object regions (foreign object regions IB101 and 103) from the image based on the cluster feature amounts of the two clusters C1 and C2, respectively, and extracts a specific object region ( An ink fixing portion area IK101) is extracted.

ステップS115において、画像出力手段216は、インク定着部領域IK101を抽出した画像を、インタフェース24を介して外部装置に出力する。 In step S115, the image output unit 216 outputs the image obtained by extracting the ink fixing area IK101 to the external device via the interface 24. FIG.

なお、本実施形態では、オブジェクト抽出手段211は、原稿画像内の各画素に対して、所定の値を満たす画素値となる画素を連結させたオブジェクトを抽出したが、さらに、入力された原稿画像に対し、予め求めておいた非抽出対象の領域がとりうる画素値に該当する画素を非抽出対象としてマスクすることで、特定の領域を抽出するようにしてもよい。 In this embodiment, the object extracting means 211 extracts an object in which pixels having pixel values satisfying a predetermined value are connected to each pixel in the document image. On the other hand, a specific region may be extracted by masking pixels corresponding to pixel values that can be obtained in a previously determined non-extraction target region as non-extraction targets.

これにより、背景となる紙白と同色の領域をマスクでき、インク定着部領域がより正確に抽出されるようになる。 As a result, the background area having the same color as the paper white can be masked, and the ink-fixed area can be extracted more accurately.

なお、本実施形態では、クラスタ特徴量算出手段214は、2つのクラスタC1,C2の面積平均をクラスタ特徴量として算出したが、これに限らず、2つのクラスタC1,C2の色の平均をクラスタ特徴量として算出するようにしてもよい。 In the present embodiment, the cluster feature amount calculation means 214 calculates the area average of the two clusters C1 and C2 as the cluster feature amount. You may make it calculate as a feature-value.

色はクラスタ間で差が大きいため、より正確にどちらのクラスタが異物かを判定することができる。 Since there is a large color difference between the clusters, it is possible to more accurately determine which cluster is the foreign object.

(付記1)
特定の対象物と異物が混在する画像において、前記特定の対象物を抽出する画像処理装置であって、
前記画像内の各画素に対して、所定の値を満たす画素値となる画素を連結させたオブジェクトを抽出するオブジェクト抽出手段と、
前記オブジェクトの外縁領域以外の領域の画素値に基づいて、色に関する特徴量を、オブジェクト毎に、算出するオブジェクト特徴量算出手段と、
各オブジェクトの特徴量に基づいて、各オブジェクトを2つのクラスタのいずれかに分類する分類手段と、
前記分類された2つのクラスタに対して、色または面積のいずれかの1つを少なくとも含むクラスタ特徴量を算出するクラスタ特徴量算出手段と、
前記画像において、前記2つのクラスタ特徴量に基づいて、前記特定の対象物の領域を抽出する対象物抽出手段と、
備えることを特徴とする画像処理装置。
(Appendix 1)
An image processing device for extracting a specific object from an image in which a specific object and a foreign substance are mixed,
an object extracting means for extracting an object obtained by connecting pixels having a pixel value satisfying a predetermined value for each pixel in the image;
object feature amount calculation means for calculating a feature amount related to color for each object based on pixel values of areas other than the outer edge area of the object;
Classification means for classifying each object into one of two clusters based on the feature amount of each object;
Cluster feature quantity calculation means for calculating a cluster feature quantity including at least one of color and area for the two classified clusters;
object extracting means for extracting a region of the specific object from the image based on the two cluster feature amounts;
An image processing device comprising:

これにより、オブジェクトの特徴を表す色が特徴量として抽出され、これに基づいて、特定の対象物の領域(インク定着部領域)を抽出するので、オブジェクトが特定の対象物か、異物か明確になる。そのため、特定対象物の外縁領域の画素値と異物の画素値が近似することにより、特定の対象物と異物の分離を正確に行うことができる。これにより、先行文献のように、手間をかけ事前情報として判別の閾値を予め与えても特定の対象物と異物の分離が正確に行えないような事態が回避され、特定の対象物と異物の分離を適切に行うことができる。 As a result, the color representing the feature of the object is extracted as a feature amount, and based on this, the area of the specific object (ink fixation area) is extracted, so it is possible to clearly determine whether the object is a specific object or a foreign substance. Become. Therefore, by approximating the pixel values of the outer edge region of the specific object and the pixel values of the foreign matter, it is possible to accurately separate the specific object and the foreign matter. As a result, it is possible to avoid the situation in which a specific object and a foreign object cannot be accurately separated even if a determination threshold value is given in advance as troublesome prior information, as in the prior art, and the separation of the specific object and the foreign object can be avoided. Separation can be done properly.

10 画像処理装置
20 コントローラ
24 インタフェース
30 画像読取機構
211 オブジェクト抽出手段
212 オブジェクト特徴量算出手段
213 分類手段
214 クラスタ特徴量算出手段
215 対象物抽出手段
216 画像出力手段
10 image processing device 20 controller 24 interface 30 image reading mechanism 211 object extraction means 212 object feature amount calculation means 213 classification means 214 cluster feature amount calculation means 215 object extraction means 216 image output means

Claims (1)

特定の対象物と異物が混在する画像において、前記特定の対象物を抽出する画像処理装置であって、
前記画像内の各画素に対して、所定の値を満たす画素値となる画素を連結させたオブジェクトを抽出するオブジェクト抽出手段と、
前記オブジェクトの外縁領域以外の領域の画素値に基づいて、色に関する特徴量を、オブジェクト毎に、算出するオブジェクト特徴量算出手段と、
各オブジェクトの特徴量に基づいて、各オブジェクトを2つのクラスタのいずれかに分類する分類手段と、
前記分類された2つのクラスタに対して、色または面積のいずれかの1つを少なくとも含むクラスタ特徴量を算出するクラスタ特徴量算出手段と、
前記画像において、前記2つのクラスタ特徴量に基づいて、前記特定の対象物の領域を抽出する対象物抽出手段と、
備えることを特徴とする画像処理装置。
An image processing device for extracting a specific object from an image in which a specific object and a foreign substance are mixed,
an object extracting means for extracting an object obtained by connecting pixels having a pixel value satisfying a predetermined value for each pixel in the image;
object feature amount calculation means for calculating a feature amount related to color for each object based on pixel values of areas other than the outer edge area of the object;
Classification means for classifying each object into one of two clusters based on the feature amount of each object;
Cluster feature quantity calculation means for calculating a cluster feature quantity including at least one of color and area for the two classified clusters;
object extracting means for extracting a region of the specific object from the image based on the two cluster feature amounts;
An image processing device comprising:
JP2021010004A 2021-01-26 2021-01-26 Image processing apparatus Pending JP2022113965A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021010004A JP2022113965A (en) 2021-01-26 2021-01-26 Image processing apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021010004A JP2022113965A (en) 2021-01-26 2021-01-26 Image processing apparatus

Publications (1)

Publication Number Publication Date
JP2022113965A true JP2022113965A (en) 2022-08-05

Family

ID=82658374

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021010004A Pending JP2022113965A (en) 2021-01-26 2021-01-26 Image processing apparatus

Country Status (1)

Country Link
JP (1) JP2022113965A (en)

Similar Documents

Publication Publication Date Title
EP3477931A1 (en) Image processing method and device, readable storage medium and electronic device
JP4709147B2 (en) System and method for removing red eye phenomenon from digital images
JP4218348B2 (en) Imaging device
US6798903B2 (en) Image processing method, image processing device, recording medium, and transmission medium
JP2907120B2 (en) Red-eye detection correction device
EP1596573B1 (en) Image correction apparatus
JP4574249B2 (en) Image processing apparatus and method, program, and imaging apparatus
JP4153108B2 (en) Image processing method, image processing apparatus, and recording medium
JP3769487B2 (en) Blond Pixel Removal Method for Image Skin Color Detection
JP4078334B2 (en) Image processing apparatus and image processing method
JP4818393B2 (en) Image processing method and image processing apparatus
JP2000261650A (en) Image processing unit
JP2005086516A (en) Imaging device, printer, image processor and program
JP2007066227A (en) Image processor, processing method and program
JP4606304B2 (en) Near-infrared face image creation device, near-infrared face image creation method, and face image collation device
JP2022113965A (en) Image processing apparatus
JP2010237976A (en) Light source information obtaining device, shading detection device, shading removal device, and those methods and programs
JP5203159B2 (en) Image processing method, image processing system, and image processing program
JP5453796B2 (en) Image processing apparatus, electronic camera, and image processing program
JP4742068B2 (en) Image processing method, image processing system, and image processing program
JP4646130B2 (en) Image processing apparatus, image processing method, program, and storage medium storing program
JP2005128600A (en) Image processing method and object photographing system
JP4226308B2 (en) Image processing apparatus and image processing method
JP2006018805A (en) Particular region detection method, particular region detection apparatus and program
JP2001116620A (en) Colorimetric conversion coefficient calculating method and colorimetric image pickup method, colorimetric conversion coefficient calculating device and colorimetric image pickup device, and computer-readable information recording medium recorded with colorimetric conversion program