JP2022113965A - Image processing apparatus - Google Patents
Image processing apparatus Download PDFInfo
- Publication number
- JP2022113965A JP2022113965A JP2021010004A JP2021010004A JP2022113965A JP 2022113965 A JP2022113965 A JP 2022113965A JP 2021010004 A JP2021010004 A JP 2021010004A JP 2021010004 A JP2021010004 A JP 2021010004A JP 2022113965 A JP2022113965 A JP 2022113965A
- Authority
- JP
- Japan
- Prior art keywords
- image
- cluster
- area
- feature amount
- extracting
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Image Analysis (AREA)
Abstract
Description
本発明は、画像処理装置に係り、特に、特定の対象物と異物の分離を適切に行う画像処理装置に関する。 The present invention relates to an image processing apparatus, and more particularly to an image processing apparatus that properly separates a specific object from a foreign object.
一般的に、撮影画像には、抽出したい画像のみならず、除去したい画像を含んでいることがあり、これらの画像を適切に分離させることが必要となる。 In general, a captured image may include not only an image to be extracted but also an image to be removed, and it is necessary to separate these images appropriately.
図1は、一般的な閾値による画像抽出を説明した説明図である。(a)は、シアンインクのドットの薄片を撮影した原稿画像を示しており、図1(b)~(c)は、特許文献1に記載の技術において、閾値に基づいて抽出される画像の一例を示している。 FIG. 1 is an explanatory diagram illustrating image extraction using a general threshold. (a) shows a document image of a thin piece of a cyan ink dot, and FIGS. An example is shown.
図1(a)に示すように、原稿画像には、インク定着部領域IK101の画像と、異物領域IB101,103の画像とが含まれている。 As shown in FIG. 1A, the document image includes an image of the ink fixing portion area IK101 and images of the foreign matter areas IB101 and 103. As shown in FIG.
特許文献1の技術を用いて、特定の対象物であるインク定着部領域IK101の画像のみを抽出しようとする場合、原稿画像内の全画素の色の画素値(例えば、彩度の画素値)を抽出し、ある望ましい値(例えば、15)を閾値とし、画素値が「0」~「15」の画素は非抽出とし白で表示するように制御する。 When trying to extract only the image of the ink fixation area IK101, which is a specific object, using the technique of Patent Document 1, the color pixel values (for example, saturation pixel values) of all pixels in the document image are is extracted, and a desired value (eg, 15) is set as a threshold, and pixels with pixel values of "0" to "15" are not extracted and are controlled to be displayed in white.
この場合、図1(b)に示すように、人間の目でみれば明らかにインク定着部領域IK101の画像ではない異物領域IB101,103の画像も抽出されてしまっている。 In this case, as shown in FIG. 1(b), images of the foreign matter areas IB101 and 103, which are obviously not the image of the ink fixing portion area IK101, are also extracted as seen by the human eye.
また、図1(c)に示すように、異物領域IB101,103の画像を非抽出とすべく、閾値を「42」に変更し、画素値が「0」~「42」の画素を非抽出とすると、異物だけでなくインク定着部領域IK101の外縁も非抽出となり、インク定着部領域IK101全体が正確に抽出されなくなってしまう。これは、インク定着部領域IK101の外縁の画素値と異物の画素値が等しいため発生する。 Also, as shown in FIG. 1(c), the threshold is changed to "42" so as not to extract the images of the foreign matter areas IB101 and 103, and pixels with pixel values of "0" to "42" are not extracted. As a result, not only the foreign matter but also the outer edge of the ink fixing portion area IK101 are not extracted, and the entire ink fixing portion area IK101 cannot be extracted accurately. This occurs because the pixel value of the outer edge of the ink fixing portion area IK101 is equal to the pixel value of the foreign matter.
このように、一般的な閾値による画像抽出の技術では、インク定着部のみを正確に抽出することが困難であった。 As described above, it is difficult to accurately extract only the ink-fixed portion with the general image extraction technique based on the threshold value.
ここで、撮影画像において抽出したい画像と除去したい画像を分離させる技術として、主に口腔内の歯列を撮影した画像を対象として、歯に映った明るいかたまり(オブジェクト)が診断すべき患部であるのかもしくは単なる光の乱反射による雑音なのかを閾値と比較することにより判定し、雑音と判定したオブジェクトは削除し、患部が見やすい画像を出力する手法に関する技術が開示されている(例えば、特許文献1)。 Here, as a technology to separate the image to be extracted from the image to be removed in the photographed image, the target is mainly the image of the dentition in the oral cavity, and the bright mass (object) reflected in the tooth is the diseased part to be diagnosed. There is disclosed a technique related to a method of outputting an image in which the affected area is easy to see, by comparing with a threshold whether the object is a noise due to diffused reflection of light, and deleting the object determined as noise (for example, Patent Document 1 ).
しかしながら、特許文献1に記載の技術では、判定手段はオブジェクトの面積のみに基づいており、患部が雑音と同程度の場合は両者を正確に判別できず、また、事前情報として判別の閾値を予め与えておく必要があった。 However, in the technique described in Patent Document 1, the determination means is based only on the area of the object, and if the affected area is about the same as the noise, the two cannot be accurately determined. I had to give.
このように、閾値による抽出方法では、インク定着物のような対象物と異物を含む画像の場合、インク定着部外縁の画素値と、異物の画素値が近いため、対象物と異物の分離を、正確にかつ手間をかけずに行うことができなかった。 As described above, in the extraction method using the threshold value, in the case of an image including an object such as an ink-fixed object and a foreign object, the pixel value of the outer edge of the ink-fixed portion is close to the pixel value of the foreign object. , could not be done accurately and effortlessly.
本発明は、このような課題に鑑みてなされたもので、特定の対象物と異物の分離を適切に行う画像処理装置を提供することを目的とする。 SUMMARY OF THE INVENTION It is an object of the present invention to provide an image processing apparatus capable of appropriately separating a specific object from a foreign object.
上記目的を達成するため、本発明に係る画像処理装置の特徴は、
特定の対象物と異物が混在する画像において、前記特定の対象物を抽出する画像処理装置であって、
前記画像内の各画素に対して、所定の値を満たす画素値となる画素を連結させたオブジェクトを抽出するオブジェクト抽出手段と、
前記オブジェクトの外縁領域以外の領域の画素値に基づいて、色に関する特徴量を、オブジェクト毎に、算出するオブジェクト特徴量算出手段と、
各オブジェクトの特徴量に基づいて、各オブジェクトを2つのクラスタのいずれかに分類する分類手段と、
前記分類された2つのクラスタに対して、色または面積のいずれかの1つを少なくとも含むクラスタ特徴量を算出するクラスタ特徴量算出手段と、
前記画像において、前記2つのクラスタ特徴量に基づいて、前記特定の対象物の領域を抽出する対象物抽出手段と、
を備えることにある。
In order to achieve the above object, the features of the image processing apparatus according to the present invention are:
An image processing device for extracting a specific object from an image in which a specific object and a foreign substance are mixed,
an object extracting means for extracting an object obtained by connecting pixels having a pixel value satisfying a predetermined value for each pixel in the image;
object feature amount calculation means for calculating a feature amount related to color for each object based on pixel values of areas other than the outer edge area of the object;
Classification means for classifying each object into one of two clusters based on the feature amount of each object;
Cluster feature quantity calculation means for calculating a cluster feature quantity including at least one of color and area for the two classified clusters;
object extracting means for extracting a region of the specific object from the image based on the two cluster feature amounts;
It is to prepare
本発明に係る画像処理装置の特徴によれば、特定の対象物と異物の分離を適切に行うことができる。 According to the characteristics of the image processing apparatus according to the present invention, it is possible to appropriately separate a specific target object and a foreign substance.
以下、本発明の実施の形態について、図面を参照して説明する。各図面を通じて同一若しくは同等の部位や構成要素には、同一若しくは同等の符号を付している。ただし、図面は模式的なものであり、現実のものとは異なることに留意すべきである。また、図面相互間においても互いの寸法の関係や比率が異なる部分が含まれている。 BEST MODE FOR CARRYING OUT THE INVENTION Hereinafter, embodiments of the present invention will be described with reference to the drawings. The same or equivalent reference numerals are attached to the same or equivalent parts and components throughout each drawing. However, it should be noted that the drawings are schematic and differ from reality. In addition, there are portions with different dimensional relationships and ratios between the drawings.
また、以下に示す実施の形態は、この発明の技術的思想を具体化するための装置等を例示するものであって、この発明の技術的思想は、各構成部品の配置等を下記のものに特定するものでない。この発明の技術的思想は、特許請求の範囲において、種々の変更を加えることができる。 Further, the embodiments shown below are examples of apparatuses and the like for embodying the technical idea of the present invention. not specific to The technical idea of this invention can be modified in various ways within the scope of claims.
図2は、本発明の実施形態に係る画像処理装置10のハードウェア構成を示すブロック図である。本図に示すように、画像処理装置10は、コントローラ20と画像読取機構30とを備えている。画像処理装置10は、画像読取機構30で読み取った原稿の画像データから原稿の下地を除去して外部装置に出力する処理を行なう。
FIG. 2 is a block diagram showing the hardware configuration of the
画像読取機構30は、光源、原稿台、原稿台カバー、電荷結合型撮像素子列であるCCD、CCDを走査させる駆動モータ、CCDの出力信号をデジタル信号に変換するADコンバータ等を備えている。光源から原稿台に載置された原稿に光を照射し、その露光面の反射光をCCDで読み取ることにより、原稿露光面の画像データを取得する。原稿台カバーは、原稿台に載置された原稿を押さえるとともに外光を遮断する役割を担っている。この原稿台カバーは、CCDの読み取り範囲よりも原稿が小さい場合に画像データへの影響を少なくするために白色となっている。また、原稿台カバーにオートシートフィーダ機能を備えさせるようにしてもよい。
The
コントローラ20は、CPU21、ROM22、RAM23、インタフェース24を備えている。CPU21は、ROM22に記録されたプログラムにしたがって処理を行なうことで、画像読取機構30の光学的な原稿読取動作を制御するとともに、読み取った原稿画像からインク定着部領域の画像を適切に抽出する画像処理を行なう。RAM23は、この際の作業領域として用いられる。インタフェース24は、USB等の所定のプロトコルを用いて外部装置との通信を行なう。なお、ここでは、CPU21は、読み取った原稿画像からインク定着部領域の画像を適切に抽出する画像処理を行うが、これに限らない。例えば、インタフェース24を介して取得した原稿画像からインク定着部領域の画像を適切に抽出する画像処理を行うようにしてもよい。
The
CPU21は、その機能上、オブジェクト抽出手段211と、オブジェクト特徴量算出手段212と、分類手段213と、クラスタ特徴量算出手段214と、対象物抽出手段215と、画像出力手段216とを備える。
The
オブジェクト抽出手段211は、図1(a)に示した原稿画像内の各画素に対して、所定の値を満たす画素値となる画素を連結させたオブジェクトを抽出する。 The object extracting means 211 extracts an object in which pixels having pixel values satisfying a predetermined value are connected to each pixel in the document image shown in FIG. 1(a).
図3は、本発明の実施形態に係る画像処理装置10が備えるオブジェクト抽出手段211により、抽出されたオブジェクトの例を示した図である。
FIG. 3 is a diagram showing an example of objects extracted by the object extraction means 211 included in the
図3に示すように、オブジェクト抽出手段211は、原稿画像内の各画素に対して、所定の値を満たす画素値となる画素を連結させて、オブジェクトL1~L16を抽出している。ここでは、オブジェクトそれぞれを識別可能となるようにラベルとしてL1~L16を付与している。 As shown in FIG. 3, the object extracting means 211 extracts objects L1 to L16 by connecting pixels having pixel values satisfying a predetermined value with respect to each pixel in the document image. Here, L1 to L16 are given as labels so that each object can be identified.
オブジェクト特徴量算出手段212は、オブジェクトL1~L16の外縁領域以外の領域の画素値に基づいて、色に関する特徴量を、オブジェクトL1~L16毎に、算出する。ここでは、各オブジェクトL1~L16の色に関する特徴量をそれぞれの代表色とし、オブジェクトL1~L16を構成する画素のR, G, Bの平均値を算出する。
The object
分類手段213は、各オブジェクトの特徴量に基づいて、各オブジェクトを2つのクラスタのいずれかに分類する。 Classifying means 213 classifies each object into one of two clusters based on the feature amount of each object.
図4(a)は、オブジェクトL1~L16を特徴量空間にプロットした図であり、図4(b)は、特徴量空間にプロットされたオブジェクトL1~L16を、2つのクラスタに分類した図である。 FIG. 4(a) is a diagram in which the objects L1 to L16 are plotted in the feature amount space, and FIG. 4(b) is a diagram in which the objects L1 to L16 plotted in the feature amount space are classified into two clusters. be.
図4(b)に示すように、分類手段213は、特徴量空間にプロットされたオブジェクトL1~L16について、クラスタ分析を行うことにより、2つのクラスタC1,C2のどちらかに分類する。ここでは、クラスタ分析のアルゴリズムとして、非階層的手法であるk-means法を用いている。なお、クラスタ分析のアルゴリズムは様々あり、いずれのアルゴリズムを用いてもよいが、今回のようにインク定着部と異物の二つに分類したい、即ちクラスタ数が2つと決まっている場合は非階層的手法が望ましい。 As shown in FIG. 4B, the classifying means 213 classifies the objects L1 to L16 plotted in the feature amount space into one of two clusters C1 and C2 by performing cluster analysis. Here, the k-means method, which is a non-hierarchical method, is used as an algorithm for cluster analysis. There are various algorithms for cluster analysis, and any algorithm can be used. method is preferred.
図4(b)に示すように、オブジェクトL1~L12はクラスタC1に分類されており、オブジェクトL13~L16はクラスタC2に分類されている。 As shown in FIG. 4B, objects L1-L12 are classified into cluster C1, and objects L13-L16 are classified into cluster C2.
この段階では、2つのクラスタC1,C2のうち、いずれのクラスタがインク定着部領域IK101に対応しているかはわからない。 At this stage, it is not known which of the two clusters C1 and C2 corresponds to the ink fixing portion area IK101.
そこで、クラスタ特徴量算出手段214は、分類された2つのクラスタに対して、色または面積のいずれかの1つを少なくとも含むクラスタ特徴量を算出する。 Therefore, the cluster feature amount calculation means 214 calculates a cluster feature amount including at least one of color and area for the classified two clusters.
図5は、クラスタ特徴量算出手段214により算出されたクラスタ特徴量を示した図である。 FIG. 5 is a diagram showing cluster feature amounts calculated by the cluster feature amount calculation means 214. As shown in FIG.
図5に示すように、クラスタ特徴量算出手段214は、オブジェクトL1~L12それぞれ面積を求め、2つのクラスタC1,C2についてそれぞれの平均をクラスタ特徴量として算出している。
As shown in FIG. 5, the cluster
ここでは、クラスタC1のクラスタ特徴量である平均面積が「1383.58」として算出され、クラスタC2のクラスタ特徴量である平均面積が「30.25」として算出されている。 Here, the average area, which is the cluster feature amount of cluster C1, is calculated as "1383.58", and the average area, which is the cluster feature amount of cluster C2, is calculated as "30.25".
対象物抽出手段215は、画像において、2つのクラスタC1,C2それぞれのクラスタ特徴量に基づいて、特定の対象物の領域(インク定着部領域IK101)を抽出する。
The target
図1(a)に示すように、インク定着部領域IK101のオブジェクトの面積より、異物領域IB101,103のオブジェクトの面積の方が平均的に小さい。また、インク定着部領域IK101では、オブジェクトの面積が小さいものから大きいものまであるが、異物領域IB101,103では、オブジェクトの面積が小さいものしかない。 As shown in FIG. 1A, the area of the object in the foreign matter areas IB101 and 103 is smaller on average than the area of the object in the ink fixing portion area IK101. Also, in the ink fixing portion area IK101, the area of the object ranges from small to large.
そこで、対象物抽出手段215は、2つのクラスタC1,C2それぞれのクラスタ特徴量に基づいて、例えば、対象物抽出手段215は、2つのクラスタC1,C2それぞれのクラスタ特徴量に基づいて、平均面積の大きいクラスタC1をインク定着部領域IK101として抽出する。また、対象物抽出手段215は、面積のバラツキの大きいクラスタC1をインク定着部領域IK101として抽出するようにしてもよい。
Therefore, the object extraction means 215 calculates the average area is extracted as the ink fixing portion area IK101. Further, the
これにより、クラスタC1をインク定着部領域IK101とし、クラスタC2を異物領域IB101,103として決定することができる。 As a result, the cluster C1 can be determined as the ink fixing portion area IK101, and the cluster C2 can be determined as the foreign matter areas IB101 and 103. FIG.
画像出力手段216は、インク定着部領域IK101を抽出した画像を、インタフェース24を介して外部装置に出力する。
The image output means 216 outputs the image obtained by extracting the ink fixing portion area IK101 to an external device via the
図6は、外部装置に出力された画像の一例を示した図である。 FIG. 6 is a diagram showing an example of an image output to an external device.
図6に示すように、原稿画像から、クラスタC2である異物領域IB101,103を削除し、クラスタC1であるインク定着部領域IK101のみを抽出された画像が出力されている。 As shown in FIG. 6, an image in which foreign matter areas IB101 and 103, which are clusters C2, are deleted from the document image and only the ink fixing portion area IK101, which is cluster C1, is extracted is output.
図7は、本発明の実施形態に係る画像処理装置10における処理内容を示したフローチャートである。
FIG. 7 is a flow chart showing the processing contents of the
図7に示すように、画像読取機構30から画像が入力されると(ステップS101)、オブジェクト抽出手段211は、原稿画像内の各画素に対して、所定の値を満たす画素値となる画素を連結させたオブジェクトを抽出する(ステップS103)。
As shown in FIG. 7, when an image is input from the image reading mechanism 30 (step S101), the
ステップS105において、オブジェクト抽出手段211は、抽出したオブジェクトそれぞれを識別可能となるようにラベルとしてL1~L16を付与する。 In step S105, the object extraction means 211 assigns labels L1 to L16 to the extracted objects so that they can be identified.
ステップS107において、オブジェクト特徴量算出手段212は、オブジェクトL1~L16の外縁領域以外の領域の画素値に基づいて、色に関する特徴量を、オブジェクトL1~L16毎に算出する。
In step S107, the object
ステップS109において、分類手段213は、各オブジェクトの特徴量に基づいて、各オブジェクトを2つのクラスタのいずれかに分類する。 In step S109, the classification means 213 classifies each object into one of two clusters based on the feature amount of each object.
ステップS111において、クラスタ特徴量算出手段214は、分類された2つのクラスタに対して、色または面積のいずれかの1つを少なくとも含むクラスタ特徴量を算出する。
In step S111, the cluster feature
ステップS113において、対象物抽出手段215は、画像において、2つのクラスタC1,C2それぞれのクラスタ特徴量に基づいて、異物の領域(異物領域IB101,103)を除去し、特定の対象物の領域(インク定着部領域IK101)を抽出する。
In step S113, the
ステップS115において、画像出力手段216は、インク定着部領域IK101を抽出した画像を、インタフェース24を介して外部装置に出力する。
In step S115, the
なお、本実施形態では、オブジェクト抽出手段211は、原稿画像内の各画素に対して、所定の値を満たす画素値となる画素を連結させたオブジェクトを抽出したが、さらに、入力された原稿画像に対し、予め求めておいた非抽出対象の領域がとりうる画素値に該当する画素を非抽出対象としてマスクすることで、特定の領域を抽出するようにしてもよい。
In this embodiment, the
これにより、背景となる紙白と同色の領域をマスクでき、インク定着部領域がより正確に抽出されるようになる。 As a result, the background area having the same color as the paper white can be masked, and the ink-fixed area can be extracted more accurately.
なお、本実施形態では、クラスタ特徴量算出手段214は、2つのクラスタC1,C2の面積平均をクラスタ特徴量として算出したが、これに限らず、2つのクラスタC1,C2の色の平均をクラスタ特徴量として算出するようにしてもよい。 In the present embodiment, the cluster feature amount calculation means 214 calculates the area average of the two clusters C1 and C2 as the cluster feature amount. You may make it calculate as a feature-value.
色はクラスタ間で差が大きいため、より正確にどちらのクラスタが異物かを判定することができる。 Since there is a large color difference between the clusters, it is possible to more accurately determine which cluster is the foreign object.
(付記1)
特定の対象物と異物が混在する画像において、前記特定の対象物を抽出する画像処理装置であって、
前記画像内の各画素に対して、所定の値を満たす画素値となる画素を連結させたオブジェクトを抽出するオブジェクト抽出手段と、
前記オブジェクトの外縁領域以外の領域の画素値に基づいて、色に関する特徴量を、オブジェクト毎に、算出するオブジェクト特徴量算出手段と、
各オブジェクトの特徴量に基づいて、各オブジェクトを2つのクラスタのいずれかに分類する分類手段と、
前記分類された2つのクラスタに対して、色または面積のいずれかの1つを少なくとも含むクラスタ特徴量を算出するクラスタ特徴量算出手段と、
前記画像において、前記2つのクラスタ特徴量に基づいて、前記特定の対象物の領域を抽出する対象物抽出手段と、
備えることを特徴とする画像処理装置。
(Appendix 1)
An image processing device for extracting a specific object from an image in which a specific object and a foreign substance are mixed,
an object extracting means for extracting an object obtained by connecting pixels having a pixel value satisfying a predetermined value for each pixel in the image;
object feature amount calculation means for calculating a feature amount related to color for each object based on pixel values of areas other than the outer edge area of the object;
Classification means for classifying each object into one of two clusters based on the feature amount of each object;
Cluster feature quantity calculation means for calculating a cluster feature quantity including at least one of color and area for the two classified clusters;
object extracting means for extracting a region of the specific object from the image based on the two cluster feature amounts;
An image processing device comprising:
これにより、オブジェクトの特徴を表す色が特徴量として抽出され、これに基づいて、特定の対象物の領域(インク定着部領域)を抽出するので、オブジェクトが特定の対象物か、異物か明確になる。そのため、特定対象物の外縁領域の画素値と異物の画素値が近似することにより、特定の対象物と異物の分離を正確に行うことができる。これにより、先行文献のように、手間をかけ事前情報として判別の閾値を予め与えても特定の対象物と異物の分離が正確に行えないような事態が回避され、特定の対象物と異物の分離を適切に行うことができる。 As a result, the color representing the feature of the object is extracted as a feature amount, and based on this, the area of the specific object (ink fixation area) is extracted, so it is possible to clearly determine whether the object is a specific object or a foreign substance. Become. Therefore, by approximating the pixel values of the outer edge region of the specific object and the pixel values of the foreign matter, it is possible to accurately separate the specific object and the foreign matter. As a result, it is possible to avoid the situation in which a specific object and a foreign object cannot be accurately separated even if a determination threshold value is given in advance as troublesome prior information, as in the prior art, and the separation of the specific object and the foreign object can be avoided. Separation can be done properly.
10 画像処理装置
20 コントローラ
24 インタフェース
30 画像読取機構
211 オブジェクト抽出手段
212 オブジェクト特徴量算出手段
213 分類手段
214 クラスタ特徴量算出手段
215 対象物抽出手段
216 画像出力手段
10
Claims (1)
前記画像内の各画素に対して、所定の値を満たす画素値となる画素を連結させたオブジェクトを抽出するオブジェクト抽出手段と、
前記オブジェクトの外縁領域以外の領域の画素値に基づいて、色に関する特徴量を、オブジェクト毎に、算出するオブジェクト特徴量算出手段と、
各オブジェクトの特徴量に基づいて、各オブジェクトを2つのクラスタのいずれかに分類する分類手段と、
前記分類された2つのクラスタに対して、色または面積のいずれかの1つを少なくとも含むクラスタ特徴量を算出するクラスタ特徴量算出手段と、
前記画像において、前記2つのクラスタ特徴量に基づいて、前記特定の対象物の領域を抽出する対象物抽出手段と、
備えることを特徴とする画像処理装置。 An image processing device for extracting a specific object from an image in which a specific object and a foreign substance are mixed,
an object extracting means for extracting an object obtained by connecting pixels having a pixel value satisfying a predetermined value for each pixel in the image;
object feature amount calculation means for calculating a feature amount related to color for each object based on pixel values of areas other than the outer edge area of the object;
Classification means for classifying each object into one of two clusters based on the feature amount of each object;
Cluster feature quantity calculation means for calculating a cluster feature quantity including at least one of color and area for the two classified clusters;
object extracting means for extracting a region of the specific object from the image based on the two cluster feature amounts;
An image processing device comprising:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021010004A JP2022113965A (en) | 2021-01-26 | 2021-01-26 | Image processing apparatus |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021010004A JP2022113965A (en) | 2021-01-26 | 2021-01-26 | Image processing apparatus |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2022113965A true JP2022113965A (en) | 2022-08-05 |
Family
ID=82658374
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021010004A Pending JP2022113965A (en) | 2021-01-26 | 2021-01-26 | Image processing apparatus |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2022113965A (en) |
-
2021
- 2021-01-26 JP JP2021010004A patent/JP2022113965A/en active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP3477931A1 (en) | Image processing method and device, readable storage medium and electronic device | |
JP4709147B2 (en) | System and method for removing red eye phenomenon from digital images | |
JP4218348B2 (en) | Imaging device | |
US6798903B2 (en) | Image processing method, image processing device, recording medium, and transmission medium | |
JP2907120B2 (en) | Red-eye detection correction device | |
EP1596573B1 (en) | Image correction apparatus | |
JP4574249B2 (en) | Image processing apparatus and method, program, and imaging apparatus | |
JP4153108B2 (en) | Image processing method, image processing apparatus, and recording medium | |
JP3769487B2 (en) | Blond Pixel Removal Method for Image Skin Color Detection | |
JP4078334B2 (en) | Image processing apparatus and image processing method | |
JP4818393B2 (en) | Image processing method and image processing apparatus | |
JP2000261650A (en) | Image processing unit | |
JP2005086516A (en) | Imaging device, printer, image processor and program | |
JP2007066227A (en) | Image processor, processing method and program | |
JP4606304B2 (en) | Near-infrared face image creation device, near-infrared face image creation method, and face image collation device | |
JP2022113965A (en) | Image processing apparatus | |
JP2010237976A (en) | Light source information obtaining device, shading detection device, shading removal device, and those methods and programs | |
JP5203159B2 (en) | Image processing method, image processing system, and image processing program | |
JP5453796B2 (en) | Image processing apparatus, electronic camera, and image processing program | |
JP4742068B2 (en) | Image processing method, image processing system, and image processing program | |
JP4646130B2 (en) | Image processing apparatus, image processing method, program, and storage medium storing program | |
JP2005128600A (en) | Image processing method and object photographing system | |
JP4226308B2 (en) | Image processing apparatus and image processing method | |
JP2006018805A (en) | Particular region detection method, particular region detection apparatus and program | |
JP2001116620A (en) | Colorimetric conversion coefficient calculating method and colorimetric image pickup method, colorimetric conversion coefficient calculating device and colorimetric image pickup device, and computer-readable information recording medium recorded with colorimetric conversion program |