JP6909467B2 - Amber Fragment Type and Transparency Estimator, Estimator, and Estimator Program - Google Patents
Amber Fragment Type and Transparency Estimator, Estimator, and Estimator Program Download PDFInfo
- Publication number
- JP6909467B2 JP6909467B2 JP2017153214A JP2017153214A JP6909467B2 JP 6909467 B2 JP6909467 B2 JP 6909467B2 JP 2017153214 A JP2017153214 A JP 2017153214A JP 2017153214 A JP2017153214 A JP 2017153214A JP 6909467 B2 JP6909467 B2 JP 6909467B2
- Authority
- JP
- Japan
- Prior art keywords
- amber
- component
- transparency
- mask image
- average value
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Investigating Materials By The Use Of Optical Means Adapted For Particular Applications (AREA)
- Image Analysis (AREA)
Description
本発明は、琥珀砕片の種別および透明度の推定方法、推定装置、ならびに推定プログラムに関する。 The present invention relates to a method for estimating the type and transparency of amber fragments, an estimation device, and an estimation program.
琥珀は、太古に繁茂していた植物の樹脂が化石化したものである。琥珀は、古くから宝飾品などに用いられており、近年では新たな加工技術の開発や、抗アレルギー成分の発見などにより琥珀の用途は多様化している。日本では,岩手県久慈市周辺が古くから琥珀の産地として有名であり,この地域における主要な産業の一端を担っている。一方、琥珀は用途によって色や品質を判別することが重要となるが、琥珀の判別は人の目によって行われているのが現状である。したがって、コンピュータを用いて自動で琥珀の色および品質の判別を行うことは、処理のコスト削減および高速化に寄与する。 Amber is a fossilized resin of a plant that thrived in ancient times. Amber has been used for jewelry for a long time, and in recent years, the use of amber has been diversified due to the development of new processing technology and the discovery of anti-allergic components. In Japan, the area around Kuji City, Iwate Prefecture has long been famous as an amber producing area, and plays a part in the major industries in this area. On the other hand, it is important to discriminate the color and quality of amber depending on the purpose of use, but the current situation is that amber is discriminated by the human eye. Therefore, automatically discriminating the color and quality of amber using a computer contributes to cost reduction and speeding up of processing.
宝石原石を分類する方法に関する技術として、例えば、特許文献1には、ダイヤモンド宝石原石の分類を自動化する方法であって、宝石原石の赤外吸収サンプルスペクトルから、水蒸気による吸収に対応する特性およびダイヤモンド格子による固有吸収に対応する特性を差し引くステップ;ダイヤモンドの格子欠陥に対応する所定の吸収特性を同定するよう、サンプルスペクトルを分析するステップ;所定吸収特性の存在および/もしくは強度に従い宝石原石を分類するステップ;および分類の結果をデータベースに保存するステップを有する方法が開示されている。
また、琥珀に関する技術として、例えば、特許文献2には、粉粒状の琥珀の原材料を加熱および加圧して成形する再生琥珀の製造方法であって、単独で成形したときの成形物の平均抗折力が異なる複数の原材料ロットを用い、これらの原材料ロットを混合して混合物とし、該混合物を成形することを特徴とする再生琥珀の製造方法が開示されている。
As a technique relating to a method for classifying gemstones, for example,
Further, as a technique related to amber, for example,
しかしながら、特許文献1および2では、琥珀の種別や透明度に関する推定は行われておらず、本発明者らの調べた範囲では、既存技術は存在しない。
However, in
そこで、本発明は、琥珀砕片の種別および透明度を推定可能な推定方法、推定装置、並びに推定プログラムを提供することを課題とする。 Therefore, it is an object of the present invention to provide an estimation method, an estimation device, and an estimation program capable of estimating the type and transparency of amber fragments.
本発明の第1の態様は、水平面に静置された琥珀砕片に上方から光を照射し、上部カラー画像を取得する上部カラー画像取得工程と、上部カラー画像にマスク処理を施し、上部マスク画像を作成する上部マスク画像作成工程と、上部マスク画像を解析し、上部マスク画像における琥珀砕片領域の画素のRGB成分およびHSV成分の情報を取得する上部マスク画像解析工程と、上部マスク画像解析工程で得られるR成分の平均値とV成分の平均値とが等しい画素の割合、および、S成分の平均値から、外皮物と琥珀との判別を行う外皮物・琥珀判別工程と、外皮物・琥珀判別工程で琥珀と判別された琥珀砕片が写る上部マスク画像の琥珀砕片領域の画素を対象に、黄琥珀、茶琥珀および黒琥珀からなる琥珀種別の各琥珀への帰属度を算出し、帰属度が最も高い琥珀種別に琥珀砕片を判別する琥珀種別判別工程と、琥珀種別判別工程で黄琥珀と判別された琥珀砕片の透明度を、ファジィ推論を用いて推定する黄琥珀透明度推定工程と、を含む、琥珀砕片の種別および透明度の推定方法である。 The first aspect of the present invention is an upper color image acquisition step of irradiating an amber fragment resting on a horizontal plane with light from above to acquire an upper color image, and a masking process on the upper color image to obtain an upper mask image. In the upper mask image creation step, the upper mask image analysis step, and the upper mask image analysis step, which analyzes the upper mask image and acquires information on the RGB component and HSV component of the pixels of the amber fragment region in the upper mask image. From the ratio of pixels in which the average value of the obtained R component and the average value of the V component are equal, and the average value of the S component, the outer skin / amber discrimination step for discriminating between the outer skin and the amber, and the outer skin / amber Targeting the pixels of the amber fragment area of the upper mask image in which the amber fragment identified as amber in the discrimination process is captured, the degree of attribution to each amber of the amber type consisting of yellow amber, brown amber and black amber is calculated, and the degree of attribution is calculated. Includes an amber type determination step that discriminates amber fragments to the highest amber type, and an amber transparency estimation step that estimates the transparency of amber fragments determined to be yellow amber in the amber type determination step using fuzzy inference. , Amber fragment type and transparency estimation method.
本発明において、「外皮物」とは、表面に不純物が付着した琥珀砕片を意味する。また、本発明において、「RGB成分」とは、RGB表色系におけるR成分、G成分、およびB成分を意味する。また、本発明において、「HSV成分」とは、HSV表色系におけるH成分、S成分、およびV成分を意味する。 In the present invention, the "exodermis" means amber fragments having impurities attached to the surface. Further, in the present invention, the "RGB component" means the R component, the G component, and the B component in the RGB color system. Further, in the present invention, the "HSV component" means the H component, the S component, and the V component in the HSV color system.
本発明の第1の態様において、上部マスク画像作成工程が、上部カラー画像をグレースケール化し、グレースケール画像を得るグレースケール化工程と、グレースケール画像を二値化し、二値画像を得る二値化工程と、二値画像の補完およびノイズ除去を行う補完・ノイズ除去工程と、補完・ノイズ除去工程で得られる二値画像に反転処理を施す反転処理工程と、を含むことが好ましい。 In the first aspect of the present invention, the upper mask image creation step is a grayscale step of grayscale the upper color image to obtain a grayscale image and a binary step of binarizing the grayscale image to obtain a binary image. It is preferable to include a conversion step, a complement / noise removal step of complementing and removing noise of the binary image, and an inversion processing step of inverting the binary image obtained in the complement / noise removing step.
本発明の第1の態様において、琥珀種別判別工程が、予め定めた黄琥珀、茶琥珀および黒琥珀のR成分の平均値ならびに上部マスク画像解析工程で得られるR成分の平均値を用いてR成分の近似度を算出するR成分近似度算出工程と、予め定めた黄琥珀、茶琥珀および黒琥珀のH成分の最頻値ならびに上部マスク画像解析工程で得られるH成分の最頻値を用いてH成分の近似度を算出するH成分近似度算出工程と、R成分の近似度およびH成分の近似度に基づいて、琥珀砕片領域の画素の黄琥珀、茶琥珀および黒琥珀への帰属度を算出する帰属度算出工程と、帰属度が最も高い琥珀の種別に、琥珀砕片を判別する判別処理工程と、を含むことが好ましい。 In the first aspect of the present invention, the amber type determination step uses a predetermined average value of the R components of yellow amber, brown amber and black amber and an average value of the R component obtained in the upper mask image analysis step. Using the R component approximation calculation step that calculates the approximation of the components, the most frequent value of the H component of yellow amber, brown amber and black amber determined in advance, and the most frequent value of the H component obtained in the upper mask image analysis step. The degree of attribution of the pixels of the amber fragment region to yellow amber, brown amber and black amber based on the H component approximation calculation step for calculating the approximation of the H component and the approximation of the R component and the H component. It is preferable to include a step of calculating the degree of attribution for calculating the amber and a step of discriminating the amber fragment to discriminate the type of amber having the highest degree of attribution.
本発明の第1の態様において、黄琥珀透明度推定工程が、琥珀種別判別工程で黄琥珀と判別された琥珀砕片に下方から光を照射し、下部カラー画像を取得する下部カラー画像取得工程と、下部カラー画像にマスク処理を施し、下部マスク画像を作成する下部マスク画像作成工程と、下部マスク画像を解析し、下部マスク画像における琥珀砕片領域の画素のRGB成分の情報を取得する下部マスク画像解析工程と、下部マスク画像解析工程で得られるG成分の平均値およびB成分の平均値に基づき、予め定めた黄琥珀のG成分の平均値およびB成分の平均値を基準として、予め定めた複数の規則からなる推論規則の各規則への適合度を、前件部メンバーシップ関数を用いて算出する適合度算出工程と、各規則への適合度と後件部メンバーシップ関数とのファジィ論理積から、推論結果である図形を作成する作図工程と、Mamdaniの推論法を用いて非ファジィ化を行い図形の重心を求め、最終推論結果として琥珀砕片の透明度を算出する透明度算出工程と、を含むことが好ましい。 In the first aspect of the present invention, the yellow amber transparency estimation step includes a lower color image acquisition step of irradiating amber fragments determined to be yellow amber in the amber type determination step with light from below to acquire a lower color image. Lower mask image creation process that masks the lower color image to create the lower mask image, and lower mask image analysis that analyzes the lower mask image and acquires information on the RGB components of the pixels in the amber fragment region in the lower mask image. A plurality of predetermined values based on the average value of the G component and the average value of the B component obtained in the step and the lower mask image analysis step, and based on the predetermined average value of the G component and the average value of the B component of the amber. The fuzzy logic product of the conformity calculation process that calculates the conformity of the inference rule consisting of the above rules to each rule using the preamble membership function, and the conformity to each rule and the postpart membership function. Including a drawing step of creating a figure which is an inference result and a transparency calculation step of calculating the transparency of amber fragments as the final inference result by performing non-fuzzy logic using Mamdani's inference method to obtain the center of gravity of the figure. Is preferable.
本発明の第1の態様において、推論規則の前件部が、以下のA1〜A4からなり、
A1:G成分の平均値が低く、且つ、B成分の平均値が低い
A2:G成分の平均値が低く、且つ、B成分の平均値が高い
A3:G成分の平均値が高く、且つ、B成分の平均値が低い
A4:G成分の平均値が高く、且つ、B成分の平均値が高い
推論規則の後件部が、以下のB1〜B3からなり、
B1:透明度が低い
B2:透明度が高いまたは透明度が低い
B3:透明度が高い
推論規則が、以下のδ1〜δ4の規則からなっていてもよい。
δ1:前件部がA1であれば、後件部はB1である
δ2:前件部がA2であれば、後件部はB2である
δ3:前件部がA3であれば、後件部はB2である
δ4:前件部がA4であれば、後件部はB3である
In the first aspect of the present invention, the antecedent part of the inference rule comprises the following A1 to A4.
A1: The average value of the G component is low and the average value of the B component is low. A2: The average value of the G component is low and the average value of the B component is high. The average value of the B component is low A4: The average value of the G component is high and the average value of the B component is high The latter part of the inference rule consists of the following B1 to B3.
B1: Low transparency B2: High transparency or low transparency B3: High transparency The inference rule may consist of the following rules δ 1 to δ 4 .
δ 1 : If the antecedent part is A1, the consequent part is B1 δ 2 : If the antecedent part is A2, the consequent part is B2 δ 3 : If the antecedent part is A3, The consequent part is B2 δ 4 : If the antecedent part is A4, the consequent part is B3
本発明の第1の態様において、上部カラー画像取得工程で照射される光の琥珀表面における照度が500lx以上2500lx以下であることが好ましい。 In the first aspect of the present invention, it is preferable that the illuminance on the amber surface of the light irradiated in the upper color image acquisition step is 500 lpx or more and 2500 lpx or less.
本発明の第1の態様において、下部カラー画像取得工程で照射される光の琥珀表面における照度が500lx以上1000lx以下であることが好ましい。 In the first aspect of the present invention, it is preferable that the illuminance on the amber surface of the light irradiated in the lower color image acquisition step is 500 xl or more and 1000 lp or less.
本発明の第2の態様は、琥珀砕片を静置可能な水平面と、水平面に静置された琥珀砕片に上方から光を照射可能な光源と、撮像手段と、を有し、琥珀砕片の上部カラー画像を取得可能な上部カラー画像取得部と、上部カラー画像にマスク処理を施し、上部マスク画像を作成する上部マスク画像作成部と、上部マスク画像を解析し、上部マスク画像における琥珀砕片領域の画素のRGB成分およびHSV成分の情報を取得する上部マスク画像解析部と、上部マスク画像解析部で得られR成分の平均値とV成分の平均値とが等しい画素の割合、および、S成分の平均値から、外皮物と琥珀との判別を行う外皮物・琥珀判別部と、外皮物・琥珀判別部で琥珀と判別された琥珀砕片が写る上部マスク画像の琥珀砕片領域の画素を対象に、黄琥珀、茶琥珀および黒琥珀からなる琥珀種別の各琥珀への帰属度を算出し、帰属度が最も高い琥珀種別に琥珀砕片を判別する琥珀種別判別部と、琥珀種別判別部で黄琥珀と判別された琥珀砕片の透明度を、ファジィ推論を用いて推定する黄琥珀透明度推定部と、を備える、琥珀砕片の種別および透明度の推定装置である。 A second aspect of the present invention has a horizontal plane on which the amber shards can be placed, a light source capable of irradiating the amber shards placed on the horizontal plane with light from above, and an imaging means, and has an upper portion of the amber slab. An upper color image acquisition unit that can acquire a color image, an upper mask image creation unit that masks the upper color image to create an upper mask image, and an upper mask image analysis that analyzes the amber fragment region in the upper mask image. The proportion of pixels in which the average value of the R component and the average value of the V component obtained by the upper mask image analysis unit that acquires information on the RGB component and HSV component of the pixel are equal, and the S component From the average value, target the pixels of the amber fragment area of the upper mask image in which the outer skin / amber discriminating unit that discriminates between the outer skin and the amber and the amber fragment that is discriminated as amber by the outer skin / amber discriminating unit are shown. The amber type discriminating unit, which calculates the degree of attribution to each amber of the amber type consisting of yellow amber, brown amber, and black amber, and discriminates the amber fragments to the amber type with the highest attribution, and the amber type discriminating unit, and the amber and amber type discriminating part. It is an amber fragment type and transparency estimation device including a yellow amber transparency estimation unit that estimates the transparency of the determined amber fragment using fuzzy inference.
本発明の第3の態様は、水平面に静置された琥珀砕片に上方から光を照射し、上部カラー画像を取得する工程と、上部カラー画像にマスク処理を施し、上部マスク画像を作成する工程と、上部マスク画像を解析し、上部マスク画像における琥珀砕片領域の画素のRGB成分およびHSV成分の情報を取得する工程と、上部マスク画像解析工程で得られるR成分の平均値とV成分の平均値とが等しい画素の割合、および、S成分の平均値から、外皮物と琥珀との判別を行う工程と、外皮物・琥珀判別工程で琥珀と判別された琥珀砕片が写る上部マスク画像の琥珀砕片領域の画素を対象に、黄琥珀、茶琥珀および黒琥珀からなる琥珀種別の各琥珀への帰属度を算出し、帰属度が最も高い琥珀種別に琥珀砕片を判別する工程と、琥珀種別判別工程で黄琥珀と判別された琥珀砕片の透明度を、ファジィ推論を用いて推定する工程と、をコンピュータに実行させるための、琥珀砕片の種別および透明度の推定プログラムである。 A third aspect of the present invention is a step of irradiating an amber fragment resting on a horizontal plane with light from above to acquire an upper color image, and a step of applying mask processing to the upper color image to create an upper mask image. And, the step of analyzing the upper mask image and acquiring the information of the RGB component and the HSV component of the pixel of the amber fragment region in the upper mask image, and the average value of the R component and the average of the V component obtained in the upper mask image analysis step. Amber in the upper mask image showing the amber fragments identified as amber in the process of discriminating between the outer skin and amber from the ratio of pixels with the same value and the average value of the S component and the outer skin / amber discrimination step. The process of calculating the degree of attribution to each amber of the amber type consisting of yellow amber, brown amber and black amber for the pixels of the fragment area, and determining the amber fragment to the amber type with the highest degree of attribution, and the amber type discrimination This is an estimation program for the type and transparency of amber fragments to cause a computer to execute a process of estimating the transparency of amber fragments determined to be yellow amber in the process using fuzzy inference.
本発明によれば、琥珀砕片の種別および透明度を推定可能な推定方法、推定装置、並びに推定プログラムを提供することができる。 According to the present invention, it is possible to provide an estimation method, an estimation device, and an estimation program capable of estimating the type and transparency of amber fragments.
本発明の上記した作用および利得は、以下に説明する発明を実施するための形態から明らかにされる。以下、図面を参照しつつ、本発明の実施の形態について説明する。なお、以下に示す形態は本発明の例示であり、本発明がこれらの形態に限定されるものではない。 The above-mentioned actions and gains of the present invention will be clarified from the embodiments for carrying out the invention described below. Hereinafter, embodiments of the present invention will be described with reference to the drawings. The forms shown below are examples of the present invention, and the present invention is not limited to these forms.
1.琥珀砕片の種別および透明度の推定方法
図1は、本発明の第1の態様に係る琥珀砕片の種別および透明度の推定方法の一実施形態に係る推定方法S10を説明するフローチャートである。図1を参照しつつ、推定方法S10について、以下に説明する。
図1に示すように、推定方法S10は、上部カラー画像取得工程S1と、上部マスク画像作成工程S2と、上部マスク画像解析工程S3と、外皮物・琥珀判別工程S4と、琥珀種別判別工程S5と、黄琥珀透明度推定工程S6と、を含む。
1. 1. Method for Estimating Type of Amber Fragment and Transparency FIG. 1 is a flowchart illustrating an estimation method S10 according to an embodiment of a method for estimating the type and transparency of amber fragment according to the first aspect of the present invention. The estimation method S10 will be described below with reference to FIG.
As shown in FIG. 1, the estimation method S10 includes an upper color image acquisition step S1, an upper mask image creation step S2, an upper mask image analysis step S3, an outer skin / amber discrimination step S4, and an amber type discrimination step S5. And the yellow amber transparency estimation step S6.
1.1.上部カラー画像取得工程S1
上部カラー画像取得工程S1(以下、「S1」と称することがある。)は、水平面に静置された琥珀砕片に上方から光を照射し、上部カラー画像を取得する工程である。図2に、S1の様子を模式的に示す。図2に示すように、水平面に静置された琥珀砕片1に対して、琥珀砕片1よりも鉛直方向(紙面上下方向)の上側に配置された光源2から琥珀砕片1に向けて光が照射される。この状態で、琥珀砕片1よりも鉛直方向の上側に配置された撮像手段3により撮影を行うことにより、上部カラー画像を取得する。水平面を形成する部材は、水平面を有し、琥珀砕片を静置可能であればその材質は特に限定されない。水平面は透光性を有していてもよいが、透明板上で撮影した場合、照明光が板に反射することで取得される画像特徴が変化してしまうことがあるため、白画用紙等により形成される白色の面であることが好ましい。撮像手段3は、上部カラー画像を取得することができるものであれば特に限定されず、例えば、可視領域カメラ等を用いることができる。また、撮影は、暗室内で行われることが好ましい。琥珀砕片に光を照射する光源の数、位置および光の照射方向は特に限定されず、例えば、図2に示すように、鉛直方向に対して斜め方向から光を照射してもよい。画像全体が暗くなることを防止する観点から、琥珀砕片表面における照度は、500lx以上であることが好ましい。一方、白飛びの量が増えることを防止する観点から、琥珀砕片表面における照度は、2500lx以下であることが好ましい。照度は、LED照明の出力の調整や減光フィルムの使用により、適宜調整することが可能である。
1.1. Upper color image acquisition process S1
The upper color image acquisition step S1 (hereinafter, may be referred to as “S1”) is a step of irradiating amber crushed pieces resting on a horizontal plane with light from above to acquire an upper color image. FIG. 2 schematically shows the state of S1. As shown in FIG. 2, the
1.2.上部マスク画像作成工程S2
上部マスク画像作成工程S2(以下、「S2」と称することがある。)は、S1で取得された上部カラー画像にマスク処理を施し、上部マスク画像を作成する工程である。図3に、上部マスク画像作成工程S2の一実施形態を説明するフローチャートを示す。図3に示すように、上部マスク画像作成工程S2は、グレースケール化工程S21と、二値化工程S22と、補完・ノイズ除去工程S23と、反転処理工程S24と、を含み、上部カラー画像は工程S21〜24によるマスク処理を施されることが好ましい。
1.2. Upper mask image creation process S2
The upper mask image creation step S2 (hereinafter, may be referred to as “S2”) is a step of applying a mask process to the upper color image acquired in S1 to create an upper mask image. FIG. 3 shows a flowchart illustrating an embodiment of the upper mask image creating step S2. As shown in FIG. 3, the upper mask image creation step S2 includes a grayscale conversion step S21, a binarization step S22, a complement / noise removal step S23, and an inversion processing step S24, and the upper color image is It is preferable to perform the mask treatment according to the steps S21 to 24.
1.2.1.グレースケール化工程S21
グレースケール化工程S21(以下、「S21」と称することがある。)は、S1で取得された上部カラー画像をグレースケール化し、グレースケール画像を得る工程である。上部カラー画像をグレースケール化する方法は、グレースケール化が可能であれば特に限定されない。例えば、S1で取得された上部カラー画像の画素(x,y)に対して、RGB成分Cxy(R=Pr,G=Pg,B=Pb)を基に、RGBtoYCC変換式を用いて明度値Vxyを算出し、256階調のグレースケール画像を作成することができる。RGBtoYCC変換式を以下の(1)式に示す。
1.2.1. Grayscale process S21
The grayscale step S21 (hereinafter, may be referred to as “S21”) is a step of grayscale the upper color image acquired in S1 to obtain a grayscale image. The method of grayscale the upper color image is not particularly limited as long as it can be grayscaled. For example, using a pixel of the acquired upper color image (x, y) in S1, RGB component C xy (R = P r, G = P g, B = P b) based on the RGBtoYCC conversion formula The brightness value V xy can be calculated to create a grayscale image with 256 gradations. The RGB to YCC conversion formula is shown in the following formula (1).
1.2.2.二値化工程S22
二値化工程S22(以下、「S22」と称することがある。)は、S21で得られるグレースケール画像を二値化し、二値画像を得る工程である。グレースケール画像を二値化する方法は、二値化が可能であれば特に限定されない。例えば、S21で得られるグレースケール画像の画素(x,y)の明度値Vxy(0〜255)が閾値Thr以上である画素を白画素(255)に、それ以外の場合には、黒画素(0)とすることにより二値画像を作成することができる。二値画像の作成条件を以下の(2)式に示す。なお、作成時における閾値Thrは、画像ごとに手動で設定してもよく、以下の式(3)を用いて自動で設定してもよい。式(3)において、Vμはグレースケール画像における明度の平均値であり、Vσはグレースケール画像における明度の標準偏差値である。
1.2.2. Binarization step S22
The binarization step S22 (hereinafter, may be referred to as “S22”) is a step of binarizing the grayscale image obtained in S21 to obtain a binary image. The method of binarizing the grayscale image is not particularly limited as long as the binarization is possible. For example, a pixel (0 to 255) in which the brightness value V xy (0 to 255) of the pixel (x, y) of the grayscale image obtained in S21 is equal to or greater than the threshold Thr is defined as a white pixel (255), and in other cases, a black pixel. By setting (0), a binary image can be created. The conditions for creating a binary image are shown in Eq. (2) below. The threshold value Thr at the time of creation may be set manually for each image, or may be automatically set using the following equation (3). In equation (3), V μ is the average value of lightness in the grayscale image, and V σ is the standard deviation value of lightness in the grayscale image.
1.2.3.補完・ノイズ除去工程S23
補完・ノイズ除去工程S23(以下、「S23」と称することがある。)は、S22で得られる二値画像の補完およびノイズ除去を行う工程である。二値画像の補完およびノイズ除去を行う方法は、補完およびノイズ除去が可能であれば特に限定されない。例えば、S22で得られた二値画像にオープニング処理およびクロージング処理を施すことにより行うことができる。具体的には、オープニング処理として、収縮処理を施した後、同じ回数だけ膨張処理を行い、クロージング処理として膨張処理を施した後、同じ回数だけ収縮処理を行う。なお、各処理の回数は0から10回までの値を1回ずつ変化させ、原画像ごとに最適と判断される回数を適宜採用することができる。
1.2.3. Complementary / noise removal process S23
Complementing / noise removing step S23 (hereinafter, may be referred to as “S23”) is a step of complementing and removing noise of the binary image obtained in S22. The method for complementing and removing noise from a binary image is not particularly limited as long as complementation and noise removal are possible. For example, it can be performed by performing an opening process and a closing process on the binary image obtained in S22. Specifically, as the opening process, the shrinkage process is performed and then the expansion process is performed the same number of times, and as the closing process, the expansion process is performed and then the shrinkage process is performed the same number of times. The number of times of each process is changed from 0 to 10 times by one time, and the number of times determined to be optimal for each original image can be appropriately adopted.
1.2.4.反転処理工程S24
反転処理工程S24(以下、「S24」と称することがある。)は、S23で得られる補完およびノイズ除去後の二値画像に反転処理を施す工程である。例えば、S22において、上述のように白画素(255)と黒画素(0)とからなる二値画像を作成している場合には、S23により、補完・ノイズ除去を施した二値画像は、黒画素が琥珀砕片部、白画素が背景部となっている。そこで、S24において、黒画素(0)を白画素(255)に、白画素(255)を黒画素(0)にする反転処理を施すことにより、黒画素が背景部、白画素が琥珀砕片部である上部マスク画像を作成することができる。
1.2.4. Inversion processing step S24
The inversion processing step S24 (hereinafter, may be referred to as “S24”) is a step of performing an inversion process on the binary image after complementation and noise removal obtained in S23. For example, in S22, when a binary image composed of white pixels (255) and black pixels (0) is created as described above, the binary image to which complementation and noise removal are performed by S23 can be obtained. The black pixels are the amber crushed pieces, and the white pixels are the background. Therefore, in S24, by performing an inversion process in which the black pixel (0) is changed to the white pixel (255) and the white pixel (255) is changed to the black pixel (0), the black pixel is the background portion and the white pixel is the amber fragment portion. It is possible to create an upper mask image that is.
1.3.上部マスク画像解析工程S3
上部マスク画像解析工程S3(以下、「S3」と称することがある。)は、S2で得られる上部マスク画像を解析し、上部マスク画像における琥珀砕片領域の画素(以下、琥珀画素と称することがある。)のRGB成分およびHSV成分の情報を取得する工程である。以下、RGB成分の情報を取得する方法、および、HSV成分の情報を取得する方法について、順に説明する。
1.3. Upper mask image analysis step S3
The upper mask image analysis step S3 (hereinafter, may be referred to as “S3”) analyzes the upper mask image obtained in S2 and may refer to the pixels of the amber fragment region in the upper mask image (hereinafter, referred to as amber pixels). It is a step of acquiring the information of the RGB component and the HSV component of (there is). Hereinafter, a method of acquiring information on RGB components and a method of acquiring information on HSV components will be described in order.
1.3.1.RGB成分情報取得
S3において、RGB成分の情報を取得するために、まず、上部マスク画像中に存在する琥珀画素を抽出する。次に、抽出した琥珀画素のRGB成分を基に、R成分ヒストグラム、G成分ヒストグラム、およびB成分ヒストグラムを算出する。算出したRGBヒストグラムを基に、平均値μ、分散値σ2、および最頻値を算出し、これらの情報を特徴量として取得する。ヒストグラムのX軸における値(階調値)をxとし、xにおけるY成分(頻度)をY(x)としたとき、平均値μを算出するための式を以下の式(4)に、分散値σ2を算出するための式を以下の式(5)に示す。
13.1. RGB component information acquisition In S3, in order to acquire the RGB component information, first, the amber pixels existing in the upper mask image are extracted. Next, the R component histogram, the G component histogram, and the B component histogram are calculated based on the RGB components of the extracted amber pixels. Based on the calculated RGB histogram, the average value μ, the variance value σ 2 , and the mode value are calculated, and these information are acquired as feature quantities. When the value (gradation value) on the X-axis of the histogram is x and the Y component (frequency) at x is Y (x), the formula for calculating the average value μ is dispersed in the following formula (4). The formula for calculating the value σ 2 is shown in the following formula (5).
1.3.2.HSV成分情報取得
HSV表色系は人間の感覚に近い色の指定が可能であり、H(色相)、S(彩度)、ならびにV(明度)の3成分によって表現される。すなわち、HSV表色系は色特徴として扱いやすいため、琥珀における色特徴として有用であると考えられる。HSV成分は、RGB成分からの変換式を用いて算出することができる。RGB表色系からHSV表色系への色空間変換に用いられる変換式を以下の式(6)に示す。
1.3.2. Acquisition of HSV component information The HSV color system can specify colors that are close to human senses, and is represented by three components: H (hue), S (saturation), and V (brightness). That is, since the HSV color system is easy to handle as a color feature, it is considered to be useful as a color feature in amber. The HSV component can be calculated using a conversion formula from the RGB component. The conversion formula used for the color space conversion from the RGB color system to the HSV color system is shown in the following formula (6).
上記式(6)を用いてRGB成分からHSV成分への変換を行い、H成分ヒストグラム、S成分ヒストグラム、ならびにV成分ヒストグラムをそれぞれ算出する。HSVヒストグラムを基に、平均値μ、分散値σ2、ならびに最頻値を算出し、これらの情報を特徴量として取得する。RGBヒストグラムの特徴量の算出と同様に、平均値μは上記式(4)を、分散値σ2は上記式(5)を用いて算出する。なお、算出方法におけるH成分の平均値μおよび分散値σ2は、H成分が環状データであることを考慮していないため、H成分においては最頻値のみを特徴量として用いる。 The RGB component is converted to the HSV component using the above formula (6), and the H component histogram, the S component histogram, and the V component histogram are calculated, respectively. Based on the HSV histogram, the average value μ, the variance value σ 2 , and the mode value are calculated, and these information are acquired as feature quantities. Similar to the calculation of the feature amount of the RGB histogram, the average value μ is calculated by using the above formula (4), and the variance value σ 2 is calculated by using the above formula (5). Since the average value μ and the dispersion value σ 2 of the H component in the calculation method do not consider that the H component is cyclic data, only the mode value is used as the feature amount in the H component.
1.4.外皮物・琥珀判別工程S4
外皮物・琥珀判別工程S4(以下、「S4」と称することがある。)は、S3で得られるR成分の平均値とV成分の平均値とが等しい(以下、「R=Vである」と表記することがある。)画素の割合、および、S成分の平均値から、外皮物と琥珀との判別を行う工程である。
1.4. Exodermis / amber discrimination step S4
In the hull / amber discrimination step S4 (hereinafter, may be referred to as “S4”), the average value of the R component and the average value of the V component obtained in S3 are equal (hereinafter, “R = V””. It is a step of discriminating between the outer skin and amber from the ratio of pixels and the average value of the S component.
S4において、琥珀画素においてR=V、すなわちMAX(R,G,B)=Rである画素の割合を算出することで、琥珀と外皮物の判別が可能である。具体的には、対象画像における琥珀画素において、R=Vとなる割合が高いものを琥珀、低いものを外皮物の可能性があるものとして判別を行うことが可能である。R=Vとなる割合の閾値は、適宜設定することが可能であり、例えば、75%であることが好ましい。 In S4, the amber and the exodermis can be discriminated by calculating the ratio of the pixels in which R = V, that is, MAX (R, G, B) = R in the amber pixels. Specifically, among the amber pixels in the target image, those having a high ratio of R = V can be discriminated as amber, and those having a low ratio can be discriminated as having a possibility of exodermis. The threshold value for the ratio of R = V can be appropriately set, and is preferably 75%, for example.
R成分およびV成分を用いた外皮物の判別のみでは、黒琥珀などR=Vの割合を低くとり得る琥珀を外皮物と判別してしまい、これに起因して、判別精度が低下する。このため、各琥珀および外皮物の判別率向上を目的とし、S成分に閾値を設けて外皮物の判別を行うことができる。具体的には、対象画像における琥珀砕片領域のS成分の平均値を算出し、算出した平均値が閾値を上回る場合は琥珀と判別し、下回る場合は外皮物として判別を行うことができる。S成分の閾値は、適宜設定することが可能であり、例えば、32.9であることが好ましい。 Only by discriminating the exodermis using the R component and the V component, amber such as black amber, which can have a low ratio of R = V, is discriminated as the exodermis, and the discrimination accuracy is lowered due to this. Therefore, for the purpose of improving the discrimination rate of each amber and exodermis, it is possible to discriminate the exodermis by setting a threshold value for the S component. Specifically, the average value of the S component of the amber fragment region in the target image can be calculated, and if the calculated average value exceeds the threshold value, it can be determined as amber, and if it is less than the threshold value, it can be determined as an exodermis. The threshold value of the S component can be appropriately set, and is preferably 32.9, for example.
1.5.琥珀種別判別工程S5
琥珀種別判別工程S5(以下、「S5」と称することがある。)は、S4で琥珀と判別された琥珀砕片が写る上部マスク画像の琥珀砕片領域の画素(琥珀画素)を対象に、黄琥珀、茶琥珀および黒琥珀からなる琥珀種別の各琥珀への帰属度を算出し、帰属度が最も高い琥珀種別に琥珀砕片を判別する工程である。図4に、S5の一実施形態を説明するフローチャートを示す。図4に示すように、琥珀種別判別工程S5は、R成分近似度算出工程S51と、H成分近似度算出工程S52と、帰属度算出工程S53と、判別処理工程S54と、を含むことが好ましい。
1.5. Amber type determination step S5
The amber type determination step S5 (hereinafter, may be referred to as “S5”) targets the pixels (amber pixels) in the amber fragment region of the upper mask image in which the amber fragments determined to be amber in S4 are captured. This is a step of calculating the degree of attribution to each amber of the amber type consisting of tea amber and black amber, and discriminating the amber fragment to the amber type having the highest degree of attribution. FIG. 4 shows a flowchart illustrating one embodiment of S5. As shown in FIG. 4, the amber type discrimination step S5 preferably includes an R component approximation degree calculation step S51, an H component approximation degree calculation step S52, an attribution degree calculation step S53, and a discrimination processing step S54. ..
1.5.1.R成分近似度算出工程S51
R成分近似度算出工程S51(以下、「S51」と称することがある。)は、予め定めた黄琥珀、茶琥珀および黒琥珀のR成分の平均値ならびにS3で得られるR成分の平均値を用いてR成分の近似度を算出する工程である。
予め定めた黄琥珀、茶琥珀および黒琥珀のR成分の平均値をμa、対象画像における琥珀砕片領域のR成分の平均値をμbとし、これら2つの平均値から以下の式(7)を用いることで、近似度α(0〜1.0)を算出する。
1.5.1. R component approximation degree calculation step S51
In the R component approximation degree calculation step S51 (hereinafter, may be referred to as “S51”), a predetermined average value of the R components of yellow amber, brown amber and black amber and an average value of the R component obtained in S3 are obtained. This is a step of calculating the degree of approximation of the R component using the product.
The average value of the R components of the predetermined yellow amber, brown amber and black amber is μ a , and the average value of the R component of the amber fragment region in the target image is μ b . From these two average values, the following equation (7) The degree of approximation α (0 to 1.0) is calculated by using.
式(7)において、Aは予め定めたR成分の平均値(A=μa)、Bは対象画像における琥珀砕片領域のR成分の平均値(B=μb)、Cは許容範囲誤差である。予め定めたR成分の平均値(A=μa)は、対照区(コントロール)として信頼に足る数の黄琥珀、茶琥珀および黒琥珀の琥珀砕片群を対象として、上記S1〜S51を行い、算出される数値とすることができる。 In the formula (7), A is the average value of the R component (A = μ a ) determined in advance, B is the average value of the R component of the amber fragment region in the target image (B = μ b ), and C is the allowable range error. be. For the predetermined average value (A = μ a ) of the R component, perform the above S1 to S51 for a reliable number of yellow amber, brown amber and black amber shards as a control group (control). It can be a calculated value.
1.5.2.H成分近似度算出工程S52
H成分近似度算出工程S52(以下、「S52」と称することがある。)は、予め定めた黄琥珀、茶琥珀および黒琥珀のH成分の最頻値ならびにS3で得られるH成分の最頻値を用いてH成分の近似度を算出する工程である。
1.5.2. H component approximation degree calculation step S52
In the H component approximation degree calculation step S52 (hereinafter, may be referred to as “S52”), the mode of the H component of yellow amber, tea amber and black amber determined in advance and the mode of the H component obtained in S3 are the most frequent. This is a step of calculating the degree of approximation of the H component using the value.
予め定めた黄琥珀、茶琥珀および黒琥珀のH成分の最頻値ならびにS3で得られるH成分の最頻値を用いてH成分の近似度を算出する工程である。予め定めた黄琥珀、茶琥珀および黒琥珀のH成分の最頻値をma、対象画像における琥珀砕片領域のH成分の最頻値をmbとし、これら2つの最頻値から以下の式(8)を用いて、近似度β(0〜1.0)を算出する。 This is a step of calculating the degree of approximation of the H component using the mode of the H component of yellow amber, brown amber and black amber determined in advance and the mode value of the H component obtained in S3. Predetermined yellow amber, the mode of the H component of tea amber and black amber m a, the mode of the H component of succinic debris area in the target image and m b, the following equation from these two most frequent The degree of approximation β (0 to 1.0) is calculated using (8).
式(8)において、Aは、予め定めたH成分の最頻値(A=ma)、Bは対象画像の琥珀砕片領域のH成分の最頻値(B=mb)、Cは許容範囲誤差である。予め定めたH成分の最頻値(B=mb)は、対照区(コントロール)として信頼に足る数の黄琥珀、茶琥珀および黒琥珀の琥珀砕片群を対象として、上記S1〜S52を行い、算出される数値とすることができる。 In the formula (8), A is the most frequent value of a predetermined H component (A = m a), B is the H component amber debris area of the target image mode value (B = m b), C is acceptable It is a range error. Predetermined H component of the mode (B = m b) is yellow amber numbers reliable as control group (control), as a target amber debris group tea amber and black amber, perform the above S1~S52 , Can be a calculated value.
1.5.3.帰属度算出工程S53
帰属度算出工程S53(以下、「S53」と称することがある。)は、S51で得られるR成分の近似度およびS52で得られるH成分の近似度に基づいて、琥珀砕片領域の画素(琥珀画素)の黄琥珀、茶琥珀および黒琥珀への帰属度を算出する工程である。具体的には、S51で算出した近似度αおよびS52で算出した近似度βから、黄琥珀、茶琥珀、黒琥珀への帰属度γ(0〜1.0)を、以下の式(9)式を用いて算出することができる。
1.5.3. Attribution calculation step S53
In the attribution calculation step S53 (hereinafter, may be referred to as “S53”), the pixels of the amber fragment region (amber) are based on the degree of approximation of the R component obtained in S51 and the degree of approximation of the H component obtained in S52. This is a step of calculating the degree of attribution of (pixels) to yellow amber, brown amber, and black amber. Specifically, from the approximation degree α calculated in S51 and the approximation degree β calculated in S52, the degree of attribution γ (0 to 1.0) to yellow amber, brown amber, and black amber is calculated by the following equation (9). It can be calculated using the formula.
1.5.4.判別処理工程S54
判別処理工程S54(以下、「S54」と称することがある。)は、帰属度が最も高い琥珀の種別に、琥珀砕片を判別する工程である。S53で算出した各琥珀への帰属度を比較し、最大の値を有する琥珀種別に琥珀砕片を判別する。例えば、S53において以下の表1のような結果が得られた場合には、琥珀砕片の種別を黄琥珀に判別する。
1.5.4. Discrimination processing step S54
The discrimination processing step S54 (hereinafter, may be referred to as “S54”) is a step of discriminating amber fragments according to the type of amber having the highest degree of attribution. The degree of attribution to each amber calculated in S53 is compared, and amber fragments are discriminated according to the amber type having the maximum value. For example, when the results shown in Table 1 below are obtained in S53, the type of amber fragment is determined to be yellow amber.
1.6.黄琥珀透明度推定工程S6
黄琥珀透明度推定工程S6(以下、「S6」と称することがある。)は、S5で黄琥珀と判別された琥珀砕片の透明度を、ファジィ推論を用いて推定する工程である。ファジィ推論はあいまいさを考慮した推論方法であるため、階調の変化が不定である琥珀の透明度推定に有用であると考えられる。図5に、S6の一実施形態を説明するフローチャートを示す。図5に示すように、黄琥珀透明度推定工程S6は、下部カラー画像取得工程S61と、下部マスク画像作成工程S62と、下部マスク画像解析工程S63と、適合度算出工程S64と、作図工程S65と、透明度算出工程S66と、を含むことが好ましい。
1.6. Yellow amber transparency estimation step S6
The yellow amber transparency estimation step S6 (hereinafter, may be referred to as “S6”) is a step of estimating the transparency of the amber fragment determined to be yellow amber in S5 by using fuzzy inference. Since fuzzy inference is an inference method that takes ambiguity into consideration, it is considered to be useful for estimating the transparency of amber in which the change in gradation is indefinite. FIG. 5 shows a flowchart illustrating one embodiment of S6. As shown in FIG. 5, the yellow amber transparency estimation step S6 includes a lower color image acquisition step S61, a lower mask image creation step S62, a lower mask image analysis step S63, a conformity calculation step S64, and a drawing step S65. It is preferable to include the transparency calculation step S66.
1.6.1.下部カラー画像取得工程S61
下部カラー画像取得工程S61(以下、「S61」と称することがある。)は、S5で黄琥珀と判別された琥珀砕片に下方から光を照射し、下部カラー画像を取得する工程である。図6に、S61の様子を模式的に示す。図6に示すように、水平面に静置された琥珀砕片1に対して、琥珀砕片1よりも鉛直方向(紙面上下方向)の下側に配置された光源2から琥珀砕片1に向けて光が照射される。この状態で、琥珀砕片1よりも鉛直方向の下側に配置された撮像手段3により撮影を行うことにより、下部カラー画像を取得する。水平面を形成する部材は、水平面を有し、琥珀砕片を静置可能であることを要し、水平面の下部から琥珀砕片1の下部カラー画像を取得可能とするため、透光性を有することを要し、透明または半透明で光を透過する部材であることが好ましい。光源2および撮像手段3は、配置が異なる点を除き、S1と同一のものと使用することができる。画像全体が暗くなることを防止する観点から、琥珀砕片表面における照度は、500lx以上であることが好ましい。一方、白飛びの量が増えることを防止する観点から、1000lx以下であることが好ましい。S61では、水平面を形成する部材が透光性を有し、該部材を透過する光を利用して撮影を行うため、S1よりも白飛びが発生し易い。そのため、S61における好ましい照度の上限値は、S1における好ましい照度の上限値よりも低く設定されている。
16.1. Lower color image acquisition process S61
The lower color image acquisition step S61 (hereinafter, may be referred to as “S61”) is a step of irradiating the amber fragment determined to be yellow amber in S5 with light from below to acquire a lower color image. FIG. 6 schematically shows the state of S61. As shown in FIG. 6, light is emitted from the
1.6.2.下部マスク画像作成工程S62
下部マスク画像作成工程S62(以下、「S62」と称することがある。)は、S61で得られる下部カラー画像にマスク処理を施し、下部マスク画像を作成する工程である。下部カラー画像に施すマスク処理の方法は、上述したS11〜14で上部カラー画像に施す処理と同様とすることができ、ここでは説明を省略する。
16.2. Lower mask image creation step S62
The lower mask image creating step S62 (hereinafter, may be referred to as “S62”) is a step of applying mask processing to the lower color image obtained in S61 to create a lower mask image. The method of mask processing applied to the lower color image can be the same as the process applied to the upper color image in S11 to 14 described above, and description thereof will be omitted here.
1.6.3.下部マスク画像解析工程S63
下部マスク画像解析工程S63(以下、「S63」と称することがある。)は、S62で得られる下部マスク画像を解析し、下部マスク画像における琥珀砕片領域の画素(琥珀画素)のRGB成分の情報を取得する工程である。下部マスク画像における琥珀画素のRGB成分の情報を取得する方法は、上述したS3で上部マスク画像における琥珀画素のRGB成分の情報を取得する方法と同様とすることができ、ここでは説明を省略する。
1.6.3. Lower mask image analysis step S63
The lower mask image analysis step S63 (hereinafter, may be referred to as “S63”) analyzes the lower mask image obtained in S62, and provides information on the RGB component of the pixels (amber pixels) in the amber fragment region in the lower mask image. Is the process of acquiring. The method of acquiring the RGB component information of the amber pixel in the lower mask image can be the same as the method of acquiring the RGB component information of the amber pixel in the upper mask image in S3 described above, and the description thereof is omitted here. ..
1.6.4.適合度算出工程S64
適合度算出工程S64(以下、「S64」と称することがある。)は、S63で得られるR成分の平均値およびB成分の平均値に基づき、予め定めた黄琥珀のG成分の平均値およびB成分の平均値を基準として、予め定めた複数の規則からなる推論規則の各規則への適合度を、前件部メンバーシップ関数を用いて算出する工程である。
1.6.4. Goodness of fit calculation process S64
The goodness-of-fit calculation step S64 (hereinafter, may be referred to as “S64”) is based on the average value of the R component and the average value of the B component obtained in S63, and a predetermined average value of the G component of yellow amber and the average value of the G component. This is a step of calculating the goodness of fit of an inference rule consisting of a plurality of predetermined rules to each rule by using the membership function of the preceding part, based on the average value of the B component.
S64において予め定める推論規則の一例を表2に示す。 Table 2 shows an example of the inference rule predetermined in S64.
S64では、まず対象画像のG成分およびB成分が推論規則における前件部1および前件部2にどれほど帰属しているかをグレードとして算出し、あいまいな命題を定量化する。具体的には、前件部1において、“G成分の平均値が低い”という命題をG1、“G成分の平均値が高い”という命題をG2とし、それぞれのグレードを算出する。次に、前件部2においても前件部1と同様に、“B成分の平均値が低い”という命題をB1、“B成分の平均値が高い”という命題をB2としてグレードを算出する。
In S64, first, how much the G component and the B component of the target image belong to the
前件部メンバーシップ関数は、例えば、図7に示す階段関数とすることができる。なお、図7において、xは対象画像における琥珀砕片領域のG成分およびB成分の平均値、Aは予め定めた透明な黄琥珀におけるG成分およびB成分の平均値、Bは予め定めた不透明な黄琥珀におけるG成分およびB成分の平均値である。予め定めた透明な黄琥珀におけるG成分およびB成分の平均値、ならびに、予め定めた不透明な黄琥珀におけるG成分およびB成分の平均値は、対照区(コントロール)として信頼に足る数の黄琥珀、茶琥珀および黒琥珀の琥珀砕片群を対象として、上記S61〜S63を行い、算出される数値とすることができる。 The antecedent membership function can be, for example, the step function shown in FIG. In FIG. 7, x is the average value of the G component and the B component of the amber fragment region in the target image, A is the average value of the G component and the B component in the predetermined transparent yellow amber, and B is the predetermined opaque value. It is an average value of G component and B component in yellow amber. The average value of G component and B component in the predetermined transparent yellow amber and the average value of G component and B component in the predetermined opaque amber are the reliable number of yellow amber as a control group (control). , Tea amber and black amber crushed pieces of amber can be subjected to the above steps S61 to S63 to obtain a calculated numerical value.
次に、以下の式(10)に示すファジィ論理積を用いて、前件部メンバーシップ関数で求めた前件部1および前件部2のグレードから各規則への適合度δi(i=1〜4)を算出する。
Next, using the fuzzy logical product shown in the following equation (10), the goodness of fit to each rule from the grades of the
S64における前件部1および前件部2のグレードの算出例を表3に、各規則への適合度の算出例を表4にそれぞれ示す。
Table 3 shows an example of calculating the grades of the
1.6.5.作図工程S65
作図工程S65(以下、「S65」と称することがある。)は、S64で得られる各規則への適合度と、後件部メンバーシップ関数とのファジィ論理積から、推論結果である図形を作成する工程である。本工程で用いることができる後件部メンバーシップ関数の一例を図8に示す。また、表4に示す規則δi(i=1〜4)への適合度と、図8に示す後件部メンバーシップ関数とのファジィ論理積から推論結果εi(i=1〜4)として作成される図形を図9に示す。
1.6.5. Drawing process S65
The drawing process S65 (hereinafter, may be referred to as “S65”) creates a figure which is an inference result from the goodness of fit to each rule obtained in S64 and the fuzzy logical product of the consequent membership function. It is a process to do. FIG. 8 shows an example of the consequent membership function that can be used in this step. Further, the inference result ε i (i = 1 to 4) is obtained from the fuzzy logical product of the goodness of fit to the rule δ i (i = 1 to 4) shown in Table 4 and the consequent part membership function shown in FIG. The figure to be created is shown in FIG.
1.6.6.透明度算出工程S66
透明度算出工程S66(以下、「S66」と称することがある。)は、Mamdaniの推論法を用いて非ファジィ化を行い、S66で作成した図形の重心を求め、最終推論結果として琥珀砕片の透明度を算出する工程である。
Mamdaniの推論法に用いられる式を以下の式(11)に示す。
1.6.6. Transparency calculation step S66
In the transparency calculation step S66 (hereinafter, may be referred to as “S66”), non-fuzzying is performed using the reasoning method of Mamdani, the center of gravity of the figure created in S66 is obtained, and the transparency of the amber fragment is obtained as the final reasoning result. Is the process of calculating.
The equation used in Mamdani's inference method is shown in the following equation (11).
2.琥珀砕片の種別および透明度の推定装置
図11は、本発明の第2の態様に係る琥珀砕片の種別および透明度の推定装置の一実施形態に係る推定装置100を説明する図である。図11を参照しつつ、推定装置100について、以下に説明する。
図11に示すように、推定装置100は、上部カラー画像取得部10と、上部マスク画像作成部20と、上部マスク画像解析部30と、外皮物・琥珀判別部40と、琥珀種別判別部50と、黄琥珀透明度推定部60と、を備えている。推定装置100は、上記本発明の第1の態様に係る推定方法を実施可能な装置である。
2. Amber Fragment Type and Transparency Estimating Device FIG. 11 is a diagram illustrating an
As shown in FIG. 11, the
2.1.上部カラー画像取得部10
上部カラー画像取得部10は、上記S1が行われる部位であり、図1に例示したように、琥珀砕片1を静置可能な水平面と、水平面に静置された琥珀砕片1に上方から光を照射可能な光源2と、撮像手段3と、を有し、琥珀砕片の上部カラー画像を取得可能な部位である。上部カラー画像取得部10において上記S1が行われ、取得された上部カラー画像に関する情報は、上部マスク画像作成部20に送られる。
2.1. Upper color
The upper color
2.2.上部マスク画像作成部20
上部マスク画像作成部20は、上記S2が行われる部位であり、上部カラー画像取得部10から送られる上部カラー画像に関する情報を基に、上部カラー画像にマスク処理を施し、上部マスク画像を作成する部位である。上部マスク画像作成部20において上記S2が行われ、作成された上部マスク画像に関する情報は、上部マスク画像解析部30に送られる。
2.2. Upper mask
The upper mask
図11に表れているように、上部マスク画像作成部20は、グレースケール化部21と、二値化部22と、補完・ノイズ除去部23と、反転処理部24と、を有し、上部カラー画像は上部マスク画像作成部20〜反転処理部24によるマスク処理を施されることが好ましい。
As shown in FIG. 11, the upper mask
2.2.1.グレースケール化部21
グレースケール化部21は、上記S21が行われる部位であり、上部カラー画像取得部10から送られる上部カラー画像に関する情報を基に、上部カラー画像をグレースケール化し、グレースケール画像を作成する部位である。グレースケール化部21において上記S21が行われ、作成されたグレースケール画像に関する情報は、二値化部22に送られる。
2.2.1.
The
2.2.2.二値化部22
二値化部22は、上記S22が行われる部位であり、グレースケール化部から送られるグレースケール画像に関する情報を基に、グレースケール画像を二値化し、二値画像を作成する部位である。二値化部22において上記S22が行われ、作成された二値画像に関する情報は、補完・ノイズ除去部23に送られる。
2.2.2. Binarization unit 22
The binarization unit 22 is a portion where the above S22 is performed, and is a portion for binarizing the grayscale image and creating a binary image based on the information regarding the grayscale image sent from the grayscale conversion unit. The above S22 is performed in the binarization unit 22, and the information regarding the created binary image is sent to the complement /
2.2.3.補完・ノイズ除去部23
補完・ノイズ除去部23は、上記S23が行われる部位であり、二値化部22から送られるグレース二値画像に関する情報を基に、二値画像の補完およびノイズ除去を行う部位である。補完・ノイズ除去部23において上記S23が行われ、補完およびノイズ除去後の二値画像に関する情報は、反転処理部24に送られる。
2.2.3. Complementary /
The complement /
2.2.4.反転処理部24
反転処理部24は、上記S24が行われる部位であり、補完・ノイズ除去部23から送られる補完およびノイズ除去後の二値画像に関する情報を基に、補完およびノイズ除去後の二値画像に反転処理を施し、上部マスク画像を作成する部位である。反転処理部24において上記S24が行われ、作成された上部マスク画像に関する情報は、上部マスク画像解析部30に送られる。
2.2.4.
The
2.3.上部マスク画像解析部30
上部マスク画像解析部30は、上記S3が行われる部位であり、上部マスク画像作成部20から送られる上部マスク画像に関する情報を基に、上部マスク画像を解析し、上部マスク画像における琥珀画素のRGB成分およびHSV成分の情報を取得する部位である。上部マスク画像解析部30において上記S3が行われ、取得された上部マスク画像における琥珀画素のRGB成分およびHSV成分の情報は、外皮物・琥珀判別部40ならびに琥珀種別判別部50に送られる。
2.3. Upper mask
The upper mask
2.4.外皮物・琥珀判別部40
外皮物・琥珀判別部40は、上記S4が行われる部位であり、上部マスク画像解析部30から送られる上部マスク画像における琥珀画素のRGB成分およびHSV成分の情報を基に、R成分の平均値とV成分の平均値とが等しい(R=Vである)画素の割合、および、S成分の平均値から、外皮物と琥珀との判別を行う部位である。外皮物・琥珀判別部40において上記S4が行われ、外皮物と判別された場合には、対象画像に写る琥珀砕片が外皮物である旨の情報が推定結果表示部70に送られ、琥珀と判別された場合には、上部マスク画像に関する情報が琥珀種別判別部50に送られる。
2.4. Exodermis /
The outer skin /
2.5.琥珀種別判別部50
琥珀種別判別部50は、上記S5が行われる部位であり、外皮物・琥珀判別部40から送られる上部マスク画像に関する情報を基に、上部マスク画像の琥珀画素を対象に、黄琥珀、茶琥珀および黒琥珀からなる琥珀種別の各琥珀への帰属度を算出し、帰属度が最も高い琥珀種別に琥珀砕片を判別する部位である。琥珀種別判別部50において上記S5が行われ、茶琥珀または黒琥珀と判別された場合には、対象画像に写る琥珀砕片が茶琥珀または黒琥珀である旨の情報が推定結果表示部70に送られ、黄琥珀と判別された場合には、黄琥珀である旨の情報が黄琥珀透明度推定部60に送られる。
2.5. Amber
The amber
図11に表れているように、琥珀種別判別部50は、R成分近似度算出部51と、H成分近似度算出部52と、帰属度算出部53と、判別処理部54と、を有することが好ましい。
As shown in FIG. 11, the amber
2.5.1.R成分近似度算出部51
R成分近似度算出部51は、上記S51が行われる部位であり、予め定めた黄琥珀、茶琥珀および黒琥珀のR成分の平均値ならびに上部マスク画像解析部30から送られるR成分の平均値を用いてR成分の近似度を算出する部位である。R成分近似度算出部51において上記S51が行われ、算出されたR成分の近似度に関する情報が帰属度算出部53に送られる。
2.5.1. R component approximation
The R component approximation
2.5.2.H成分近似度算出部52
H成分近似度算出部52は、上記S52が行われる部位であり、予め定めた黄琥珀、茶琥珀および黒琥珀のH成分の最頻値ならびに上部マスク画像解析部30から送られるH成分の最頻値を用いてH成分の近似度を算出する部位である。H成分近似度算出部52において上記S52が行われ、算出されたH成分の近似度に関する情報が帰属度算出部53に送られる。
25.2. H component approximation
The H component approximation
2.5.3.帰属度算出部53
帰属度算出部53は、上記S53が行われる部位であり、R成分近似度算出部51から送られるR成分の近似度の情報およびH成分近似度算出部52から送られるH成分の近似度に基づいて、琥珀画素の黄琥珀、茶琥珀および黒琥珀への帰属度を算出する部位である。帰属度算出部53において上記S53が行われ、算出された各琥珀への帰属度に関する情報が判別処理部54に送られる。
2.5.3.
The
2.5.4.判別処理部54
判別処理部54は、上記S54が行われる部位であり、帰属度算出部53から送られる各琥珀への帰属度に関する情報に基づき、帰属度が最も高い琥珀の種別に、琥珀砕片を判別する部位である。判別処理部54において上記S54が行われ、茶琥珀または黒琥珀と判別された場合には、対象画像に写る琥珀砕片が茶琥珀または黒琥珀である旨の情報が推定結果表示部70に送られ、黄琥珀と判別された場合には、黄琥珀である旨の情報が黄琥珀透明度推定部60に送られる。
2.5.4.
The
2.6.黄琥珀透明度推定部60
黄琥珀透明度推定部60は、上記S54が行われる部位であり、琥珀種別判別部50で黄琥珀と判別された琥珀砕片の透明度を、ファジィ推論を用いて推定する部位である。黄琥珀透明度推定部60においてS6が行われ、琥珀砕片の透明度が算出される。
2.6. Yellow amber
The yellow amber
図11に表れているように、黄琥珀透明度推定部60は、下部カラー画像取得部61と、下部マスク画像作成部62と、下部マスク画像解析部63と、適合度算出部64と、作図部65と、透明度算出部66と、を含むことが好ましい。
As shown in FIG. 11, the yellow amber
2.6.1.下部カラー画像取得部61
下部カラー画像取得部61は、上記S61が行われる部位であり、図6に例示したように、琥珀砕片1を静置可能な水平面と、水平面に静置された琥珀砕片1に上方から光を照射可能な光源2と、撮像手段3と、を有し、琥珀砕片の下部カラー画像を取得可能な部位である。下部カラー画像取得部61において上記S61が行われ、取得された下部カラー画像に関する情報は、下部マスク画像作成部62に送られる。
2.6.1. Lower color
The lower color
2.6.2.下部マスク画像作成部62
下部マスク画像作成部62は、上記S62が行われる部位であり、下部カラー画像取得部61から送られる下部カラー画像に関する情報を基に、下部カラー画像にマスク処理を施し、下部マスク画像を作成する部位である。下部マスク画像作成部62において上記S62が行われ、作成された下部マスク画像に関する情報は、下部マスク画像解析部63に送られる。
2.6.2. Lower mask
The lower mask
2.6.3.下部マスク画像解析部63
下部マスク画像解析部63は、上記S63が行われる部位であり、下部マスク画像作成部62から送られる下部マスク画像に関する情報を基に、下部マスク画像を解析し、下部マスク画像における琥珀画素のRGB成分の情報を取得する部位である。下部マスク画像解析部63において上記S63が行われ、取得された下部マスク画像における琥珀画素のRGB成分に関する情報は、適合度算出部64に送られる。
2.6.3. Lower mask
The lower mask
2.6.4.適合度算出部64
適合度算出部64は、上記S64が行われる部位であり、下部マスク画像解析部63から送られる下部マスク画像における琥珀画素のRGB成分に関する情報を基に、R成分の平均値およびB成分の平均値に基づき、予め定めた黄琥珀のG成分の平均値およびB成分の平均値を基準として、予め定めた複数の規則からなる推論規則の各規則への適合度を、前件部メンバーシップ関数を用いて算出する部位である。適合度算出部64において上記S64が行われ、算出された各規則への適合度に関する情報は、作図部65に送られる。
2.6.4. Goodness of
The
2.6.5.作図部65
作図部65は、上記S65が行われる部位であり、適合度算出部64から送られる各規則への適合度に関する情報を基に、各規則への適合度と、後件部メンバーシップ関数とのファジィ論理積から、推論結果である図形を作成する部位である。作図部65において上記S65が行われ、作成される図形に関する情報は、透明度算出部66に送られる。
2.6.5.
The
2.6.6.透明度算出部66
透明度算出部66は、上記S66が行われる部位であり、作図部65から送られる図形に関する情報を基に、Mamdaniの推論法を用いて非ファジィ化を行い、S66で作成した図形の重心を求め、最終推論結果として琥珀砕片の透明度を算出する部位である。透明度算出部66において上記S66が行われ、最終推論結果として算出される琥珀砕片の透明度に関する情報は、推定結果表示部70に送られる。
2.6.6.
The
2.7.推定結果表示部70
推定結果表示部70は、外皮物・琥珀判別部40、琥珀種別判別部50または黄琥珀透明度推定部60から送られる推定結果に関する情報を受信し、該推定結果に関する情報に基づき、表示装置に表示するためのデータを生成し、表示装置に表示する部位である。図11には、推定結果表示部70が推定装置100とは別に設けられる形態を例示したが、推定装置100が推定結果表示部70を備える形態であってもよい。
2.7. Estimated
The estimation
3.琥珀砕片の種別および透明度の推定プログラム
本発明は、推定プログラムとしての側面も有する。即ち、本発明の第3の態様は、上記S1〜S6をコンピュータに実行させるための、琥珀砕片の種別および透明度の推定プログラムである。コンピュータが備えるCPU(中央演算子)等のプロセッサに、本発明の第3の態様に係る推定プログラムを実行させることにより、出力結果として琥珀砕片の種別および透明度に関する情報を取得することが可能となる。
3. 3. Amber fragment type and transparency estimation program The present invention also has an aspect as an estimation program. That is, the third aspect of the present invention is a program for estimating the type and transparency of amber fragments for causing a computer to execute the above S1 to S6. By causing a processor such as a CPU (central processor) included in the computer to execute the estimation program according to the third aspect of the present invention, it is possible to acquire information on the type and transparency of the amber fragment as an output result. ..
以下、実施例により、本発明についてさらに詳細に説明するが、本発明は以下の具体的形態に限定されるものではない。 Hereinafter, the present invention will be described in more detail with reference to Examples, but the present invention is not limited to the following specific embodiments.
<琥珀種別判別試験>
予め従来の方法である目視により判別した黄琥箔70個、茶琥珀40個、黒琥珀40個および外皮物35個からなる計185個の琥珀砕片を対象に、本発明の推定方法を適用し、琥珀種別の判別が可能か否か検証した。
<Amber type discrimination test>
The estimation method of the present invention is applied to a total of 185 amber fragments consisting of 70 yellow amber foils, 40 brown ambers, 40 black ambers and 35 exodermis, which are visually determined by a conventional method in advance. , It was verified whether it is possible to distinguish the amber type.
(上部カラー画像取得処理)
可視領域カメラ(Canon EOS7D 5184×3456画素;RGB各256階調)を用いて、暗室内で各琥珀砕片の上部カラー画像を取得した。台上に白画用紙を載せて形成した水平面上に琥珀砕片を静置し、水平面から高さ55cmの位置に可視領域カメラを設置した。各琥珀種別の上部カラー画像取得時の照度を表7に示す。
(Upper color image acquisition process)
An upper color image of each amber fragment was acquired in a dark room using a visible region camera (Canon EOS 7D 5184 × 3456 pixels; 256 gradations of RGB each). Amber fragments were placed statically on a horizontal plane formed by placing white drawing paper on a table, and a visible region camera was installed at a height of 55 cm from the horizontal plane. Table 7 shows the illuminance at the time of acquiring the upper color image of each amber type.
(上部マスク画像作成処理)
取得した各琥珀砕片の上部カラー画像にグレースケール化、二値化、補完・ノイズ除去および画素の反転の処理を施し、各琥珀砕片の上部マスク画像を作成した。二値化における閾値を、上記式(3)を用いて自動で設定し、オープニング処理およびクロージング処理を、10回ずつ施した。
(Upper mask image creation process)
The upper color image of each of the acquired amber fragments was subjected to grayscale, binarization, complementation / noise removal, and pixel inversion processing to create an upper mask image of each amber fragment. The threshold value in binarization was automatically set using the above equation (3), and the opening process and the closing process were performed 10 times each.
(上部マスク画像解析処理)
作成した上部マスク画像に存在する琥珀砕片領域の画素(琥珀画素)を抽出した。なお、RGB成分の閾値を240とし、画素(x,y)におけるRGB成分が全て閾値以上の場合、その画素は白飛びにより色情報を失っているものと仮定し、背景部同様に解析対象外とした。抽出した琥珀画素のRGB成分を基に、R成分ヒストグラム、G成分ヒストグラム、およびB成分ヒストグラムを算出し、RGBヒストグラムを基に、平均値、分散値、および最頻値を算出し、これらを特徴量として取得した。取得したRGB成分からHSV成分への変換を行い、H成分ヒストグラム、S成分ヒストグラム、およびV成分ヒストグラムをそれぞれ算出し、HSVヒストグラムを基に、平均値 、分散値、および最頻値を算出し、これらを特徴量として取得した。
(Upper mask image analysis processing)
The pixels (amber pixels) of the amber fragment region existing in the created upper mask image were extracted. The threshold value of the RGB component is set to 240, and when all the RGB components in the pixels (x, y) are equal to or higher than the threshold value, it is assumed that the pixel loses color information due to overexposure, and it is not subject to analysis like the background part. And said. Based on the RGB components of the extracted amber pixels, the R component histogram, G component histogram, and B component histogram are calculated, and the average value, variance value, and mode value are calculated based on the RGB histogram, and these are the features. Obtained as a quantity. The acquired RGB component is converted to the HSV component, the H component histogram, the S component histogram, and the V component histogram are calculated respectively, and the average value, the variance value, and the mode value are calculated based on the HSV histogram. These were acquired as feature quantities.
(外皮物・琥珀判別処理)
各琥珀砕片の上部マスク画像の解析結果から、琥珀画素においてR=V、すなわちMAX(R,G,B)=Rとなる画素の割合、および、S成分の平均値を算出した。R=Vとなる割合の閾値を75%、S成分の平均値の閾値を32.9とし、R=Vとなる割合が75%未満、且つ、S成分の平均値が32.9未満の場合を外皮物、それ以外の場合を琥珀と判別した。
(Exodermis / amber discrimination processing)
From the analysis result of the upper mask image of each amber fragment, the ratio of pixels in which R = V, that is, MAX (R, G, B) = R in the amber pixels, and the average value of the S component were calculated. When the threshold value of the ratio of R = V is 75%, the threshold value of the average value of the S component is 32.9, the ratio of R = V is less than 75%, and the average value of the S component is less than 32.9. Was identified as an exodermis, and in other cases it was identified as amber.
(琥珀種別判別)
琥珀と判別された琥珀砕片が写る上部マスク画像における琥珀砕片領域のR成分およびH成分を基に、黄琥珀、茶琥珀および黒琥珀への帰属度を算出し、琥珀砕片の琥珀種別を判別した。具体的には、琥珀と判別された琥珀砕片が写る上部マスク画像における琥珀砕片領域のR成分の平均値と予め定めた各琥珀種別におけるR成分の平均値とからR成分の近似度を算出し、琥珀と判別された対象画像の琥珀砕片領域のH成分の最頻値と予め定めた各琥珀種別におけるH成分の最頻値とからH成分の近似度を算出し、R成分の近似度とH成分の近似度に基づいて帰属度を算出し、帰属度が最も高い琥珀に琥珀砕片を判別した。R成分の近似度の算出に用いた予め定めた各琥珀種別におけるR成分の平均値μaおよび誤差許容範囲Cの値を以下の表5に、H成分の近似度の算出に用いた予め定めた各琥珀種別におけるH成分の最頻値maおよび誤差許容範囲Cの値を以下の表6に、それぞれ示す。また、判別結果を表7に示す。
(Amber type discrimination)
Based on the R and H components of the amber fragment region in the upper mask image showing the amber fragment identified as amber, the degree of attribution to yellow amber, brown amber and black amber was calculated, and the amber type of the amber fragment was determined. .. Specifically, the degree of approximation of the R component is calculated from the average value of the R component in the amber fragment region in the upper mask image showing the amber fragment determined to be amber and the average value of the R component in each predetermined amber type. , The mode of the H component in the amber fragment region of the target image determined to be amber and the mode of the H component in each predetermined amber type are calculated, and the degree of approximation of the H component is calculated as the degree of approximation of the R component. The degree of attribution was calculated based on the degree of approximation of the H component, and amber fragments were discriminated from the amber having the highest degree of attribution. The values of the average value μ a of the R component and the value of the error tolerance C in each of the predetermined amber types used for calculating the degree of approximation of the R component are determined in advance used for calculating the degree of approximation of the H component in Table 5 below. and the value of the mode value m a and the error tolerance range C of the H component in each succinic type in Table 6 below, respectively. The discrimination results are shown in Table 7.
[結果]
表7に示したように、185枚の画像に写る琥珀砕片185個中167個(90.3%)の判別に成功した。特に黄琥珀において、70個中70個(100%)の判別に成功した。一方、外皮物の判別においては、35枚中20枚(57.1%)と黄琥珀、茶琥珀および黒琥珀よりも判別精度が低かった。これは、露出した琥珀の色情報に起因し、R=Vの割合およびS成分の平均値が高くなったためと考える。なお、対象画像1枚あたりの処理時間を計測した結果、平均処理時間は約53msであった。
[result]
As shown in Table 7, 167 out of 185 amber fragments (90.3%) appearing in 185 images were successfully identified. Especially in yellow amber, 70 out of 70 (100%) were successfully discriminated. On the other hand, in the discrimination of exodermis, 20 out of 35 (57.1%) were lower in discrimination accuracy than yellow amber, brown amber and black amber. It is considered that this is because the ratio of R = V and the average value of the S component became high due to the color information of the exposed amber. As a result of measuring the processing time per target image, the average processing time was about 53 ms.
2.黄琥珀透明度推定試験
琥珀種別判別試験で用いた黄琥珀の琥珀砕片70個を対象に、本発明の推定方法を適用し、黄琥珀の透明度の推定精度を検証した。なお、予め従来の方法である目視による判別により、琥珀砕片70個のうち50個が透明な黄琥珀、20個が不透明な黄琥珀に判別されている。
2. Yellow Amber Transparency Estimation Test The estimation method of the present invention was applied to 70 pieces of yellow amber used in the amber type discrimination test, and the estimation accuracy of the transparency of yellow amber was verified. It should be noted that, of the 70 pieces of amber crushed pieces, 50 pieces are classified as transparent yellow amber and 20 pieces are classified as opaque yellow amber by visual discrimination which is a conventional method in advance.
(下部カラー画像取得処理)
琥珀種別判別試験における上部カラー画像取得処理で用いた可視領域カメラを水平面よりも下側に設置し、水平面を透明樹脂板により形成した以外は、上部カラー画像取得処理と同様に下部カラー画像を取得した。
(Lower color image acquisition process)
The lower color image is acquired in the same way as the upper color image acquisition process, except that the visible region camera used in the upper color image acquisition process in the amber type discrimination test is installed below the horizontal plane and the horizontal plane is formed of a transparent resin plate. did.
(下部マスク画像作成処理)
取得した各琥珀砕片の下部カラー画像に、琥珀種別判別試験における上部マスク画像作成処理と同様の処理を施し、下部マスク画像を作成した。
(Lower mask image creation process)
The lower color image of each of the acquired amber fragments was subjected to the same processing as the upper mask image creation process in the amber type discrimination test to create a lower mask image.
(下部マスク画像解析処理)
作成した各琥珀砕片の下部マスク画像に対し、琥珀種別判別試験における上部マスク画像解析処理と同様の処理を施し、下部マスク画像における琥珀画素のRGB成分の情報を取得した。
(Lower mask image analysis processing)
The lower mask image of each of the prepared amber fragments was subjected to the same processing as the upper mask image analysis processing in the amber type discrimination test, and the information of the RGB component of the amber pixel in the lower mask image was acquired.
(適合度算出処理)
表2に示した推論規則を採用し、下部マスク画像解析処理で得られたR成分の平均値およびB成分の平均値に基づき、予め定めた黄琥珀のG成分の平均値およびB成分の平均値を基準として、推論規則の各規則への適合度を算出した。予め定めた透明な黄琥珀におけるG成分およびB成分の平均値μc、ならびに、予め定めた透明な黄琥珀におけるG成分およびB成分の平均値μcを以下の表8に示す。
(Goodness of fit calculation process)
The inference rules shown in Table 2 are adopted, and based on the average value of the R component and the average value of the B component obtained by the lower mask image analysis process, the average value of the G component and the average of the B component of yellow amber are predetermined. The degree of conformity of the inference rule to each rule was calculated based on the value. Average value mu c of the G component and the B component in the predetermined transparent yellow amber, and indicates the average value mu c of the G component and the B component in the predetermined transparent yellow amber in Table 8 below.
(作図処理)
各規則への適合度と、後件部メンバーシップ関数とのファジィ論理積から、図9に例示したような推論結果である図形を作成した。
(Drawing process)
From the goodness of fit to each rule and the fuzzy logical product of the consequent membership function, a figure which is an inference result as illustrated in FIG. 9 was created.
(透明度算出処理)
Mamdaniの推論法を用いて非ファジィ化を行い、作成された図形の重心を求め、最終推論結果として琥珀砕片の透明度を算出した。算出された透明度が70%以上であるものを透明な黄琥珀、それ以外を不透明な黄琥珀として判別した。判別結果を表9に示す。
(Transparency calculation process)
Non-fuzzy was performed using Mamdani's inference method, the center of gravity of the created figure was obtained, and the transparency of the amber fragment was calculated as the final inference result. Those having a calculated transparency of 70% or more were discriminated as transparent yellow amber, and those having a transparency of 70% or more were discriminated as opaque yellow amber. The discrimination results are shown in Table 9.
[結果]
表9に示したように、黄琥珀透明度推定法は対象画像70枚中57枚(81.4%)の判別に成功した。特に透明な黄琥珀において、50枚中45枚(90.0%)の判別に成功した。さらに、透明な黄琥珀における平均透明度は79.4%、不透明な黄琥珀における平均透明度は62.1%となっており、どちらも透明度の評価基準を満たしていた。一方、不透明な黄琥珀の透明度推定の中には、透明度を70%以上と誤判別する場合を認めた。これは、対象琥珀の厚さが薄く、光を透過しやすくなったため、G成分およびB成分の値が高くなったことに起因すると考えられる。なお、対象画像1枚あたりの処理時間を計測した結果、平均処理時間は約68msであった。
[result]
As shown in Table 9, the yellow amber transparency estimation method succeeded in discriminating 57 out of 70 target images (81.4%). Especially in the transparent yellow amber, 45 out of 50 sheets (90.0%) were successfully discriminated. Further, the average transparency of transparent yellow amber was 79.4%, and the average transparency of opaque yellow amber was 62.1%, both of which satisfied the evaluation criteria of transparency. On the other hand, in the estimation of the transparency of opaque yellow amber, there was a case where the transparency was erroneously determined to be 70% or more. It is considered that this is because the thickness of the target amber is thin and the light is easily transmitted, so that the values of the G component and the B component are high. As a result of measuring the processing time per target image, the average processing time was about 68 ms.
1 琥珀砕片
2 光源
3 撮像手段
10 上部カラー画像取得部
20 上部マスク画像作成部
21 グレースケール化部
22 二値化部
23 補完・ノイズ除去部
24 反転処理部
30 上部マスク画像解析部
40 外皮物・琥珀判別部
50 琥珀種別判別部
51 R成分近似度算出部
52 H成分近似度算出部
53 帰属度算出部
54 判別処理部
60 黄琥珀透明度推定部
61 下部カラー画像取得部
62 下部マスク画像作成部
63 下部マスク画像解析部
64 適合度算出部
65 作図部
66 透明度算出部
100 推定装置
1
Claims (9)
前記上部カラー画像にマスク処理を施し、上部マスク画像を作成する上部マスク画像作成工程と、
前記上部マスク画像を解析し、前記上部マスク画像における前記琥珀砕片領域の画素のRGB成分およびHSV成分の情報を取得する上部マスク画像解析工程と、
前記上部マスク画像解析工程で得られるR成分の平均値とV成分の平均値とが等しい画素の割合、および、S成分の平均値から、外皮物と琥珀との判別を行う外皮物・琥珀判別工程と、
前記外皮物・琥珀判別工程で琥珀と判別された前記琥珀砕片が写る前記上部マスク画像の前記琥珀砕片領域の画素を対象に、黄琥珀、茶琥珀および黒琥珀からなる琥珀種別の各琥珀への帰属度を算出し、前記帰属度が最も高い琥珀種別に前記琥珀砕片を判別する琥珀種別判別工程と、
前記琥珀種別判別工程で黄琥珀と判別された前記琥珀砕片の透明度を、ファジィ推論を用いて推定する黄琥珀透明度推定工程と、
を含む、琥珀砕片の種別および透明度の推定方法。 An upper color image acquisition process for acquiring an upper color image by irradiating amber fragments placed on a horizontal surface with light from above,
An upper mask image creation step of applying mask processing to the upper color image to create an upper mask image, and
An upper mask image analysis step of analyzing the upper mask image and acquiring information on RGB components and HSV components of the pixels of the amber fragment region in the upper mask image.
Distinguishing between exodermis and amber from the ratio of pixels in which the average value of the R component and the average value of the V component obtained in the upper mask image analysis step are equal to each other and the average value of the S component. Process and
Each amber type consisting of yellow amber, brown amber, and black amber is targeted at the pixels of the amber fragment region of the upper mask image in which the amber fragment identified as amber in the outer skin / amber discrimination step is captured. An amber type determination step of calculating the degree of attribution and determining the amber fragment as the amber type having the highest degree of attribution,
An amber transparency estimation step of estimating the transparency of the amber fragment determined to be yellow amber in the amber type determination step using fuzzy inference, and a yellow amber transparency estimation step.
A method for estimating the type and transparency of amber fragments, including.
前記上部カラー画像をグレースケール化し、グレースケール画像を得るグレースケール化工程と、
前記グレースケール画像を二値化し、二値画像を得る二値化工程と、
前記二値画像の補完およびノイズ除去を行う補完・ノイズ除去工程と、
前記補完・ノイズ除去工程で得られる二値画像に反転処理を施す反転処理工程と、
を含む、請求項1に記載の琥珀砕片の種別および透明度の推定方法。 The upper mask image creation process
A grayscale step of grayscale the upper color image to obtain a grayscale image, and
A binarization step of binarizing the grayscale image to obtain a binary image, and
Complementing / noise removing steps for complementing and removing noise from the binary image,
Inversion processing step of performing inversion processing on the binary image obtained in the complementation / noise removal step, and
The method for estimating the type and transparency of the amber fragment according to claim 1, which comprises.
予め定めた黄琥珀、茶琥珀および黒琥珀のR成分の平均値ならびに前記上部マスク画像解析工程で得られるR成分の平均値を用いてR成分の近似度を算出するR成分近似度算出工程と、
予め定めた黄琥珀、茶琥珀および黒琥珀のH成分の最頻値ならびに前記上部マスク画像解析工程で得られるH成分の最頻値を用いてH成分の近似度を算出するH成分近似度算出工程と、
前記R成分の近似度および前記H成分の近似度に基づいて、前記琥珀砕片領域の画素の黄琥珀、茶琥珀および黒琥珀への帰属度を算出する帰属度算出工程と、
前記帰属度が最も高い琥珀の種別に、前記琥珀砕片を判別する判別処理工程と、
を含む、請求項1または2に記載の琥珀砕片の種別および透明度の推定方法。 The amber type determination process
With the R component approximation degree calculation step of calculating the approximation degree of the R component using the predetermined average value of the R component of yellow amber, brown amber and black amber and the average value of the R component obtained in the upper mask image analysis step. ,
H component approximation degree calculation to calculate the approximation degree of H component using the mode value of H component of yellow amber, brown amber and black amber determined in advance and the mode value of H component obtained in the upper mask image analysis step. Process and
A degree of attribution calculation step of calculating the degree of attribution of the pixel of the amber fragment region to yellow amber, brown amber and black amber based on the degree of approximation of the R component and the degree of approximation of the H component.
A discrimination processing step for discriminating the amber fragments according to the type of amber having the highest degree of attribution, and
The method for estimating the type and transparency of amber shards according to claim 1 or 2, which comprises.
前記琥珀種別判別工程で黄琥珀と判別された前記琥珀砕片に下方から光を照射し、下部カラー画像を取得する下部カラー画像取得工程と、
前記下部カラー画像にマスク処理を施し、下部マスク画像を作成する下部マスク画像作成工程と、
前記下部マスク画像を解析し、前記下部マスク画像における前記琥珀砕片領域の画素のRGB成分の情報を取得する下部マスク画像解析工程と、
前記下部マスク画像解析工程で得られるG成分の平均値およびB成分の平均値に基づき、予め定めた黄琥珀のG成分の平均値およびB成分の平均値を基準として、予め定めた複数の規則からなる推論規則の前記各規則への適合度を、前件部メンバーシップ関数を用いて算出する適合度算出工程と、
前記各規則への適合度と後件部メンバーシップ関数とのファジィ論理積から、推論結果である図形を作成する作図工程と、
Mamdaniの推論法を用いて非ファジィ化を行い前記図形の重心を求め、最終推論結果として前記琥珀砕片の透明度を算出する透明度算出工程と、
を含む、請求項1〜3のいずれかに記載の琥珀砕片の種別および透明度の推定方法。 The yellow amber transparency estimation step
A lower color image acquisition step of irradiating the amber fragment determined to be yellow amber in the amber type determination step with light from below to acquire a lower color image, and a lower color image acquisition step.
A lower mask image creation step of applying mask processing to the lower color image to create a lower mask image,
A lower mask image analysis step of analyzing the lower mask image and acquiring information on the RGB component of the pixel of the amber fragment region in the lower mask image.
Based on the average value of the G component and the average value of the B component obtained in the lower mask image analysis step, a plurality of predetermined rules are set based on the average value of the G component and the average value of the B component of yellow amber. A goodness-of-fit calculation process for calculating the goodness of fit of an inference rule consisting of the above rules using the membership function of the preceding part, and
From the fuzzy logical product of the goodness of fit to each rule and the consequent membership function, the drawing process to create the figure that is the inference result, and
A transparency calculation step of performing non-fuzzying using Mamdani's inference method to obtain the center of gravity of the figure, and calculating the transparency of the amber fragment as the final inference result.
The method for estimating the type and transparency of amber fragments according to any one of claims 1 to 3.
A1:G成分の平均値が低く、且つ、B成分の平均値が低い
A2:G成分の平均値が低く、且つ、B成分の平均値が高い
A3:G成分の平均値が高く、且つ、B成分の平均値が低い
A4:G成分の平均値が高く、且つ、B成分の平均値が高い
前記推論規則の後件部が、以下のB1〜B3からなり、
B1:透明度が低い
B2:透明度が高いまたは透明度が低い
B3:透明度が高い
前記推論規則が、以下のδ1〜δ4の規則からなる、
δ1:前件部がA1であれば、後件部はB1である
δ2:前件部がA2であれば、後件部はB2である
δ3:前件部がA3であれば、後件部はB2である
δ4:前件部がA4であれば、後件部はB3である
請求項4に記載の琥珀砕片の種別および透明度の推定方法。 The antecedent part of the inference rule consists of the following A1 to A4.
A1: The average value of the G component is low and the average value of the B component is low. A2: The average value of the G component is low and the average value of the B component is high. The average value of the B component is low A4: The average value of the G component is high and the average value of the B component is high.
B1: Low transparency B2: High transparency or low transparency B3: High transparency The inference rule consists of the following rules δ 1 to δ 4 .
δ 1 : If the antecedent part is A1, the consequent part is B1 δ 2 : If the antecedent part is A2, the consequent part is B2 δ 3 : If the antecedent part is A3, The consequent part is B2 δ 4 : If the antecedent part is A4, the consequent part is B3. The method for estimating the type and transparency of amber shards according to claim 4.
前記上部カラー画像にマスク処理を施し、上部マスク画像を作成する上部マスク画像作成部と、
前記上部マスク画像を解析し、前記上部マスク画像における前記琥珀砕片領域の画素のRGB成分およびHSV成分の情報を取得する上部マスク画像解析部と、
前記上部マスク画像解析部で得られR成分の平均値とV成分の平均値とが等しい画素の割合、および、S成分の平均値から、外皮物と琥珀との判別を行う外皮物・琥珀判別部と、
前記外皮物・琥珀判別部で琥珀と判別された前記琥珀砕片が写る前記上部マスク画像の前記琥珀砕片領域の画素を対象に、黄琥珀、茶琥珀および黒琥珀からなる琥珀種別の各琥珀への帰属度を算出し、前記帰属度が最も高い琥珀種別に前記琥珀砕片を判別する琥珀種別判別部と、
前記琥珀種別判別部で黄琥珀と判別された前記琥珀砕片の透明度を、ファジィ推論を用いて推定する黄琥珀透明度推定部と、
を備える、琥珀砕片の種別および透明度の推定装置。 It has a horizontal plane on which the amber shards can be placed, a light source capable of irradiating the amber shards on the horizontal plane with light from above, and an imaging means, and can acquire an upper color image of the amber shards. Upper color image acquisition section and
An upper mask image creation unit that creates an upper mask image by masking the upper color image,
An upper mask image analysis unit that analyzes the upper mask image and acquires information on RGB components and HSV components of pixels in the amber fragment region in the upper mask image.
Distinguishing between exodermis and amber from the ratio of pixels in which the average value of the R component and the average value of the V component are equal to each other obtained by the upper mask image analysis unit and the average value of the S component. Department and
Each amber type consisting of yellow amber, brown amber, and black amber is targeted at the pixels of the amber fragment region of the upper mask image in which the amber fragment determined to be amber by the outer skin / amber discrimination unit is captured. An amber type discriminating unit that calculates the degree of attribution and discriminates the amber fragment into the amber type having the highest degree of attribution,
An amber transparency estimation unit that estimates the transparency of the amber fragment determined to be yellow amber by the amber type determination unit using fuzzy inference, and a yellow amber transparency estimation unit.
A device for estimating the type and transparency of amber fragments.
前記上部カラー画像にマスク処理を施し、上部マスク画像を作成する工程と、
前記上部マスク画像を解析し、前記上部マスク画像における前記琥珀砕片領域の画素のRGB成分およびHSV成分の情報を取得する工程と、
前記上部マスク画像解析工程で得られるR成分の平均値とV成分の平均値とが等しい画素の割合、および、S成分の平均値から、外皮物と琥珀との判別を行う工程と、
前記外皮物・琥珀判別工程で琥珀と判別された前記琥珀砕片が写る前記上部マスク画像の前記琥珀砕片領域の画素を対象に、黄琥珀、茶琥珀および黒琥珀からなる琥珀種別の各琥珀への帰属度を算出し、前記帰属度が最も高い琥珀種別に前記琥珀砕片を判別する工程と、
前記琥珀種別判別工程で黄琥珀と判別された前記琥珀砕片の透明度を、ファジィ推論を用いて推定する工程と、
をコンピュータに実行させるための、琥珀砕片の種別および透明度の推定プログラム。 The process of irradiating amber fragments placed on a horizontal surface with light from above and acquiring an upper color image, and
The process of masking the upper color image to create the upper mask image, and
A step of analyzing the upper mask image and acquiring information on the RGB component and the HSV component of the pixel of the amber fragment region in the upper mask image.
A step of discriminating between the exodermis and amber from the ratio of pixels in which the average value of the R component and the average value of the V component obtained in the upper mask image analysis step are equal to each other and the average value of the S component.
Each amber type consisting of yellow amber, brown amber, and black amber is targeted at the pixels of the amber fragment region of the upper mask image in which the amber fragment identified as amber in the outer skin / amber discrimination step is captured. A step of calculating the degree of attribution and determining the amber fragment according to the amber type having the highest degree of attribution, and
A step of estimating the transparency of the amber fragment determined to be yellow amber in the amber type determination step by using fuzzy inference, and a step of estimating.
Amber fragment type and transparency estimation program to run the computer.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017153214A JP6909467B2 (en) | 2017-08-08 | 2017-08-08 | Amber Fragment Type and Transparency Estimator, Estimator, and Estimator Program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017153214A JP6909467B2 (en) | 2017-08-08 | 2017-08-08 | Amber Fragment Type and Transparency Estimator, Estimator, and Estimator Program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019032231A JP2019032231A (en) | 2019-02-28 |
JP6909467B2 true JP6909467B2 (en) | 2021-07-28 |
Family
ID=65523252
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017153214A Active JP6909467B2 (en) | 2017-08-08 | 2017-08-08 | Amber Fragment Type and Transparency Estimator, Estimator, and Estimator Program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6909467B2 (en) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7341835B2 (en) * | 2019-10-09 | 2023-09-11 | 株式会社日立製作所 | Powder mixing system and powder mixing method |
CN113155784A (en) * | 2021-03-19 | 2021-07-23 | 东营市阔海水产科技有限公司 | Water transparency detection method, terminal device and storage medium |
CN113267473B (en) * | 2021-05-18 | 2022-09-23 | 陕西理工大学 | Light transmission detection imaging device and method |
CN115718081B (en) * | 2022-11-15 | 2024-04-12 | 中国地质大学(武汉) | Construction method and application of amber origin traceability model based on spectral fingerprint |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4847187B2 (en) * | 2006-04-11 | 2011-12-28 | エーザイマシナリー株式会社 | Inspection apparatus and inspection method |
US7889330B2 (en) * | 2008-10-10 | 2011-02-15 | Parata Systems, Llc | Method of taking an image of an object residing in a transparent, colored container |
JP5637399B2 (en) * | 2009-11-16 | 2014-12-10 | 国立大学法人豊橋技術科学大学 | Pearl evaluation method and evaluation apparatus |
CN106461565A (en) * | 2014-02-07 | 2017-02-22 | 株式会社真珠科学研究所 | Pearl assessment system, pearl assessment device and pearl assessment method |
-
2017
- 2017-08-08 JP JP2017153214A patent/JP6909467B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2019032231A (en) | 2019-02-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6909467B2 (en) | Amber Fragment Type and Transparency Estimator, Estimator, and Estimator Program | |
US10565479B1 (en) | Identifying and excluding blurred areas of images of stained tissue to improve cancer scoring | |
CN107633503B (en) | Image processing method for automatically detecting residual straws in grains | |
JP5546317B2 (en) | Visual inspection device, visual inspection discriminator generation device, visual inspection discriminator generation method, and visual inspection discriminator generation computer program | |
CN105184787B (en) | A kind of license camera and method for portrait scratch figure automatically | |
EP1229493B1 (en) | Multi-mode digital image processing method for detecting eyes | |
US7970212B2 (en) | Method for automatic detection and classification of objects and patterns in low resolution environments | |
JP4725298B2 (en) | Visual inspection method using images | |
CN109086687A (en) | The traffic sign recognition method of HOG-MBLBP fusion feature based on PCA dimensionality reduction | |
Khoshroo et al. | Classification of wheat cultivars using image processing and artificial neural networks. | |
CN107154044B (en) | Chinese food image segmentation method | |
Nguyen et al. | Cell splitting with high degree of overlapping in peripheral blood smear | |
CN109313699A (en) | The device and method for carrying out target identification for the input picture to a vehicle | |
CN108844957A (en) | A kind of tobacco leaf oil new detecting method based on machine vision | |
JP2017053699A (en) | Wavelength decision method of near-infrared image capturing used in substance determination, and substance determination method using near-infrared image | |
RU2476932C1 (en) | Automated system of biomedical microimage analysis for detection and characterisation of fixed class informative objects against inhomogeneous background | |
JP2007080087A (en) | Facial parts extraction method and face authentication device | |
Pratap et al. | Development of Ann based efficient fruit recognition technique | |
CN110188693B (en) | Improved complex environment vehicle feature extraction and parking discrimination method | |
Seng et al. | Research Article Research on Law‘s Mask Texture Analysis System Reliability | |
Rivera | Augmented reality labels for security signs based on color segmentation with PSO for assisting colorblind people | |
Junxiong et al. | Feature extraction of jujube fruit wrinkle based on the watershed segmentation | |
Helwan | ITDS: Iris tumor detection system using image processing techniques | |
CN109690289A (en) | It is segregated analytical equipment and method | |
Singh et al. | Identification of acrylamide in fried potato crisps using image processing in wavelet domain |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20171026 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200730 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20210528 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210608 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210624 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6909467 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |