JP6909467B2 - Amber Fragment Type and Transparency Estimator, Estimator, and Estimator Program - Google Patents

Amber Fragment Type and Transparency Estimator, Estimator, and Estimator Program Download PDF

Info

Publication number
JP6909467B2
JP6909467B2 JP2017153214A JP2017153214A JP6909467B2 JP 6909467 B2 JP6909467 B2 JP 6909467B2 JP 2017153214 A JP2017153214 A JP 2017153214A JP 2017153214 A JP2017153214 A JP 2017153214A JP 6909467 B2 JP6909467 B2 JP 6909467B2
Authority
JP
Japan
Prior art keywords
amber
component
transparency
mask image
average value
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017153214A
Other languages
Japanese (ja)
Other versions
JP2019032231A (en
Inventor
陽一 景山
陽一 景山
毅 ▲高▼橋
毅 ▲高▼橋
千佳子 石沢
千佳子 石沢
眞 西田
眞 西田
日菜 石川
日菜 石川
久男 新田
久男 新田
さつき 下舘
さつき 下舘
利夫 滝沢
利夫 滝沢
太郎 小山
太郎 小山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Akita University NUC
Original Assignee
Akita University NUC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Akita University NUC filed Critical Akita University NUC
Priority to JP2017153214A priority Critical patent/JP6909467B2/en
Publication of JP2019032231A publication Critical patent/JP2019032231A/en
Application granted granted Critical
Publication of JP6909467B2 publication Critical patent/JP6909467B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Investigating Materials By The Use Of Optical Means Adapted For Particular Applications (AREA)
  • Image Analysis (AREA)

Description

本発明は、琥珀砕片の種別および透明度の推定方法、推定装置、ならびに推定プログラムに関する。 The present invention relates to a method for estimating the type and transparency of amber fragments, an estimation device, and an estimation program.

琥珀は、太古に繁茂していた植物の樹脂が化石化したものである。琥珀は、古くから宝飾品などに用いられており、近年では新たな加工技術の開発や、抗アレルギー成分の発見などにより琥珀の用途は多様化している。日本では,岩手県久慈市周辺が古くから琥珀の産地として有名であり,この地域における主要な産業の一端を担っている。一方、琥珀は用途によって色や品質を判別することが重要となるが、琥珀の判別は人の目によって行われているのが現状である。したがって、コンピュータを用いて自動で琥珀の色および品質の判別を行うことは、処理のコスト削減および高速化に寄与する。 Amber is a fossilized resin of a plant that thrived in ancient times. Amber has been used for jewelry for a long time, and in recent years, the use of amber has been diversified due to the development of new processing technology and the discovery of anti-allergic components. In Japan, the area around Kuji City, Iwate Prefecture has long been famous as an amber producing area, and plays a part in the major industries in this area. On the other hand, it is important to discriminate the color and quality of amber depending on the purpose of use, but the current situation is that amber is discriminated by the human eye. Therefore, automatically discriminating the color and quality of amber using a computer contributes to cost reduction and speeding up of processing.

宝石原石を分類する方法に関する技術として、例えば、特許文献1には、ダイヤモンド宝石原石の分類を自動化する方法であって、宝石原石の赤外吸収サンプルスペクトルから、水蒸気による吸収に対応する特性およびダイヤモンド格子による固有吸収に対応する特性を差し引くステップ;ダイヤモンドの格子欠陥に対応する所定の吸収特性を同定するよう、サンプルスペクトルを分析するステップ;所定吸収特性の存在および/もしくは強度に従い宝石原石を分類するステップ;および分類の結果をデータベースに保存するステップを有する方法が開示されている。
また、琥珀に関する技術として、例えば、特許文献2には、粉粒状の琥珀の原材料を加熱および加圧して成形する再生琥珀の製造方法であって、単独で成形したときの成形物の平均抗折力が異なる複数の原材料ロットを用い、これらの原材料ロットを混合して混合物とし、該混合物を成形することを特徴とする再生琥珀の製造方法が開示されている。
As a technique relating to a method for classifying gemstones, for example, Patent Document 1 describes a method for automating the classification of diamond gemstones, which has characteristics corresponding to absorption by water vapor and diamonds from an infrared absorption sample spectrum of the gemstones. The step of subtracting the properties corresponding to the intrinsic absorption by the lattice; the step of analyzing the sample spectrum to identify the given absorption properties corresponding to the diamond lattice defects; the step of classifying the gemstones according to the presence and / or strength of the given absorption properties. Steps; and methods having steps to store the classification results in a database are disclosed.
Further, as a technique related to amber, for example, Patent Document 2 describes a method for producing recycled amber, which is formed by heating and pressurizing a raw material of powdery amber, and the average bending resistance of the molded product when molded alone. A method for producing recycled amber is disclosed, which comprises using a plurality of raw material lots having different forces and mixing these raw material lots to form a mixture, and molding the mixture.

特表2015−519579号公報Special Table 2015-591579 特開2015−193132公報JP-A-2015-193132

しかしながら、特許文献1および2では、琥珀の種別や透明度に関する推定は行われておらず、本発明者らの調べた範囲では、既存技術は存在しない。 However, in Patent Documents 1 and 2, the type and transparency of amber are not estimated, and as far as the present inventors have investigated, there is no existing technique.

そこで、本発明は、琥珀砕片の種別および透明度を推定可能な推定方法、推定装置、並びに推定プログラムを提供することを課題とする。 Therefore, it is an object of the present invention to provide an estimation method, an estimation device, and an estimation program capable of estimating the type and transparency of amber fragments.

本発明の第1の態様は、水平面に静置された琥珀砕片に上方から光を照射し、上部カラー画像を取得する上部カラー画像取得工程と、上部カラー画像にマスク処理を施し、上部マスク画像を作成する上部マスク画像作成工程と、上部マスク画像を解析し、上部マスク画像における琥珀砕片領域の画素のRGB成分およびHSV成分の情報を取得する上部マスク画像解析工程と、上部マスク画像解析工程で得られるR成分の平均値とV成分の平均値とが等しい画素の割合、および、S成分の平均値から、外皮物と琥珀との判別を行う外皮物・琥珀判別工程と、外皮物・琥珀判別工程で琥珀と判別された琥珀砕片が写る上部マスク画像の琥珀砕片領域の画素を対象に、黄琥珀、茶琥珀および黒琥珀からなる琥珀種別の各琥珀への帰属度を算出し、帰属度が最も高い琥珀種別に琥珀砕片を判別する琥珀種別判別工程と、琥珀種別判別工程で黄琥珀と判別された琥珀砕片の透明度を、ファジィ推論を用いて推定する黄琥珀透明度推定工程と、を含む、琥珀砕片の種別および透明度の推定方法である。 The first aspect of the present invention is an upper color image acquisition step of irradiating an amber fragment resting on a horizontal plane with light from above to acquire an upper color image, and a masking process on the upper color image to obtain an upper mask image. In the upper mask image creation step, the upper mask image analysis step, and the upper mask image analysis step, which analyzes the upper mask image and acquires information on the RGB component and HSV component of the pixels of the amber fragment region in the upper mask image. From the ratio of pixels in which the average value of the obtained R component and the average value of the V component are equal, and the average value of the S component, the outer skin / amber discrimination step for discriminating between the outer skin and the amber, and the outer skin / amber Targeting the pixels of the amber fragment area of the upper mask image in which the amber fragment identified as amber in the discrimination process is captured, the degree of attribution to each amber of the amber type consisting of yellow amber, brown amber and black amber is calculated, and the degree of attribution is calculated. Includes an amber type determination step that discriminates amber fragments to the highest amber type, and an amber transparency estimation step that estimates the transparency of amber fragments determined to be yellow amber in the amber type determination step using fuzzy inference. , Amber fragment type and transparency estimation method.

本発明において、「外皮物」とは、表面に不純物が付着した琥珀砕片を意味する。また、本発明において、「RGB成分」とは、RGB表色系におけるR成分、G成分、およびB成分を意味する。また、本発明において、「HSV成分」とは、HSV表色系におけるH成分、S成分、およびV成分を意味する。 In the present invention, the "exodermis" means amber fragments having impurities attached to the surface. Further, in the present invention, the "RGB component" means the R component, the G component, and the B component in the RGB color system. Further, in the present invention, the "HSV component" means the H component, the S component, and the V component in the HSV color system.

本発明の第1の態様において、上部マスク画像作成工程が、上部カラー画像をグレースケール化し、グレースケール画像を得るグレースケール化工程と、グレースケール画像を二値化し、二値画像を得る二値化工程と、二値画像の補完およびノイズ除去を行う補完・ノイズ除去工程と、補完・ノイズ除去工程で得られる二値画像に反転処理を施す反転処理工程と、を含むことが好ましい。 In the first aspect of the present invention, the upper mask image creation step is a grayscale step of grayscale the upper color image to obtain a grayscale image and a binary step of binarizing the grayscale image to obtain a binary image. It is preferable to include a conversion step, a complement / noise removal step of complementing and removing noise of the binary image, and an inversion processing step of inverting the binary image obtained in the complement / noise removing step.

本発明の第1の態様において、琥珀種別判別工程が、予め定めた黄琥珀、茶琥珀および黒琥珀のR成分の平均値ならびに上部マスク画像解析工程で得られるR成分の平均値を用いてR成分の近似度を算出するR成分近似度算出工程と、予め定めた黄琥珀、茶琥珀および黒琥珀のH成分の最頻値ならびに上部マスク画像解析工程で得られるH成分の最頻値を用いてH成分の近似度を算出するH成分近似度算出工程と、R成分の近似度およびH成分の近似度に基づいて、琥珀砕片領域の画素の黄琥珀、茶琥珀および黒琥珀への帰属度を算出する帰属度算出工程と、帰属度が最も高い琥珀の種別に、琥珀砕片を判別する判別処理工程と、を含むことが好ましい。 In the first aspect of the present invention, the amber type determination step uses a predetermined average value of the R components of yellow amber, brown amber and black amber and an average value of the R component obtained in the upper mask image analysis step. Using the R component approximation calculation step that calculates the approximation of the components, the most frequent value of the H component of yellow amber, brown amber and black amber determined in advance, and the most frequent value of the H component obtained in the upper mask image analysis step. The degree of attribution of the pixels of the amber fragment region to yellow amber, brown amber and black amber based on the H component approximation calculation step for calculating the approximation of the H component and the approximation of the R component and the H component. It is preferable to include a step of calculating the degree of attribution for calculating the amber and a step of discriminating the amber fragment to discriminate the type of amber having the highest degree of attribution.

本発明の第1の態様において、黄琥珀透明度推定工程が、琥珀種別判別工程で黄琥珀と判別された琥珀砕片に下方から光を照射し、下部カラー画像を取得する下部カラー画像取得工程と、下部カラー画像にマスク処理を施し、下部マスク画像を作成する下部マスク画像作成工程と、下部マスク画像を解析し、下部マスク画像における琥珀砕片領域の画素のRGB成分の情報を取得する下部マスク画像解析工程と、下部マスク画像解析工程で得られるG成分の平均値およびB成分の平均値に基づき、予め定めた黄琥珀のG成分の平均値およびB成分の平均値を基準として、予め定めた複数の規則からなる推論規則の各規則への適合度を、前件部メンバーシップ関数を用いて算出する適合度算出工程と、各規則への適合度と後件部メンバーシップ関数とのファジィ論理積から、推論結果である図形を作成する作図工程と、Mamdaniの推論法を用いて非ファジィ化を行い図形の重心を求め、最終推論結果として琥珀砕片の透明度を算出する透明度算出工程と、を含むことが好ましい。 In the first aspect of the present invention, the yellow amber transparency estimation step includes a lower color image acquisition step of irradiating amber fragments determined to be yellow amber in the amber type determination step with light from below to acquire a lower color image. Lower mask image creation process that masks the lower color image to create the lower mask image, and lower mask image analysis that analyzes the lower mask image and acquires information on the RGB components of the pixels in the amber fragment region in the lower mask image. A plurality of predetermined values based on the average value of the G component and the average value of the B component obtained in the step and the lower mask image analysis step, and based on the predetermined average value of the G component and the average value of the B component of the amber. The fuzzy logic product of the conformity calculation process that calculates the conformity of the inference rule consisting of the above rules to each rule using the preamble membership function, and the conformity to each rule and the postpart membership function. Including a drawing step of creating a figure which is an inference result and a transparency calculation step of calculating the transparency of amber fragments as the final inference result by performing non-fuzzy logic using Mamdani's inference method to obtain the center of gravity of the figure. Is preferable.

本発明の第1の態様において、推論規則の前件部が、以下のA1〜A4からなり、
A1:G成分の平均値が低く、且つ、B成分の平均値が低い
A2:G成分の平均値が低く、且つ、B成分の平均値が高い
A3:G成分の平均値が高く、且つ、B成分の平均値が低い
A4:G成分の平均値が高く、且つ、B成分の平均値が高い
推論規則の後件部が、以下のB1〜B3からなり、
B1:透明度が低い
B2:透明度が高いまたは透明度が低い
B3:透明度が高い
推論規則が、以下のδ〜δの規則からなっていてもよい。
δ:前件部がA1であれば、後件部はB1である
δ:前件部がA2であれば、後件部はB2である
δ:前件部がA3であれば、後件部はB2である
δ:前件部がA4であれば、後件部はB3である
In the first aspect of the present invention, the antecedent part of the inference rule comprises the following A1 to A4.
A1: The average value of the G component is low and the average value of the B component is low. A2: The average value of the G component is low and the average value of the B component is high. The average value of the B component is low A4: The average value of the G component is high and the average value of the B component is high The latter part of the inference rule consists of the following B1 to B3.
B1: Low transparency B2: High transparency or low transparency B3: High transparency The inference rule may consist of the following rules δ 1 to δ 4 .
δ 1 : If the antecedent part is A1, the consequent part is B1 δ 2 : If the antecedent part is A2, the consequent part is B2 δ 3 : If the antecedent part is A3, The consequent part is B2 δ 4 : If the antecedent part is A4, the consequent part is B3

本発明の第1の態様において、上部カラー画像取得工程で照射される光の琥珀表面における照度が500lx以上2500lx以下であることが好ましい。 In the first aspect of the present invention, it is preferable that the illuminance on the amber surface of the light irradiated in the upper color image acquisition step is 500 lpx or more and 2500 lpx or less.

本発明の第1の態様において、下部カラー画像取得工程で照射される光の琥珀表面における照度が500lx以上1000lx以下であることが好ましい。 In the first aspect of the present invention, it is preferable that the illuminance on the amber surface of the light irradiated in the lower color image acquisition step is 500 xl or more and 1000 lp or less.

本発明の第2の態様は、琥珀砕片を静置可能な水平面と、水平面に静置された琥珀砕片に上方から光を照射可能な光源と、撮像手段と、を有し、琥珀砕片の上部カラー画像を取得可能な上部カラー画像取得部と、上部カラー画像にマスク処理を施し、上部マスク画像を作成する上部マスク画像作成部と、上部マスク画像を解析し、上部マスク画像における琥珀砕片領域の画素のRGB成分およびHSV成分の情報を取得する上部マスク画像解析部と、上部マスク画像解析部で得られR成分の平均値とV成分の平均値とが等しい画素の割合、および、S成分の平均値から、外皮物と琥珀との判別を行う外皮物・琥珀判別部と、外皮物・琥珀判別部で琥珀と判別された琥珀砕片が写る上部マスク画像の琥珀砕片領域の画素を対象に、黄琥珀、茶琥珀および黒琥珀からなる琥珀種別の各琥珀への帰属度を算出し、帰属度が最も高い琥珀種別に琥珀砕片を判別する琥珀種別判別部と、琥珀種別判別部で黄琥珀と判別された琥珀砕片の透明度を、ファジィ推論を用いて推定する黄琥珀透明度推定部と、を備える、琥珀砕片の種別および透明度の推定装置である。 A second aspect of the present invention has a horizontal plane on which the amber shards can be placed, a light source capable of irradiating the amber shards placed on the horizontal plane with light from above, and an imaging means, and has an upper portion of the amber slab. An upper color image acquisition unit that can acquire a color image, an upper mask image creation unit that masks the upper color image to create an upper mask image, and an upper mask image analysis that analyzes the amber fragment region in the upper mask image. The proportion of pixels in which the average value of the R component and the average value of the V component obtained by the upper mask image analysis unit that acquires information on the RGB component and HSV component of the pixel are equal, and the S component From the average value, target the pixels of the amber fragment area of the upper mask image in which the outer skin / amber discriminating unit that discriminates between the outer skin and the amber and the amber fragment that is discriminated as amber by the outer skin / amber discriminating unit are shown. The amber type discriminating unit, which calculates the degree of attribution to each amber of the amber type consisting of yellow amber, brown amber, and black amber, and discriminates the amber fragments to the amber type with the highest attribution, and the amber type discriminating unit, and the amber and amber type discriminating part. It is an amber fragment type and transparency estimation device including a yellow amber transparency estimation unit that estimates the transparency of the determined amber fragment using fuzzy inference.

本発明の第3の態様は、水平面に静置された琥珀砕片に上方から光を照射し、上部カラー画像を取得する工程と、上部カラー画像にマスク処理を施し、上部マスク画像を作成する工程と、上部マスク画像を解析し、上部マスク画像における琥珀砕片領域の画素のRGB成分およびHSV成分の情報を取得する工程と、上部マスク画像解析工程で得られるR成分の平均値とV成分の平均値とが等しい画素の割合、および、S成分の平均値から、外皮物と琥珀との判別を行う工程と、外皮物・琥珀判別工程で琥珀と判別された琥珀砕片が写る上部マスク画像の琥珀砕片領域の画素を対象に、黄琥珀、茶琥珀および黒琥珀からなる琥珀種別の各琥珀への帰属度を算出し、帰属度が最も高い琥珀種別に琥珀砕片を判別する工程と、琥珀種別判別工程で黄琥珀と判別された琥珀砕片の透明度を、ファジィ推論を用いて推定する工程と、をコンピュータに実行させるための、琥珀砕片の種別および透明度の推定プログラムである。 A third aspect of the present invention is a step of irradiating an amber fragment resting on a horizontal plane with light from above to acquire an upper color image, and a step of applying mask processing to the upper color image to create an upper mask image. And, the step of analyzing the upper mask image and acquiring the information of the RGB component and the HSV component of the pixel of the amber fragment region in the upper mask image, and the average value of the R component and the average of the V component obtained in the upper mask image analysis step. Amber in the upper mask image showing the amber fragments identified as amber in the process of discriminating between the outer skin and amber from the ratio of pixels with the same value and the average value of the S component and the outer skin / amber discrimination step. The process of calculating the degree of attribution to each amber of the amber type consisting of yellow amber, brown amber and black amber for the pixels of the fragment area, and determining the amber fragment to the amber type with the highest degree of attribution, and the amber type discrimination This is an estimation program for the type and transparency of amber fragments to cause a computer to execute a process of estimating the transparency of amber fragments determined to be yellow amber in the process using fuzzy inference.

本発明によれば、琥珀砕片の種別および透明度を推定可能な推定方法、推定装置、並びに推定プログラムを提供することができる。 According to the present invention, it is possible to provide an estimation method, an estimation device, and an estimation program capable of estimating the type and transparency of amber fragments.

本発明の琥珀砕片の種別および透明度の推定方法の一実施形態に係る推定方法S10を説明するフローチャートである。It is a flowchart explaining the estimation method S10 which concerns on one Embodiment of the type and transparency estimation method of the amber fragment of this invention. 上部カラー画像取得工程S1の様子を模式的に示す図である。It is a figure which shows typically the state of the upper color image acquisition process S1. 上部マスク画像解析工程S2の一実施形態を説明するフローチャートである。It is a flowchart explaining one Embodiment of the upper mask image analysis process S2. 琥珀種別判別工程S5の一実施形態を説明するフローチャートである。It is a flowchart explaining one Embodiment of amber type determination process S5. 黄琥珀透明度推定工程S6の一実施形態を説明するフローチャートである。It is a flowchart explaining one Embodiment of the yellow amber transparency estimation step S6. 下部カラー画像取得工程S61の様子を模式的に示す図である。It is a figure which shows typically the state of the lower color image acquisition process S61. 適合度算出工程S64で用いられる前件部メンバーシップ関数の一例を示す図である。It is a figure which shows an example of the antecedent part membership function used in the goodness-of-fit calculation process S64. 作図工程S65で用いられる後件部メンバーシップ関数の一例を示す図である。It is a figure which shows an example of the consequent part membership function used in the drawing process S65. 表4に示す規則δ〜δへの適合度と、図8に示す後件部メンバーシップ関数とのファジィ論理積から推論結果ε〜εとして作成される図形を示す図である。And adaptability to Rule δ 14 shown in Table 4 is a diagram showing the graphic to be created as a result of inference ε 14 from fuzzy logic product of the consequent membership functions shown in FIG. 図9に示す図形の重心を求め、最終推論結果として琥珀砕片の透明度(ε=81.9%)を算出した例を示す図である。FIG. 5 is a diagram showing an example in which the center of gravity of the figure shown in FIG. 9 is obtained and the transparency (ε 0 = 81.9%) of the amber fragment is calculated as the final inference result. 本発明の第2の態様に係る琥珀砕片の種別および透明度の推定装置の一実施形態に係る推定装置100を説明する図である。It is a figure explaining the estimation apparatus 100 which concerns on one Embodiment of the type and transparency estimation apparatus of the amber fragment which concerns on the 2nd aspect of this invention.

本発明の上記した作用および利得は、以下に説明する発明を実施するための形態から明らかにされる。以下、図面を参照しつつ、本発明の実施の形態について説明する。なお、以下に示す形態は本発明の例示であり、本発明がこれらの形態に限定されるものではない。 The above-mentioned actions and gains of the present invention will be clarified from the embodiments for carrying out the invention described below. Hereinafter, embodiments of the present invention will be described with reference to the drawings. The forms shown below are examples of the present invention, and the present invention is not limited to these forms.

1.琥珀砕片の種別および透明度の推定方法
図1は、本発明の第1の態様に係る琥珀砕片の種別および透明度の推定方法の一実施形態に係る推定方法S10を説明するフローチャートである。図1を参照しつつ、推定方法S10について、以下に説明する。
図1に示すように、推定方法S10は、上部カラー画像取得工程S1と、上部マスク画像作成工程S2と、上部マスク画像解析工程S3と、外皮物・琥珀判別工程S4と、琥珀種別判別工程S5と、黄琥珀透明度推定工程S6と、を含む。
1. 1. Method for Estimating Type of Amber Fragment and Transparency FIG. 1 is a flowchart illustrating an estimation method S10 according to an embodiment of a method for estimating the type and transparency of amber fragment according to the first aspect of the present invention. The estimation method S10 will be described below with reference to FIG.
As shown in FIG. 1, the estimation method S10 includes an upper color image acquisition step S1, an upper mask image creation step S2, an upper mask image analysis step S3, an outer skin / amber discrimination step S4, and an amber type discrimination step S5. And the yellow amber transparency estimation step S6.

1.1.上部カラー画像取得工程S1
上部カラー画像取得工程S1(以下、「S1」と称することがある。)は、水平面に静置された琥珀砕片に上方から光を照射し、上部カラー画像を取得する工程である。図2に、S1の様子を模式的に示す。図2に示すように、水平面に静置された琥珀砕片1に対して、琥珀砕片1よりも鉛直方向(紙面上下方向)の上側に配置された光源2から琥珀砕片1に向けて光が照射される。この状態で、琥珀砕片1よりも鉛直方向の上側に配置された撮像手段3により撮影を行うことにより、上部カラー画像を取得する。水平面を形成する部材は、水平面を有し、琥珀砕片を静置可能であればその材質は特に限定されない。水平面は透光性を有していてもよいが、透明板上で撮影した場合、照明光が板に反射することで取得される画像特徴が変化してしまうことがあるため、白画用紙等により形成される白色の面であることが好ましい。撮像手段3は、上部カラー画像を取得することができるものであれば特に限定されず、例えば、可視領域カメラ等を用いることができる。また、撮影は、暗室内で行われることが好ましい。琥珀砕片に光を照射する光源の数、位置および光の照射方向は特に限定されず、例えば、図2に示すように、鉛直方向に対して斜め方向から光を照射してもよい。画像全体が暗くなることを防止する観点から、琥珀砕片表面における照度は、500lx以上であることが好ましい。一方、白飛びの量が増えることを防止する観点から、琥珀砕片表面における照度は、2500lx以下であることが好ましい。照度は、LED照明の出力の調整や減光フィルムの使用により、適宜調整することが可能である。
1.1. Upper color image acquisition process S1
The upper color image acquisition step S1 (hereinafter, may be referred to as “S1”) is a step of irradiating amber crushed pieces resting on a horizontal plane with light from above to acquire an upper color image. FIG. 2 schematically shows the state of S1. As shown in FIG. 2, the light source 2 arranged above the amber crushed piece 1 in the vertical direction (vertical direction on the paper surface) irradiates the amber crushed piece 1 resting on the horizontal plane toward the amber crushed piece 1. Will be done. In this state, an upper color image is acquired by taking a picture with the image pickup means 3 arranged vertically above the amber fragment 1. The member forming the horizontal plane has a horizontal plane, and the material thereof is not particularly limited as long as the amber fragments can be allowed to stand still. The horizontal plane may have translucency, but when the image is taken on a transparent plate, the acquired image features may change due to the reflection of the illumination light on the plate. It is preferably a white surface to be formed. The imaging means 3 is not particularly limited as long as it can acquire an upper color image, and for example, a visible region camera or the like can be used. Further, the photographing is preferably performed in a dark room. The number, position, and direction of light irradiation for irradiating the amber fragments with light are not particularly limited. For example, as shown in FIG. 2, light may be irradiated from an oblique direction with respect to the vertical direction. From the viewpoint of preventing the entire image from becoming dark, the illuminance on the surface of the amber fragment is preferably 500 lpx or more. On the other hand, from the viewpoint of preventing the amount of overexposure from increasing, the illuminance on the surface of the amber crushed piece is preferably 2500 xl or less. The illuminance can be appropriately adjusted by adjusting the output of the LED lighting or using a dimming film.

1.2.上部マスク画像作成工程S2
上部マスク画像作成工程S2(以下、「S2」と称することがある。)は、S1で取得された上部カラー画像にマスク処理を施し、上部マスク画像を作成する工程である。図3に、上部マスク画像作成工程S2の一実施形態を説明するフローチャートを示す。図3に示すように、上部マスク画像作成工程S2は、グレースケール化工程S21と、二値化工程S22と、補完・ノイズ除去工程S23と、反転処理工程S24と、を含み、上部カラー画像は工程S21〜24によるマスク処理を施されることが好ましい。
1.2. Upper mask image creation process S2
The upper mask image creation step S2 (hereinafter, may be referred to as “S2”) is a step of applying a mask process to the upper color image acquired in S1 to create an upper mask image. FIG. 3 shows a flowchart illustrating an embodiment of the upper mask image creating step S2. As shown in FIG. 3, the upper mask image creation step S2 includes a grayscale conversion step S21, a binarization step S22, a complement / noise removal step S23, and an inversion processing step S24, and the upper color image is It is preferable to perform the mask treatment according to the steps S21 to 24.

1.2.1.グレースケール化工程S21
グレースケール化工程S21(以下、「S21」と称することがある。)は、S1で取得された上部カラー画像をグレースケール化し、グレースケール画像を得る工程である。上部カラー画像をグレースケール化する方法は、グレースケール化が可能であれば特に限定されない。例えば、S1で取得された上部カラー画像の画素(x,y)に対して、RGB成分Cxy(R=P,G=P,B=P)を基に、RGBtoYCC変換式を用いて明度値Vxyを算出し、256階調のグレースケール画像を作成することができる。RGBtoYCC変換式を以下の(1)式に示す。
1.2.1. Grayscale process S21
The grayscale step S21 (hereinafter, may be referred to as “S21”) is a step of grayscale the upper color image acquired in S1 to obtain a grayscale image. The method of grayscale the upper color image is not particularly limited as long as it can be grayscaled. For example, using a pixel of the acquired upper color image (x, y) in S1, RGB component C xy (R = P r, G = P g, B = P b) based on the RGBtoYCC conversion formula The brightness value V xy can be calculated to create a grayscale image with 256 gradations. The RGB to YCC conversion formula is shown in the following formula (1).

Figure 0006909467
Figure 0006909467

1.2.2.二値化工程S22
二値化工程S22(以下、「S22」と称することがある。)は、S21で得られるグレースケール画像を二値化し、二値画像を得る工程である。グレースケール画像を二値化する方法は、二値化が可能であれば特に限定されない。例えば、S21で得られるグレースケール画像の画素(x,y)の明度値Vxy(0〜255)が閾値Thr以上である画素を白画素(255)に、それ以外の場合には、黒画素(0)とすることにより二値画像を作成することができる。二値画像の作成条件を以下の(2)式に示す。なお、作成時における閾値Thrは、画像ごとに手動で設定してもよく、以下の式(3)を用いて自動で設定してもよい。式(3)において、Vμはグレースケール画像における明度の平均値であり、Vσはグレースケール画像における明度の標準偏差値である。
1.2.2. Binarization step S22
The binarization step S22 (hereinafter, may be referred to as “S22”) is a step of binarizing the grayscale image obtained in S21 to obtain a binary image. The method of binarizing the grayscale image is not particularly limited as long as the binarization is possible. For example, a pixel (0 to 255) in which the brightness value V xy (0 to 255) of the pixel (x, y) of the grayscale image obtained in S21 is equal to or greater than the threshold Thr is defined as a white pixel (255), and in other cases, a black pixel. By setting (0), a binary image can be created. The conditions for creating a binary image are shown in Eq. (2) below. The threshold value Thr at the time of creation may be set manually for each image, or may be automatically set using the following equation (3). In equation (3), V μ is the average value of lightness in the grayscale image, and V σ is the standard deviation value of lightness in the grayscale image.

Figure 0006909467
Figure 0006909467

Figure 0006909467
Figure 0006909467

1.2.3.補完・ノイズ除去工程S23
補完・ノイズ除去工程S23(以下、「S23」と称することがある。)は、S22で得られる二値画像の補完およびノイズ除去を行う工程である。二値画像の補完およびノイズ除去を行う方法は、補完およびノイズ除去が可能であれば特に限定されない。例えば、S22で得られた二値画像にオープニング処理およびクロージング処理を施すことにより行うことができる。具体的には、オープニング処理として、収縮処理を施した後、同じ回数だけ膨張処理を行い、クロージング処理として膨張処理を施した後、同じ回数だけ収縮処理を行う。なお、各処理の回数は0から10回までの値を1回ずつ変化させ、原画像ごとに最適と判断される回数を適宜採用することができる。
1.2.3. Complementary / noise removal process S23
Complementing / noise removing step S23 (hereinafter, may be referred to as “S23”) is a step of complementing and removing noise of the binary image obtained in S22. The method for complementing and removing noise from a binary image is not particularly limited as long as complementation and noise removal are possible. For example, it can be performed by performing an opening process and a closing process on the binary image obtained in S22. Specifically, as the opening process, the shrinkage process is performed and then the expansion process is performed the same number of times, and as the closing process, the expansion process is performed and then the shrinkage process is performed the same number of times. The number of times of each process is changed from 0 to 10 times by one time, and the number of times determined to be optimal for each original image can be appropriately adopted.

1.2.4.反転処理工程S24
反転処理工程S24(以下、「S24」と称することがある。)は、S23で得られる補完およびノイズ除去後の二値画像に反転処理を施す工程である。例えば、S22において、上述のように白画素(255)と黒画素(0)とからなる二値画像を作成している場合には、S23により、補完・ノイズ除去を施した二値画像は、黒画素が琥珀砕片部、白画素が背景部となっている。そこで、S24において、黒画素(0)を白画素(255)に、白画素(255)を黒画素(0)にする反転処理を施すことにより、黒画素が背景部、白画素が琥珀砕片部である上部マスク画像を作成することができる。
1.2.4. Inversion processing step S24
The inversion processing step S24 (hereinafter, may be referred to as “S24”) is a step of performing an inversion process on the binary image after complementation and noise removal obtained in S23. For example, in S22, when a binary image composed of white pixels (255) and black pixels (0) is created as described above, the binary image to which complementation and noise removal are performed by S23 can be obtained. The black pixels are the amber crushed pieces, and the white pixels are the background. Therefore, in S24, by performing an inversion process in which the black pixel (0) is changed to the white pixel (255) and the white pixel (255) is changed to the black pixel (0), the black pixel is the background portion and the white pixel is the amber fragment portion. It is possible to create an upper mask image that is.

1.3.上部マスク画像解析工程S3
上部マスク画像解析工程S3(以下、「S3」と称することがある。)は、S2で得られる上部マスク画像を解析し、上部マスク画像における琥珀砕片領域の画素(以下、琥珀画素と称することがある。)のRGB成分およびHSV成分の情報を取得する工程である。以下、RGB成分の情報を取得する方法、および、HSV成分の情報を取得する方法について、順に説明する。
1.3. Upper mask image analysis step S3
The upper mask image analysis step S3 (hereinafter, may be referred to as “S3”) analyzes the upper mask image obtained in S2 and may refer to the pixels of the amber fragment region in the upper mask image (hereinafter, referred to as amber pixels). It is a step of acquiring the information of the RGB component and the HSV component of (there is). Hereinafter, a method of acquiring information on RGB components and a method of acquiring information on HSV components will be described in order.

1.3.1.RGB成分情報取得
S3において、RGB成分の情報を取得するために、まず、上部マスク画像中に存在する琥珀画素を抽出する。次に、抽出した琥珀画素のRGB成分を基に、R成分ヒストグラム、G成分ヒストグラム、およびB成分ヒストグラムを算出する。算出したRGBヒストグラムを基に、平均値μ、分散値σ、および最頻値を算出し、これらの情報を特徴量として取得する。ヒストグラムのX軸における値(階調値)をxとし、xにおけるY成分(頻度)をY(x)としたとき、平均値μを算出するための式を以下の式(4)に、分散値σを算出するための式を以下の式(5)に示す。
13.1. RGB component information acquisition In S3, in order to acquire the RGB component information, first, the amber pixels existing in the upper mask image are extracted. Next, the R component histogram, the G component histogram, and the B component histogram are calculated based on the RGB components of the extracted amber pixels. Based on the calculated RGB histogram, the average value μ, the variance value σ 2 , and the mode value are calculated, and these information are acquired as feature quantities. When the value (gradation value) on the X-axis of the histogram is x and the Y component (frequency) at x is Y (x), the formula for calculating the average value μ is dispersed in the following formula (4). The formula for calculating the value σ 2 is shown in the following formula (5).

Figure 0006909467
Figure 0006909467

Figure 0006909467
Figure 0006909467

1.3.2.HSV成分情報取得
HSV表色系は人間の感覚に近い色の指定が可能であり、H(色相)、S(彩度)、ならびにV(明度)の3成分によって表現される。すなわち、HSV表色系は色特徴として扱いやすいため、琥珀における色特徴として有用であると考えられる。HSV成分は、RGB成分からの変換式を用いて算出することができる。RGB表色系からHSV表色系への色空間変換に用いられる変換式を以下の式(6)に示す。
1.3.2. Acquisition of HSV component information The HSV color system can specify colors that are close to human senses, and is represented by three components: H (hue), S (saturation), and V (brightness). That is, since the HSV color system is easy to handle as a color feature, it is considered to be useful as a color feature in amber. The HSV component can be calculated using a conversion formula from the RGB component. The conversion formula used for the color space conversion from the RGB color system to the HSV color system is shown in the following formula (6).

Figure 0006909467
Figure 0006909467

上記式(6)を用いてRGB成分からHSV成分への変換を行い、H成分ヒストグラム、S成分ヒストグラム、ならびにV成分ヒストグラムをそれぞれ算出する。HSVヒストグラムを基に、平均値μ、分散値σ、ならびに最頻値を算出し、これらの情報を特徴量として取得する。RGBヒストグラムの特徴量の算出と同様に、平均値μは上記式(4)を、分散値σは上記式(5)を用いて算出する。なお、算出方法におけるH成分の平均値μおよび分散値σは、H成分が環状データであることを考慮していないため、H成分においては最頻値のみを特徴量として用いる。 The RGB component is converted to the HSV component using the above formula (6), and the H component histogram, the S component histogram, and the V component histogram are calculated, respectively. Based on the HSV histogram, the average value μ, the variance value σ 2 , and the mode value are calculated, and these information are acquired as feature quantities. Similar to the calculation of the feature amount of the RGB histogram, the average value μ is calculated by using the above formula (4), and the variance value σ 2 is calculated by using the above formula (5). Since the average value μ and the dispersion value σ 2 of the H component in the calculation method do not consider that the H component is cyclic data, only the mode value is used as the feature amount in the H component.

1.4.外皮物・琥珀判別工程S4
外皮物・琥珀判別工程S4(以下、「S4」と称することがある。)は、S3で得られるR成分の平均値とV成分の平均値とが等しい(以下、「R=Vである」と表記することがある。)画素の割合、および、S成分の平均値から、外皮物と琥珀との判別を行う工程である。
1.4. Exodermis / amber discrimination step S4
In the hull / amber discrimination step S4 (hereinafter, may be referred to as “S4”), the average value of the R component and the average value of the V component obtained in S3 are equal (hereinafter, “R = V””. It is a step of discriminating between the outer skin and amber from the ratio of pixels and the average value of the S component.

S4において、琥珀画素においてR=V、すなわちMAX(R,G,B)=Rである画素の割合を算出することで、琥珀と外皮物の判別が可能である。具体的には、対象画像における琥珀画素において、R=Vとなる割合が高いものを琥珀、低いものを外皮物の可能性があるものとして判別を行うことが可能である。R=Vとなる割合の閾値は、適宜設定することが可能であり、例えば、75%であることが好ましい。 In S4, the amber and the exodermis can be discriminated by calculating the ratio of the pixels in which R = V, that is, MAX (R, G, B) = R in the amber pixels. Specifically, among the amber pixels in the target image, those having a high ratio of R = V can be discriminated as amber, and those having a low ratio can be discriminated as having a possibility of exodermis. The threshold value for the ratio of R = V can be appropriately set, and is preferably 75%, for example.

R成分およびV成分を用いた外皮物の判別のみでは、黒琥珀などR=Vの割合を低くとり得る琥珀を外皮物と判別してしまい、これに起因して、判別精度が低下する。このため、各琥珀および外皮物の判別率向上を目的とし、S成分に閾値を設けて外皮物の判別を行うことができる。具体的には、対象画像における琥珀砕片領域のS成分の平均値を算出し、算出した平均値が閾値を上回る場合は琥珀と判別し、下回る場合は外皮物として判別を行うことができる。S成分の閾値は、適宜設定することが可能であり、例えば、32.9であることが好ましい。 Only by discriminating the exodermis using the R component and the V component, amber such as black amber, which can have a low ratio of R = V, is discriminated as the exodermis, and the discrimination accuracy is lowered due to this. Therefore, for the purpose of improving the discrimination rate of each amber and exodermis, it is possible to discriminate the exodermis by setting a threshold value for the S component. Specifically, the average value of the S component of the amber fragment region in the target image can be calculated, and if the calculated average value exceeds the threshold value, it can be determined as amber, and if it is less than the threshold value, it can be determined as an exodermis. The threshold value of the S component can be appropriately set, and is preferably 32.9, for example.

1.5.琥珀種別判別工程S5
琥珀種別判別工程S5(以下、「S5」と称することがある。)は、S4で琥珀と判別された琥珀砕片が写る上部マスク画像の琥珀砕片領域の画素(琥珀画素)を対象に、黄琥珀、茶琥珀および黒琥珀からなる琥珀種別の各琥珀への帰属度を算出し、帰属度が最も高い琥珀種別に琥珀砕片を判別する工程である。図4に、S5の一実施形態を説明するフローチャートを示す。図4に示すように、琥珀種別判別工程S5は、R成分近似度算出工程S51と、H成分近似度算出工程S52と、帰属度算出工程S53と、判別処理工程S54と、を含むことが好ましい。
1.5. Amber type determination step S5
The amber type determination step S5 (hereinafter, may be referred to as “S5”) targets the pixels (amber pixels) in the amber fragment region of the upper mask image in which the amber fragments determined to be amber in S4 are captured. This is a step of calculating the degree of attribution to each amber of the amber type consisting of tea amber and black amber, and discriminating the amber fragment to the amber type having the highest degree of attribution. FIG. 4 shows a flowchart illustrating one embodiment of S5. As shown in FIG. 4, the amber type discrimination step S5 preferably includes an R component approximation degree calculation step S51, an H component approximation degree calculation step S52, an attribution degree calculation step S53, and a discrimination processing step S54. ..

1.5.1.R成分近似度算出工程S51
R成分近似度算出工程S51(以下、「S51」と称することがある。)は、予め定めた黄琥珀、茶琥珀および黒琥珀のR成分の平均値ならびにS3で得られるR成分の平均値を用いてR成分の近似度を算出する工程である。
予め定めた黄琥珀、茶琥珀および黒琥珀のR成分の平均値をμ、対象画像における琥珀砕片領域のR成分の平均値をμとし、これら2つの平均値から以下の式(7)を用いることで、近似度α(0〜1.0)を算出する。
1.5.1. R component approximation degree calculation step S51
In the R component approximation degree calculation step S51 (hereinafter, may be referred to as “S51”), a predetermined average value of the R components of yellow amber, brown amber and black amber and an average value of the R component obtained in S3 are obtained. This is a step of calculating the degree of approximation of the R component using the product.
The average value of the R components of the predetermined yellow amber, brown amber and black amber is μ a , and the average value of the R component of the amber fragment region in the target image is μ b . From these two average values, the following equation (7) The degree of approximation α (0 to 1.0) is calculated by using.

Figure 0006909467
Figure 0006909467

式(7)において、Aは予め定めたR成分の平均値(A=μ)、Bは対象画像における琥珀砕片領域のR成分の平均値(B=μ)、Cは許容範囲誤差である。予め定めたR成分の平均値(A=μ)は、対照区(コントロール)として信頼に足る数の黄琥珀、茶琥珀および黒琥珀の琥珀砕片群を対象として、上記S1〜S51を行い、算出される数値とすることができる。 In the formula (7), A is the average value of the R component (A = μ a ) determined in advance, B is the average value of the R component of the amber fragment region in the target image (B = μ b ), and C is the allowable range error. be. For the predetermined average value (A = μ a ) of the R component, perform the above S1 to S51 for a reliable number of yellow amber, brown amber and black amber shards as a control group (control). It can be a calculated value.

1.5.2.H成分近似度算出工程S52
H成分近似度算出工程S52(以下、「S52」と称することがある。)は、予め定めた黄琥珀、茶琥珀および黒琥珀のH成分の最頻値ならびにS3で得られるH成分の最頻値を用いてH成分の近似度を算出する工程である。
1.5.2. H component approximation degree calculation step S52
In the H component approximation degree calculation step S52 (hereinafter, may be referred to as “S52”), the mode of the H component of yellow amber, tea amber and black amber determined in advance and the mode of the H component obtained in S3 are the most frequent. This is a step of calculating the degree of approximation of the H component using the value.

予め定めた黄琥珀、茶琥珀および黒琥珀のH成分の最頻値ならびにS3で得られるH成分の最頻値を用いてH成分の近似度を算出する工程である。予め定めた黄琥珀、茶琥珀および黒琥珀のH成分の最頻値をm、対象画像における琥珀砕片領域のH成分の最頻値をmとし、これら2つの最頻値から以下の式(8)を用いて、近似度β(0〜1.0)を算出する。 This is a step of calculating the degree of approximation of the H component using the mode of the H component of yellow amber, brown amber and black amber determined in advance and the mode value of the H component obtained in S3. Predetermined yellow amber, the mode of the H component of tea amber and black amber m a, the mode of the H component of succinic debris area in the target image and m b, the following equation from these two most frequent The degree of approximation β (0 to 1.0) is calculated using (8).

Figure 0006909467
Figure 0006909467

式(8)において、Aは、予め定めたH成分の最頻値(A=m)、Bは対象画像の琥珀砕片領域のH成分の最頻値(B=m)、Cは許容範囲誤差である。予め定めたH成分の最頻値(B=m)は、対照区(コントロール)として信頼に足る数の黄琥珀、茶琥珀および黒琥珀の琥珀砕片群を対象として、上記S1〜S52を行い、算出される数値とすることができる。 In the formula (8), A is the most frequent value of a predetermined H component (A = m a), B is the H component amber debris area of the target image mode value (B = m b), C is acceptable It is a range error. Predetermined H component of the mode (B = m b) is yellow amber numbers reliable as control group (control), as a target amber debris group tea amber and black amber, perform the above S1~S52 , Can be a calculated value.

1.5.3.帰属度算出工程S53
帰属度算出工程S53(以下、「S53」と称することがある。)は、S51で得られるR成分の近似度およびS52で得られるH成分の近似度に基づいて、琥珀砕片領域の画素(琥珀画素)の黄琥珀、茶琥珀および黒琥珀への帰属度を算出する工程である。具体的には、S51で算出した近似度αおよびS52で算出した近似度βから、黄琥珀、茶琥珀、黒琥珀への帰属度γ(0〜1.0)を、以下の式(9)式を用いて算出することができる。
1.5.3. Attribution calculation step S53
In the attribution calculation step S53 (hereinafter, may be referred to as “S53”), the pixels of the amber fragment region (amber) are based on the degree of approximation of the R component obtained in S51 and the degree of approximation of the H component obtained in S52. This is a step of calculating the degree of attribution of (pixels) to yellow amber, brown amber, and black amber. Specifically, from the approximation degree α calculated in S51 and the approximation degree β calculated in S52, the degree of attribution γ (0 to 1.0) to yellow amber, brown amber, and black amber is calculated by the following equation (9). It can be calculated using the formula.

Figure 0006909467
Figure 0006909467

1.5.4.判別処理工程S54
判別処理工程S54(以下、「S54」と称することがある。)は、帰属度が最も高い琥珀の種別に、琥珀砕片を判別する工程である。S53で算出した各琥珀への帰属度を比較し、最大の値を有する琥珀種別に琥珀砕片を判別する。例えば、S53において以下の表1のような結果が得られた場合には、琥珀砕片の種別を黄琥珀に判別する。
1.5.4. Discrimination processing step S54
The discrimination processing step S54 (hereinafter, may be referred to as “S54”) is a step of discriminating amber fragments according to the type of amber having the highest degree of attribution. The degree of attribution to each amber calculated in S53 is compared, and amber fragments are discriminated according to the amber type having the maximum value. For example, when the results shown in Table 1 below are obtained in S53, the type of amber fragment is determined to be yellow amber.

Figure 0006909467
Figure 0006909467

1.6.黄琥珀透明度推定工程S6
黄琥珀透明度推定工程S6(以下、「S6」と称することがある。)は、S5で黄琥珀と判別された琥珀砕片の透明度を、ファジィ推論を用いて推定する工程である。ファジィ推論はあいまいさを考慮した推論方法であるため、階調の変化が不定である琥珀の透明度推定に有用であると考えられる。図5に、S6の一実施形態を説明するフローチャートを示す。図5に示すように、黄琥珀透明度推定工程S6は、下部カラー画像取得工程S61と、下部マスク画像作成工程S62と、下部マスク画像解析工程S63と、適合度算出工程S64と、作図工程S65と、透明度算出工程S66と、を含むことが好ましい。
1.6. Yellow amber transparency estimation step S6
The yellow amber transparency estimation step S6 (hereinafter, may be referred to as “S6”) is a step of estimating the transparency of the amber fragment determined to be yellow amber in S5 by using fuzzy inference. Since fuzzy inference is an inference method that takes ambiguity into consideration, it is considered to be useful for estimating the transparency of amber in which the change in gradation is indefinite. FIG. 5 shows a flowchart illustrating one embodiment of S6. As shown in FIG. 5, the yellow amber transparency estimation step S6 includes a lower color image acquisition step S61, a lower mask image creation step S62, a lower mask image analysis step S63, a conformity calculation step S64, and a drawing step S65. It is preferable to include the transparency calculation step S66.

1.6.1.下部カラー画像取得工程S61
下部カラー画像取得工程S61(以下、「S61」と称することがある。)は、S5で黄琥珀と判別された琥珀砕片に下方から光を照射し、下部カラー画像を取得する工程である。図6に、S61の様子を模式的に示す。図6に示すように、水平面に静置された琥珀砕片1に対して、琥珀砕片1よりも鉛直方向(紙面上下方向)の下側に配置された光源2から琥珀砕片1に向けて光が照射される。この状態で、琥珀砕片1よりも鉛直方向の下側に配置された撮像手段3により撮影を行うことにより、下部カラー画像を取得する。水平面を形成する部材は、水平面を有し、琥珀砕片を静置可能であることを要し、水平面の下部から琥珀砕片1の下部カラー画像を取得可能とするため、透光性を有することを要し、透明または半透明で光を透過する部材であることが好ましい。光源2および撮像手段3は、配置が異なる点を除き、S1と同一のものと使用することができる。画像全体が暗くなることを防止する観点から、琥珀砕片表面における照度は、500lx以上であることが好ましい。一方、白飛びの量が増えることを防止する観点から、1000lx以下であることが好ましい。S61では、水平面を形成する部材が透光性を有し、該部材を透過する光を利用して撮影を行うため、S1よりも白飛びが発生し易い。そのため、S61における好ましい照度の上限値は、S1における好ましい照度の上限値よりも低く設定されている。
16.1. Lower color image acquisition process S61
The lower color image acquisition step S61 (hereinafter, may be referred to as “S61”) is a step of irradiating the amber fragment determined to be yellow amber in S5 with light from below to acquire a lower color image. FIG. 6 schematically shows the state of S61. As shown in FIG. 6, light is emitted from the light source 2 arranged below the amber crushed piece 1 in the vertical direction (vertical direction of the paper surface) to the amber crushed piece 1 with respect to the amber crushed piece 1 standing on a horizontal plane. Be irradiated. In this state, a lower color image is acquired by taking a picture with the imaging means 3 arranged vertically below the amber fragment 1. The member forming the horizontal plane needs to have a horizontal plane and allow the amber shards to stand still, and to be able to acquire a lower color image of the amber shard 1 from the lower part of the horizontal plane, so that it has translucency. Therefore, it is preferable that the member is transparent or translucent and transmits light. The light source 2 and the imaging means 3 can be used in the same manner as in S1, except that the arrangement is different. From the viewpoint of preventing the entire image from becoming dark, the illuminance on the surface of the amber fragment is preferably 500 lpx or more. On the other hand, from the viewpoint of preventing the amount of overexposure from increasing, it is preferably 1000 lpx or less. In S61, the member forming the horizontal plane has translucency, and the light transmitted through the member is used for photographing, so that overexposure is more likely to occur than in S1. Therefore, the upper limit value of the preferable illuminance in S61 is set lower than the upper limit value of the preferable illuminance in S1.

1.6.2.下部マスク画像作成工程S62
下部マスク画像作成工程S62(以下、「S62」と称することがある。)は、S61で得られる下部カラー画像にマスク処理を施し、下部マスク画像を作成する工程である。下部カラー画像に施すマスク処理の方法は、上述したS11〜14で上部カラー画像に施す処理と同様とすることができ、ここでは説明を省略する。
16.2. Lower mask image creation step S62
The lower mask image creating step S62 (hereinafter, may be referred to as “S62”) is a step of applying mask processing to the lower color image obtained in S61 to create a lower mask image. The method of mask processing applied to the lower color image can be the same as the process applied to the upper color image in S11 to 14 described above, and description thereof will be omitted here.

1.6.3.下部マスク画像解析工程S63
下部マスク画像解析工程S63(以下、「S63」と称することがある。)は、S62で得られる下部マスク画像を解析し、下部マスク画像における琥珀砕片領域の画素(琥珀画素)のRGB成分の情報を取得する工程である。下部マスク画像における琥珀画素のRGB成分の情報を取得する方法は、上述したS3で上部マスク画像における琥珀画素のRGB成分の情報を取得する方法と同様とすることができ、ここでは説明を省略する。
1.6.3. Lower mask image analysis step S63
The lower mask image analysis step S63 (hereinafter, may be referred to as “S63”) analyzes the lower mask image obtained in S62, and provides information on the RGB component of the pixels (amber pixels) in the amber fragment region in the lower mask image. Is the process of acquiring. The method of acquiring the RGB component information of the amber pixel in the lower mask image can be the same as the method of acquiring the RGB component information of the amber pixel in the upper mask image in S3 described above, and the description thereof is omitted here. ..

1.6.4.適合度算出工程S64
適合度算出工程S64(以下、「S64」と称することがある。)は、S63で得られるR成分の平均値およびB成分の平均値に基づき、予め定めた黄琥珀のG成分の平均値およびB成分の平均値を基準として、予め定めた複数の規則からなる推論規則の各規則への適合度を、前件部メンバーシップ関数を用いて算出する工程である。
1.6.4. Goodness of fit calculation process S64
The goodness-of-fit calculation step S64 (hereinafter, may be referred to as “S64”) is based on the average value of the R component and the average value of the B component obtained in S63, and a predetermined average value of the G component of yellow amber and the average value of the G component. This is a step of calculating the goodness of fit of an inference rule consisting of a plurality of predetermined rules to each rule by using the membership function of the preceding part, based on the average value of the B component.

S64において予め定める推論規則の一例を表2に示す。 Table 2 shows an example of the inference rule predetermined in S64.

Figure 0006909467
Figure 0006909467

S64では、まず対象画像のG成分およびB成分が推論規則における前件部1および前件部2にどれほど帰属しているかをグレードとして算出し、あいまいな命題を定量化する。具体的には、前件部1において、“G成分の平均値が低い”という命題をG1、“G成分の平均値が高い”という命題をG2とし、それぞれのグレードを算出する。次に、前件部2においても前件部1と同様に、“B成分の平均値が低い”という命題をB1、“B成分の平均値が高い”という命題をB2としてグレードを算出する。 In S64, first, how much the G component and the B component of the target image belong to the antecedent part 1 and the antecedent part 2 in the inference rule is calculated as a grade, and an ambiguous proposition is quantified. Specifically, in the antecedent part 1, the proposition "the average value of the G component is low" is set to G1, and the proposition "the average value of the G component is high" is set to G2, and the respective grades are calculated. Next, in the antecedent part 2, as in the antecedent part 1, the proposition that "the average value of the B component is low" is set to B1 and the proposition that "the average value of the B component is high" is set to B2.

前件部メンバーシップ関数は、例えば、図7に示す階段関数とすることができる。なお、図7において、xは対象画像における琥珀砕片領域のG成分およびB成分の平均値、Aは予め定めた透明な黄琥珀におけるG成分およびB成分の平均値、Bは予め定めた不透明な黄琥珀におけるG成分およびB成分の平均値である。予め定めた透明な黄琥珀におけるG成分およびB成分の平均値、ならびに、予め定めた不透明な黄琥珀におけるG成分およびB成分の平均値は、対照区(コントロール)として信頼に足る数の黄琥珀、茶琥珀および黒琥珀の琥珀砕片群を対象として、上記S61〜S63を行い、算出される数値とすることができる。 The antecedent membership function can be, for example, the step function shown in FIG. In FIG. 7, x is the average value of the G component and the B component of the amber fragment region in the target image, A is the average value of the G component and the B component in the predetermined transparent yellow amber, and B is the predetermined opaque value. It is an average value of G component and B component in yellow amber. The average value of G component and B component in the predetermined transparent yellow amber and the average value of G component and B component in the predetermined opaque amber are the reliable number of yellow amber as a control group (control). , Tea amber and black amber crushed pieces of amber can be subjected to the above steps S61 to S63 to obtain a calculated numerical value.

次に、以下の式(10)に示すファジィ論理積を用いて、前件部メンバーシップ関数で求めた前件部1および前件部2のグレードから各規則への適合度δ(i=1〜4)を算出する。 Next, using the fuzzy logical product shown in the following equation (10), the goodness of fit to each rule from the grades of the antecedent part 1 and the antecedent part 2 obtained by the antecedent part membership function δ i (i = 1 to 4) are calculated.

Figure 0006909467
Figure 0006909467

S64における前件部1および前件部2のグレードの算出例を表3に、各規則への適合度の算出例を表4にそれぞれ示す。 Table 3 shows an example of calculating the grades of the antecedent part 1 and the antecedent part 2 in S64, and Table 4 shows an example of calculating the degree of conformity with each rule.

Figure 0006909467
Figure 0006909467

Figure 0006909467
Figure 0006909467

1.6.5.作図工程S65
作図工程S65(以下、「S65」と称することがある。)は、S64で得られる各規則への適合度と、後件部メンバーシップ関数とのファジィ論理積から、推論結果である図形を作成する工程である。本工程で用いることができる後件部メンバーシップ関数の一例を図8に示す。また、表4に示す規則δ(i=1〜4)への適合度と、図8に示す後件部メンバーシップ関数とのファジィ論理積から推論結果ε(i=1〜4)として作成される図形を図9に示す。
1.6.5. Drawing process S65
The drawing process S65 (hereinafter, may be referred to as “S65”) creates a figure which is an inference result from the goodness of fit to each rule obtained in S64 and the fuzzy logical product of the consequent membership function. It is a process to do. FIG. 8 shows an example of the consequent membership function that can be used in this step. Further, the inference result ε i (i = 1 to 4) is obtained from the fuzzy logical product of the goodness of fit to the rule δ i (i = 1 to 4) shown in Table 4 and the consequent part membership function shown in FIG. The figure to be created is shown in FIG.

1.6.6.透明度算出工程S66
透明度算出工程S66(以下、「S66」と称することがある。)は、Mamdaniの推論法を用いて非ファジィ化を行い、S66で作成した図形の重心を求め、最終推論結果として琥珀砕片の透明度を算出する工程である。
Mamdaniの推論法に用いられる式を以下の式(11)に示す。
1.6.6. Transparency calculation step S66
In the transparency calculation step S66 (hereinafter, may be referred to as “S66”), non-fuzzying is performed using the reasoning method of Mamdani, the center of gravity of the figure created in S66 is obtained, and the transparency of the amber fragment is obtained as the final reasoning result. Is the process of calculating.
The equation used in Mamdani's inference method is shown in the following equation (11).

Figure 0006909467
ここで、εは最終推論結果、w(j=1〜3)は重み係数である。式(11)を用いて最終推論結果として透明度を算出する。図9に示す図形の重心を求め、最終推論結果として琥珀砕片の透明度(ε=81.9%)を算出した例を図10に示す。
Figure 0006909467
Here, ε 0 is the final inference result, and w j (j = 1-3) is the weighting coefficient. Transparency is calculated as the final inference result using equation (11). FIG. 10 shows an example in which the center of gravity of the figure shown in FIG. 9 is obtained and the transparency (ε 0 = 81.9%) of the amber fragment is calculated as the final inference result.

2.琥珀砕片の種別および透明度の推定装置
図11は、本発明の第2の態様に係る琥珀砕片の種別および透明度の推定装置の一実施形態に係る推定装置100を説明する図である。図11を参照しつつ、推定装置100について、以下に説明する。
図11に示すように、推定装置100は、上部カラー画像取得部10と、上部マスク画像作成部20と、上部マスク画像解析部30と、外皮物・琥珀判別部40と、琥珀種別判別部50と、黄琥珀透明度推定部60と、を備えている。推定装置100は、上記本発明の第1の態様に係る推定方法を実施可能な装置である。
2. Amber Fragment Type and Transparency Estimating Device FIG. 11 is a diagram illustrating an estimation device 100 according to an embodiment of an amber fragment type and transparency estimating device according to a second aspect of the present invention. The estimation device 100 will be described below with reference to FIG.
As shown in FIG. 11, the estimation device 100 includes an upper color image acquisition unit 10, an upper mask image creation unit 20, an upper mask image analysis unit 30, an outer skin / amber discrimination unit 40, and an amber type discrimination unit 50. And the amber transparency estimation unit 60. The estimation device 100 is a device capable of carrying out the estimation method according to the first aspect of the present invention.

2.1.上部カラー画像取得部10
上部カラー画像取得部10は、上記S1が行われる部位であり、図1に例示したように、琥珀砕片1を静置可能な水平面と、水平面に静置された琥珀砕片1に上方から光を照射可能な光源2と、撮像手段3と、を有し、琥珀砕片の上部カラー画像を取得可能な部位である。上部カラー画像取得部10において上記S1が行われ、取得された上部カラー画像に関する情報は、上部マスク画像作成部20に送られる。
2.1. Upper color image acquisition unit 10
The upper color image acquisition unit 10 is a portion where the above S1 is performed, and as illustrated in FIG. 1, light is emitted from above to a horizontal plane on which the amber crushed piece 1 can be placed and an amber crushed piece 1 placed on the horizontal plane. It has a light source 2 capable of irradiating and an imaging means 3, and is a portion capable of acquiring an upper color image of amber fragments. The above S1 is performed in the upper color image acquisition unit 10, and the acquired information on the upper color image is sent to the upper mask image creation unit 20.

2.2.上部マスク画像作成部20
上部マスク画像作成部20は、上記S2が行われる部位であり、上部カラー画像取得部10から送られる上部カラー画像に関する情報を基に、上部カラー画像にマスク処理を施し、上部マスク画像を作成する部位である。上部マスク画像作成部20において上記S2が行われ、作成された上部マスク画像に関する情報は、上部マスク画像解析部30に送られる。
2.2. Upper mask image creation unit 20
The upper mask image creation unit 20 is a portion where the above S2 is performed, and based on the information regarding the upper color image sent from the upper color image acquisition unit 10, the upper color image is masked to create an upper mask image. It is a part. The above S2 is performed in the upper mask image creating unit 20, and the information regarding the created upper mask image is sent to the upper mask image analysis unit 30.

図11に表れているように、上部マスク画像作成部20は、グレースケール化部21と、二値化部22と、補完・ノイズ除去部23と、反転処理部24と、を有し、上部カラー画像は上部マスク画像作成部20〜反転処理部24によるマスク処理を施されることが好ましい。 As shown in FIG. 11, the upper mask image creation unit 20 has a grayscale unit 21, a binarization unit 22, a complement / noise removal unit 23, and an inversion processing unit 24, and has an upper portion. It is preferable that the color image is masked by the upper mask image creating unit 20 to the inversion processing unit 24.

2.2.1.グレースケール化部21
グレースケール化部21は、上記S21が行われる部位であり、上部カラー画像取得部10から送られる上部カラー画像に関する情報を基に、上部カラー画像をグレースケール化し、グレースケール画像を作成する部位である。グレースケール化部21において上記S21が行われ、作成されたグレースケール画像に関する情報は、二値化部22に送られる。
2.2.1. Grayscale section 21
The grayscale unit 21 is a part where the above S21 is performed, and is a part where the upper color image is grayscaled and a grayscale image is created based on the information about the upper color image sent from the upper color image acquisition unit 10. be. The above S21 is performed in the grayscale unit 21, and the information regarding the created grayscale image is sent to the binarization unit 22.

2.2.2.二値化部22
二値化部22は、上記S22が行われる部位であり、グレースケール化部から送られるグレースケール画像に関する情報を基に、グレースケール画像を二値化し、二値画像を作成する部位である。二値化部22において上記S22が行われ、作成された二値画像に関する情報は、補完・ノイズ除去部23に送られる。
2.2.2. Binarization unit 22
The binarization unit 22 is a portion where the above S22 is performed, and is a portion for binarizing the grayscale image and creating a binary image based on the information regarding the grayscale image sent from the grayscale conversion unit. The above S22 is performed in the binarization unit 22, and the information regarding the created binary image is sent to the complement / noise removal unit 23.

2.2.3.補完・ノイズ除去部23
補完・ノイズ除去部23は、上記S23が行われる部位であり、二値化部22から送られるグレース二値画像に関する情報を基に、二値画像の補完およびノイズ除去を行う部位である。補完・ノイズ除去部23において上記S23が行われ、補完およびノイズ除去後の二値画像に関する情報は、反転処理部24に送られる。
2.2.3. Complementary / noise removing unit 23
The complement / noise removal unit 23 is a portion where the above S23 is performed, and is a portion where the binary image is complemented and noise is removed based on the information regarding the grace binary image sent from the binarization unit 22. The above S23 is performed in the complement / noise removal unit 23, and the information regarding the binary image after the complement / noise removal is sent to the inversion processing unit 24.

2.2.4.反転処理部24
反転処理部24は、上記S24が行われる部位であり、補完・ノイズ除去部23から送られる補完およびノイズ除去後の二値画像に関する情報を基に、補完およびノイズ除去後の二値画像に反転処理を施し、上部マスク画像を作成する部位である。反転処理部24において上記S24が行われ、作成された上部マスク画像に関する情報は、上部マスク画像解析部30に送られる。
2.2.4. Inversion processing unit 24
The inversion processing unit 24 is a portion where the above S24 is performed, and is inverted to a binary image after completion and noise removal based on the information regarding the binary image after completion and noise removal sent from the complement / noise removal unit 23. This is the part that is processed to create the upper mask image. The above S24 is performed in the inversion processing unit 24, and the information regarding the created upper mask image is sent to the upper mask image analysis unit 30.

2.3.上部マスク画像解析部30
上部マスク画像解析部30は、上記S3が行われる部位であり、上部マスク画像作成部20から送られる上部マスク画像に関する情報を基に、上部マスク画像を解析し、上部マスク画像における琥珀画素のRGB成分およびHSV成分の情報を取得する部位である。上部マスク画像解析部30において上記S3が行われ、取得された上部マスク画像における琥珀画素のRGB成分およびHSV成分の情報は、外皮物・琥珀判別部40ならびに琥珀種別判別部50に送られる。
2.3. Upper mask image analysis unit 30
The upper mask image analysis unit 30 is a part where the above S3 is performed, analyzes the upper mask image based on the information about the upper mask image sent from the upper mask image creation unit 20, and RGB of the amber pixels in the upper mask image. It is a part for acquiring information on components and HSV components. The above S3 is performed in the upper mask image analysis unit 30, and the information on the RGB component and the HSV component of the amber pixel in the acquired upper mask image is sent to the outer skin / amber discrimination unit 40 and the amber type discrimination unit 50.

2.4.外皮物・琥珀判別部40
外皮物・琥珀判別部40は、上記S4が行われる部位であり、上部マスク画像解析部30から送られる上部マスク画像における琥珀画素のRGB成分およびHSV成分の情報を基に、R成分の平均値とV成分の平均値とが等しい(R=Vである)画素の割合、および、S成分の平均値から、外皮物と琥珀との判別を行う部位である。外皮物・琥珀判別部40において上記S4が行われ、外皮物と判別された場合には、対象画像に写る琥珀砕片が外皮物である旨の情報が推定結果表示部70に送られ、琥珀と判別された場合には、上部マスク画像に関する情報が琥珀種別判別部50に送られる。
2.4. Exodermis / amber discrimination unit 40
The outer skin / amber discrimination unit 40 is a portion where the above S4 is performed, and the average value of the R component is based on the information of the RGB component and the HSV component of the amber pixel in the upper mask image sent from the upper mask image analysis unit 30. It is a part where the outer skin and amber are discriminated from the ratio of pixels in which the average value of the V component and the average value of the V component are equal (R = V) and the average value of the S component. When the above S4 is performed by the outer skin / amber discrimination unit 40 and it is determined to be the outer skin, information indicating that the amber fragment shown in the target image is the outer skin is sent to the estimation result display unit 70, and the amber is displayed. If it is determined, information about the upper mask image is sent to the amber type determination unit 50.

2.5.琥珀種別判別部50
琥珀種別判別部50は、上記S5が行われる部位であり、外皮物・琥珀判別部40から送られる上部マスク画像に関する情報を基に、上部マスク画像の琥珀画素を対象に、黄琥珀、茶琥珀および黒琥珀からなる琥珀種別の各琥珀への帰属度を算出し、帰属度が最も高い琥珀種別に琥珀砕片を判別する部位である。琥珀種別判別部50において上記S5が行われ、茶琥珀または黒琥珀と判別された場合には、対象画像に写る琥珀砕片が茶琥珀または黒琥珀である旨の情報が推定結果表示部70に送られ、黄琥珀と判別された場合には、黄琥珀である旨の情報が黄琥珀透明度推定部60に送られる。
2.5. Amber type discriminating unit 50
The amber type discrimination unit 50 is a part where the above S5 is performed, and based on the information about the upper mask image sent from the outer skin / amber discrimination unit 40, the amber pixels of the upper mask image are targeted as yellow amber and brown amber. It is a part that calculates the degree of attribution to each amber of the amber type consisting of black amber and black amber, and discriminates amber fragments to the amber type with the highest degree of attribution. When the above S5 is performed by the amber type determination unit 50 and it is determined to be brown amber or black amber, information indicating that the amber fragment shown in the target image is brown amber or black amber is sent to the estimation result display unit 70. If it is determined to be yellow amber, information indicating that it is yellow amber is sent to the yellow amber transparency estimation unit 60.

図11に表れているように、琥珀種別判別部50は、R成分近似度算出部51と、H成分近似度算出部52と、帰属度算出部53と、判別処理部54と、を有することが好ましい。 As shown in FIG. 11, the amber type discrimination unit 50 includes an R component approximation degree calculation unit 51, an H component approximation degree calculation unit 52, an attribution degree calculation unit 53, and a discrimination processing unit 54. Is preferable.

2.5.1.R成分近似度算出部51
R成分近似度算出部51は、上記S51が行われる部位であり、予め定めた黄琥珀、茶琥珀および黒琥珀のR成分の平均値ならびに上部マスク画像解析部30から送られるR成分の平均値を用いてR成分の近似度を算出する部位である。R成分近似度算出部51において上記S51が行われ、算出されたR成分の近似度に関する情報が帰属度算出部53に送られる。
2.5.1. R component approximation degree calculation unit 51
The R component approximation degree calculation unit 51 is a portion where the above S51 is performed, and is a predetermined average value of the R components of yellow amber, brown amber, and black amber, and an average value of the R component sent from the upper mask image analysis unit 30. It is a part for calculating the degree of approximation of the R component using. The R component approximation degree calculation unit 51 performs the above S51, and the calculated information on the approximation degree of the R component is sent to the attribution degree calculation unit 53.

2.5.2.H成分近似度算出部52
H成分近似度算出部52は、上記S52が行われる部位であり、予め定めた黄琥珀、茶琥珀および黒琥珀のH成分の最頻値ならびに上部マスク画像解析部30から送られるH成分の最頻値を用いてH成分の近似度を算出する部位である。H成分近似度算出部52において上記S52が行われ、算出されたH成分の近似度に関する情報が帰属度算出部53に送られる。
25.2. H component approximation degree calculation unit 52
The H component approximation degree calculation unit 52 is a part where the above S52 is performed, and is the mode of the H component of the predetermined yellow amber, brown amber, and black amber, and the mode of the H component sent from the upper mask image analysis unit 30. This is a part for calculating the degree of approximation of the H component using the mode. The above S52 is performed in the H component approximation degree calculation unit 52, and the calculated information on the approximation degree of the H component is sent to the attribution degree calculation unit 53.

2.5.3.帰属度算出部53
帰属度算出部53は、上記S53が行われる部位であり、R成分近似度算出部51から送られるR成分の近似度の情報およびH成分近似度算出部52から送られるH成分の近似度に基づいて、琥珀画素の黄琥珀、茶琥珀および黒琥珀への帰属度を算出する部位である。帰属度算出部53において上記S53が行われ、算出された各琥珀への帰属度に関する情報が判別処理部54に送られる。
2.5.3. Attribution calculation unit 53
The attribution calculation unit 53 is a part where the above S53 is performed, and the information on the approximation degree of the R component sent from the R component approximation degree calculation unit 51 and the approximation degree of the H component sent from the H component approximation degree calculation unit 52 are used. Based on this, it is a part for calculating the degree of attribution of amber pixels to yellow amber, brown amber, and black amber. The attribution degree calculation unit 53 performs the above S53, and the calculated information regarding the attribution degree to each amber is sent to the discrimination processing unit 54.

2.5.4.判別処理部54
判別処理部54は、上記S54が行われる部位であり、帰属度算出部53から送られる各琥珀への帰属度に関する情報に基づき、帰属度が最も高い琥珀の種別に、琥珀砕片を判別する部位である。判別処理部54において上記S54が行われ、茶琥珀または黒琥珀と判別された場合には、対象画像に写る琥珀砕片が茶琥珀または黒琥珀である旨の情報が推定結果表示部70に送られ、黄琥珀と判別された場合には、黄琥珀である旨の情報が黄琥珀透明度推定部60に送られる。
2.5.4. Discrimination processing unit 54
The discrimination processing unit 54 is a part where the above S54 is performed, and is a part for discriminating amber fragments according to the type of amber having the highest degree of attribution based on the information regarding the degree of attribution to each amber sent from the degree of attribution calculation unit 53. Is. When the determination processing unit 54 performs the above S54 and determines that the amber is brown or black amber, information indicating that the amber fragment shown in the target image is brown or black amber is sent to the estimation result display unit 70. If it is determined to be yellow amber, information indicating that it is yellow amber is sent to the yellow amber transparency estimation unit 60.

2.6.黄琥珀透明度推定部60
黄琥珀透明度推定部60は、上記S54が行われる部位であり、琥珀種別判別部50で黄琥珀と判別された琥珀砕片の透明度を、ファジィ推論を用いて推定する部位である。黄琥珀透明度推定部60においてS6が行われ、琥珀砕片の透明度が算出される。
2.6. Yellow amber transparency estimation unit 60
The yellow amber transparency estimation unit 60 is a portion where the above S54 is performed, and is a portion for estimating the transparency of the amber fragment determined to be yellow amber by the amber type determination unit 50 by using fuzzy inference. S6 is performed in the yellow amber transparency estimation unit 60, and the transparency of the amber fragment is calculated.

図11に表れているように、黄琥珀透明度推定部60は、下部カラー画像取得部61と、下部マスク画像作成部62と、下部マスク画像解析部63と、適合度算出部64と、作図部65と、透明度算出部66と、を含むことが好ましい。 As shown in FIG. 11, the yellow amber transparency estimation unit 60 includes a lower color image acquisition unit 61, a lower mask image creation unit 62, a lower mask image analysis unit 63, a goodness of fit calculation unit 64, and a drawing unit. It is preferable to include 65 and the transparency calculation unit 66.

2.6.1.下部カラー画像取得部61
下部カラー画像取得部61は、上記S61が行われる部位であり、図6に例示したように、琥珀砕片1を静置可能な水平面と、水平面に静置された琥珀砕片1に上方から光を照射可能な光源2と、撮像手段3と、を有し、琥珀砕片の下部カラー画像を取得可能な部位である。下部カラー画像取得部61において上記S61が行われ、取得された下部カラー画像に関する情報は、下部マスク画像作成部62に送られる。
2.6.1. Lower color image acquisition unit 61
The lower color image acquisition unit 61 is a portion where the above S61 is performed, and as illustrated in FIG. 6, light is emitted from above to a horizontal plane on which the amber crushed piece 1 can be placed and an amber crushed piece 1 placed on the horizontal plane. It has a light source 2 capable of irradiating and an imaging means 3, and is a portion capable of acquiring a lower color image of amber fragments. The lower color image acquisition unit 61 performs the above S61, and the acquired information on the lower color image is sent to the lower mask image creation unit 62.

2.6.2.下部マスク画像作成部62
下部マスク画像作成部62は、上記S62が行われる部位であり、下部カラー画像取得部61から送られる下部カラー画像に関する情報を基に、下部カラー画像にマスク処理を施し、下部マスク画像を作成する部位である。下部マスク画像作成部62において上記S62が行われ、作成された下部マスク画像に関する情報は、下部マスク画像解析部63に送られる。
2.6.2. Lower mask image creation unit 62
The lower mask image creation unit 62 is a portion where the above S62 is performed, and based on the information regarding the lower color image sent from the lower color image acquisition unit 61, the lower color image is masked to create the lower mask image. It is a part. The above S62 is performed in the lower mask image creating unit 62, and the information regarding the created lower mask image is sent to the lower mask image analysis unit 63.

2.6.3.下部マスク画像解析部63
下部マスク画像解析部63は、上記S63が行われる部位であり、下部マスク画像作成部62から送られる下部マスク画像に関する情報を基に、下部マスク画像を解析し、下部マスク画像における琥珀画素のRGB成分の情報を取得する部位である。下部マスク画像解析部63において上記S63が行われ、取得された下部マスク画像における琥珀画素のRGB成分に関する情報は、適合度算出部64に送られる。
2.6.3. Lower mask image analysis unit 63
The lower mask image analysis unit 63 is a part where the above S63 is performed, analyzes the lower mask image based on the information about the lower mask image sent from the lower mask image creation unit 62, and RGB of the amber pixels in the lower mask image. This is the part where the information of the ingredients is acquired. The lower mask image analysis unit 63 performs the above S63, and the information regarding the RGB component of the amber pixel in the acquired lower mask image is sent to the goodness-of-fit calculation unit 64.

2.6.4.適合度算出部64
適合度算出部64は、上記S64が行われる部位であり、下部マスク画像解析部63から送られる下部マスク画像における琥珀画素のRGB成分に関する情報を基に、R成分の平均値およびB成分の平均値に基づき、予め定めた黄琥珀のG成分の平均値およびB成分の平均値を基準として、予め定めた複数の規則からなる推論規則の各規則への適合度を、前件部メンバーシップ関数を用いて算出する部位である。適合度算出部64において上記S64が行われ、算出された各規則への適合度に関する情報は、作図部65に送られる。
2.6.4. Goodness of fit calculation unit 64
The conformity calculation unit 64 is a part where the above S64 is performed, and the average value of the R component and the average of the B component are based on the information on the RGB component of the amber pixel in the lower mask image sent from the lower mask image analysis unit 63. Based on the value, the degree of conformity to each rule of the inference rule consisting of a plurality of predetermined rules is determined based on the predetermined average value of the G component and the average value of the B component of yellow amber. It is a part calculated using. The goodness-of-fit calculation unit 64 performs the above S64, and the calculated information regarding the goodness of fit to each rule is sent to the drawing unit 65.

2.6.5.作図部65
作図部65は、上記S65が行われる部位であり、適合度算出部64から送られる各規則への適合度に関する情報を基に、各規則への適合度と、後件部メンバーシップ関数とのファジィ論理積から、推論結果である図形を作成する部位である。作図部65において上記S65が行われ、作成される図形に関する情報は、透明度算出部66に送られる。
2.6.5. Drawing department 65
The drawing unit 65 is a part where the above S65 is performed, and based on the information regarding the goodness of fit to each rule sent from the goodness-of-fit calculation unit 64, the goodness of fit to each rule and the consequent part membership function This is the part that creates the figure that is the inference result from the fuzzy logical product. The drawing unit 65 performs the above S65, and information about the created figure is sent to the transparency calculation unit 66.

2.6.6.透明度算出部66
透明度算出部66は、上記S66が行われる部位であり、作図部65から送られる図形に関する情報を基に、Mamdaniの推論法を用いて非ファジィ化を行い、S66で作成した図形の重心を求め、最終推論結果として琥珀砕片の透明度を算出する部位である。透明度算出部66において上記S66が行われ、最終推論結果として算出される琥珀砕片の透明度に関する情報は、推定結果表示部70に送られる。
2.6.6. Transparency calculation unit 66
The transparency calculation unit 66 is a part where the above S66 is performed, and based on the information about the figure sent from the drawing unit 65, non-fuzzy is performed using the inference method of Mamdani, and the center of gravity of the figure created in S66 is obtained. , This is the part that calculates the transparency of amber fragments as the final inference result. The above S66 is performed in the transparency calculation unit 66, and the information regarding the transparency of the amber fragment calculated as the final inference result is sent to the estimation result display unit 70.

2.7.推定結果表示部70
推定結果表示部70は、外皮物・琥珀判別部40、琥珀種別判別部50または黄琥珀透明度推定部60から送られる推定結果に関する情報を受信し、該推定結果に関する情報に基づき、表示装置に表示するためのデータを生成し、表示装置に表示する部位である。図11には、推定結果表示部70が推定装置100とは別に設けられる形態を例示したが、推定装置100が推定結果表示部70を備える形態であってもよい。
2.7. Estimated result display unit 70
The estimation result display unit 70 receives information on the estimation result sent from the outer skin / amber discrimination unit 40, the amber type discrimination unit 50, or the yellow amber transparency estimation unit 60, and displays the information on the display device based on the information on the estimation result. This is the part that generates the data to be displayed and displays it on the display device. Although FIG. 11 illustrates a form in which the estimation result display unit 70 is provided separately from the estimation device 100, the estimation device 100 may be provided with the estimation result display unit 70.

3.琥珀砕片の種別および透明度の推定プログラム
本発明は、推定プログラムとしての側面も有する。即ち、本発明の第3の態様は、上記S1〜S6をコンピュータに実行させるための、琥珀砕片の種別および透明度の推定プログラムである。コンピュータが備えるCPU(中央演算子)等のプロセッサに、本発明の第3の態様に係る推定プログラムを実行させることにより、出力結果として琥珀砕片の種別および透明度に関する情報を取得することが可能となる。
3. 3. Amber fragment type and transparency estimation program The present invention also has an aspect as an estimation program. That is, the third aspect of the present invention is a program for estimating the type and transparency of amber fragments for causing a computer to execute the above S1 to S6. By causing a processor such as a CPU (central processor) included in the computer to execute the estimation program according to the third aspect of the present invention, it is possible to acquire information on the type and transparency of the amber fragment as an output result. ..

以下、実施例により、本発明についてさらに詳細に説明するが、本発明は以下の具体的形態に限定されるものではない。 Hereinafter, the present invention will be described in more detail with reference to Examples, but the present invention is not limited to the following specific embodiments.

<琥珀種別判別試験>
予め従来の方法である目視により判別した黄琥箔70個、茶琥珀40個、黒琥珀40個および外皮物35個からなる計185個の琥珀砕片を対象に、本発明の推定方法を適用し、琥珀種別の判別が可能か否か検証した。
<Amber type discrimination test>
The estimation method of the present invention is applied to a total of 185 amber fragments consisting of 70 yellow amber foils, 40 brown ambers, 40 black ambers and 35 exodermis, which are visually determined by a conventional method in advance. , It was verified whether it is possible to distinguish the amber type.

(上部カラー画像取得処理)
可視領域カメラ(Canon EOS7D 5184×3456画素;RGB各256階調)を用いて、暗室内で各琥珀砕片の上部カラー画像を取得した。台上に白画用紙を載せて形成した水平面上に琥珀砕片を静置し、水平面から高さ55cmの位置に可視領域カメラを設置した。各琥珀種別の上部カラー画像取得時の照度を表7に示す。
(Upper color image acquisition process)
An upper color image of each amber fragment was acquired in a dark room using a visible region camera (Canon EOS 7D 5184 × 3456 pixels; 256 gradations of RGB each). Amber fragments were placed statically on a horizontal plane formed by placing white drawing paper on a table, and a visible region camera was installed at a height of 55 cm from the horizontal plane. Table 7 shows the illuminance at the time of acquiring the upper color image of each amber type.

(上部マスク画像作成処理)
取得した各琥珀砕片の上部カラー画像にグレースケール化、二値化、補完・ノイズ除去および画素の反転の処理を施し、各琥珀砕片の上部マスク画像を作成した。二値化における閾値を、上記式(3)を用いて自動で設定し、オープニング処理およびクロージング処理を、10回ずつ施した。
(Upper mask image creation process)
The upper color image of each of the acquired amber fragments was subjected to grayscale, binarization, complementation / noise removal, and pixel inversion processing to create an upper mask image of each amber fragment. The threshold value in binarization was automatically set using the above equation (3), and the opening process and the closing process were performed 10 times each.

(上部マスク画像解析処理)
作成した上部マスク画像に存在する琥珀砕片領域の画素(琥珀画素)を抽出した。なお、RGB成分の閾値を240とし、画素(x,y)におけるRGB成分が全て閾値以上の場合、その画素は白飛びにより色情報を失っているものと仮定し、背景部同様に解析対象外とした。抽出した琥珀画素のRGB成分を基に、R成分ヒストグラム、G成分ヒストグラム、およびB成分ヒストグラムを算出し、RGBヒストグラムを基に、平均値、分散値、および最頻値を算出し、これらを特徴量として取得した。取得したRGB成分からHSV成分への変換を行い、H成分ヒストグラム、S成分ヒストグラム、およびV成分ヒストグラムをそれぞれ算出し、HSVヒストグラムを基に、平均値 、分散値、および最頻値を算出し、これらを特徴量として取得した。
(Upper mask image analysis processing)
The pixels (amber pixels) of the amber fragment region existing in the created upper mask image were extracted. The threshold value of the RGB component is set to 240, and when all the RGB components in the pixels (x, y) are equal to or higher than the threshold value, it is assumed that the pixel loses color information due to overexposure, and it is not subject to analysis like the background part. And said. Based on the RGB components of the extracted amber pixels, the R component histogram, G component histogram, and B component histogram are calculated, and the average value, variance value, and mode value are calculated based on the RGB histogram, and these are the features. Obtained as a quantity. The acquired RGB component is converted to the HSV component, the H component histogram, the S component histogram, and the V component histogram are calculated respectively, and the average value, the variance value, and the mode value are calculated based on the HSV histogram. These were acquired as feature quantities.

(外皮物・琥珀判別処理)
各琥珀砕片の上部マスク画像の解析結果から、琥珀画素においてR=V、すなわちMAX(R,G,B)=Rとなる画素の割合、および、S成分の平均値を算出した。R=Vとなる割合の閾値を75%、S成分の平均値の閾値を32.9とし、R=Vとなる割合が75%未満、且つ、S成分の平均値が32.9未満の場合を外皮物、それ以外の場合を琥珀と判別した。
(Exodermis / amber discrimination processing)
From the analysis result of the upper mask image of each amber fragment, the ratio of pixels in which R = V, that is, MAX (R, G, B) = R in the amber pixels, and the average value of the S component were calculated. When the threshold value of the ratio of R = V is 75%, the threshold value of the average value of the S component is 32.9, the ratio of R = V is less than 75%, and the average value of the S component is less than 32.9. Was identified as an exodermis, and in other cases it was identified as amber.

(琥珀種別判別)
琥珀と判別された琥珀砕片が写る上部マスク画像における琥珀砕片領域のR成分およびH成分を基に、黄琥珀、茶琥珀および黒琥珀への帰属度を算出し、琥珀砕片の琥珀種別を判別した。具体的には、琥珀と判別された琥珀砕片が写る上部マスク画像における琥珀砕片領域のR成分の平均値と予め定めた各琥珀種別におけるR成分の平均値とからR成分の近似度を算出し、琥珀と判別された対象画像の琥珀砕片領域のH成分の最頻値と予め定めた各琥珀種別におけるH成分の最頻値とからH成分の近似度を算出し、R成分の近似度とH成分の近似度に基づいて帰属度を算出し、帰属度が最も高い琥珀に琥珀砕片を判別した。R成分の近似度の算出に用いた予め定めた各琥珀種別におけるR成分の平均値μおよび誤差許容範囲Cの値を以下の表5に、H成分の近似度の算出に用いた予め定めた各琥珀種別におけるH成分の最頻値mおよび誤差許容範囲Cの値を以下の表6に、それぞれ示す。また、判別結果を表7に示す。
(Amber type discrimination)
Based on the R and H components of the amber fragment region in the upper mask image showing the amber fragment identified as amber, the degree of attribution to yellow amber, brown amber and black amber was calculated, and the amber type of the amber fragment was determined. .. Specifically, the degree of approximation of the R component is calculated from the average value of the R component in the amber fragment region in the upper mask image showing the amber fragment determined to be amber and the average value of the R component in each predetermined amber type. , The mode of the H component in the amber fragment region of the target image determined to be amber and the mode of the H component in each predetermined amber type are calculated, and the degree of approximation of the H component is calculated as the degree of approximation of the R component. The degree of attribution was calculated based on the degree of approximation of the H component, and amber fragments were discriminated from the amber having the highest degree of attribution. The values of the average value μ a of the R component and the value of the error tolerance C in each of the predetermined amber types used for calculating the degree of approximation of the R component are determined in advance used for calculating the degree of approximation of the H component in Table 5 below. and the value of the mode value m a and the error tolerance range C of the H component in each succinic type in Table 6 below, respectively. The discrimination results are shown in Table 7.

Figure 0006909467
Figure 0006909467

Figure 0006909467
Figure 0006909467

Figure 0006909467
Figure 0006909467

[結果]
表7に示したように、185枚の画像に写る琥珀砕片185個中167個(90.3%)の判別に成功した。特に黄琥珀において、70個中70個(100%)の判別に成功した。一方、外皮物の判別においては、35枚中20枚(57.1%)と黄琥珀、茶琥珀および黒琥珀よりも判別精度が低かった。これは、露出した琥珀の色情報に起因し、R=Vの割合およびS成分の平均値が高くなったためと考える。なお、対象画像1枚あたりの処理時間を計測した結果、平均処理時間は約53msであった。
[result]
As shown in Table 7, 167 out of 185 amber fragments (90.3%) appearing in 185 images were successfully identified. Especially in yellow amber, 70 out of 70 (100%) were successfully discriminated. On the other hand, in the discrimination of exodermis, 20 out of 35 (57.1%) were lower in discrimination accuracy than yellow amber, brown amber and black amber. It is considered that this is because the ratio of R = V and the average value of the S component became high due to the color information of the exposed amber. As a result of measuring the processing time per target image, the average processing time was about 53 ms.

2.黄琥珀透明度推定試験
琥珀種別判別試験で用いた黄琥珀の琥珀砕片70個を対象に、本発明の推定方法を適用し、黄琥珀の透明度の推定精度を検証した。なお、予め従来の方法である目視による判別により、琥珀砕片70個のうち50個が透明な黄琥珀、20個が不透明な黄琥珀に判別されている。
2. Yellow Amber Transparency Estimation Test The estimation method of the present invention was applied to 70 pieces of yellow amber used in the amber type discrimination test, and the estimation accuracy of the transparency of yellow amber was verified. It should be noted that, of the 70 pieces of amber crushed pieces, 50 pieces are classified as transparent yellow amber and 20 pieces are classified as opaque yellow amber by visual discrimination which is a conventional method in advance.

(下部カラー画像取得処理)
琥珀種別判別試験における上部カラー画像取得処理で用いた可視領域カメラを水平面よりも下側に設置し、水平面を透明樹脂板により形成した以外は、上部カラー画像取得処理と同様に下部カラー画像を取得した。
(Lower color image acquisition process)
The lower color image is acquired in the same way as the upper color image acquisition process, except that the visible region camera used in the upper color image acquisition process in the amber type discrimination test is installed below the horizontal plane and the horizontal plane is formed of a transparent resin plate. did.

(下部マスク画像作成処理)
取得した各琥珀砕片の下部カラー画像に、琥珀種別判別試験における上部マスク画像作成処理と同様の処理を施し、下部マスク画像を作成した。
(Lower mask image creation process)
The lower color image of each of the acquired amber fragments was subjected to the same processing as the upper mask image creation process in the amber type discrimination test to create a lower mask image.

(下部マスク画像解析処理)
作成した各琥珀砕片の下部マスク画像に対し、琥珀種別判別試験における上部マスク画像解析処理と同様の処理を施し、下部マスク画像における琥珀画素のRGB成分の情報を取得した。
(Lower mask image analysis processing)
The lower mask image of each of the prepared amber fragments was subjected to the same processing as the upper mask image analysis processing in the amber type discrimination test, and the information of the RGB component of the amber pixel in the lower mask image was acquired.

(適合度算出処理)
表2に示した推論規則を採用し、下部マスク画像解析処理で得られたR成分の平均値およびB成分の平均値に基づき、予め定めた黄琥珀のG成分の平均値およびB成分の平均値を基準として、推論規則の各規則への適合度を算出した。予め定めた透明な黄琥珀におけるG成分およびB成分の平均値μ、ならびに、予め定めた透明な黄琥珀におけるG成分およびB成分の平均値μを以下の表8に示す。
(Goodness of fit calculation process)
The inference rules shown in Table 2 are adopted, and based on the average value of the R component and the average value of the B component obtained by the lower mask image analysis process, the average value of the G component and the average of the B component of yellow amber are predetermined. The degree of conformity of the inference rule to each rule was calculated based on the value. Average value mu c of the G component and the B component in the predetermined transparent yellow amber, and indicates the average value mu c of the G component and the B component in the predetermined transparent yellow amber in Table 8 below.

Figure 0006909467
Figure 0006909467

(作図処理)
各規則への適合度と、後件部メンバーシップ関数とのファジィ論理積から、図9に例示したような推論結果である図形を作成した。
(Drawing process)
From the goodness of fit to each rule and the fuzzy logical product of the consequent membership function, a figure which is an inference result as illustrated in FIG. 9 was created.

(透明度算出処理)
Mamdaniの推論法を用いて非ファジィ化を行い、作成された図形の重心を求め、最終推論結果として琥珀砕片の透明度を算出した。算出された透明度が70%以上であるものを透明な黄琥珀、それ以外を不透明な黄琥珀として判別した。判別結果を表9に示す。
(Transparency calculation process)
Non-fuzzy was performed using Mamdani's inference method, the center of gravity of the created figure was obtained, and the transparency of the amber fragment was calculated as the final inference result. Those having a calculated transparency of 70% or more were discriminated as transparent yellow amber, and those having a transparency of 70% or more were discriminated as opaque yellow amber. The discrimination results are shown in Table 9.

Figure 0006909467
Figure 0006909467

[結果]
表9に示したように、黄琥珀透明度推定法は対象画像70枚中57枚(81.4%)の判別に成功した。特に透明な黄琥珀において、50枚中45枚(90.0%)の判別に成功した。さらに、透明な黄琥珀における平均透明度は79.4%、不透明な黄琥珀における平均透明度は62.1%となっており、どちらも透明度の評価基準を満たしていた。一方、不透明な黄琥珀の透明度推定の中には、透明度を70%以上と誤判別する場合を認めた。これは、対象琥珀の厚さが薄く、光を透過しやすくなったため、G成分およびB成分の値が高くなったことに起因すると考えられる。なお、対象画像1枚あたりの処理時間を計測した結果、平均処理時間は約68msであった。
[result]
As shown in Table 9, the yellow amber transparency estimation method succeeded in discriminating 57 out of 70 target images (81.4%). Especially in the transparent yellow amber, 45 out of 50 sheets (90.0%) were successfully discriminated. Further, the average transparency of transparent yellow amber was 79.4%, and the average transparency of opaque yellow amber was 62.1%, both of which satisfied the evaluation criteria of transparency. On the other hand, in the estimation of the transparency of opaque yellow amber, there was a case where the transparency was erroneously determined to be 70% or more. It is considered that this is because the thickness of the target amber is thin and the light is easily transmitted, so that the values of the G component and the B component are high. As a result of measuring the processing time per target image, the average processing time was about 68 ms.

1 琥珀砕片
2 光源
3 撮像手段
10 上部カラー画像取得部
20 上部マスク画像作成部
21 グレースケール化部
22 二値化部
23 補完・ノイズ除去部
24 反転処理部
30 上部マスク画像解析部
40 外皮物・琥珀判別部
50 琥珀種別判別部
51 R成分近似度算出部
52 H成分近似度算出部
53 帰属度算出部
54 判別処理部
60 黄琥珀透明度推定部
61 下部カラー画像取得部
62 下部マスク画像作成部
63 下部マスク画像解析部
64 適合度算出部
65 作図部
66 透明度算出部
100 推定装置
1 Amber shards 2 Light source 3 Imaging means 10 Upper color image acquisition unit 20 Upper mask image creation unit 21 Grayscale conversion unit 22 Binarization unit 23 Complementary / noise removal unit 24 Inversion processing unit 30 Upper mask image analysis unit 40 Outer skin / Amber discrimination unit 50 Amber type discrimination unit 51 R component approximation degree calculation unit 52 H component approximation degree calculation unit 53 Attribution degree calculation unit 54 Discrimination processing unit 60 Yellow amber transparency estimation unit 61 Lower color image acquisition unit 62 Lower mask image creation unit 63 Lower mask image analysis unit 64 Conformity calculation unit 65 Drawing unit 66 Transparency calculation unit 100 Estimator

Claims (9)

水平面に静置された琥珀砕片に上方から光を照射し、上部カラー画像を取得する上部カラー画像取得工程と、
前記上部カラー画像にマスク処理を施し、上部マスク画像を作成する上部マスク画像作成工程と、
前記上部マスク画像を解析し、前記上部マスク画像における前記琥珀砕片領域の画素のRGB成分およびHSV成分の情報を取得する上部マスク画像解析工程と、
前記上部マスク画像解析工程で得られるR成分の平均値とV成分の平均値とが等しい画素の割合、および、S成分の平均値から、外皮物と琥珀との判別を行う外皮物・琥珀判別工程と、
前記外皮物・琥珀判別工程で琥珀と判別された前記琥珀砕片が写る前記上部マスク画像の前記琥珀砕片領域の画素を対象に、黄琥珀、茶琥珀および黒琥珀からなる琥珀種別の各琥珀への帰属度を算出し、前記帰属度が最も高い琥珀種別に前記琥珀砕片を判別する琥珀種別判別工程と、
前記琥珀種別判別工程で黄琥珀と判別された前記琥珀砕片の透明度を、ファジィ推論を用いて推定する黄琥珀透明度推定工程と、
を含む、琥珀砕片の種別および透明度の推定方法。
An upper color image acquisition process for acquiring an upper color image by irradiating amber fragments placed on a horizontal surface with light from above,
An upper mask image creation step of applying mask processing to the upper color image to create an upper mask image, and
An upper mask image analysis step of analyzing the upper mask image and acquiring information on RGB components and HSV components of the pixels of the amber fragment region in the upper mask image.
Distinguishing between exodermis and amber from the ratio of pixels in which the average value of the R component and the average value of the V component obtained in the upper mask image analysis step are equal to each other and the average value of the S component. Process and
Each amber type consisting of yellow amber, brown amber, and black amber is targeted at the pixels of the amber fragment region of the upper mask image in which the amber fragment identified as amber in the outer skin / amber discrimination step is captured. An amber type determination step of calculating the degree of attribution and determining the amber fragment as the amber type having the highest degree of attribution,
An amber transparency estimation step of estimating the transparency of the amber fragment determined to be yellow amber in the amber type determination step using fuzzy inference, and a yellow amber transparency estimation step.
A method for estimating the type and transparency of amber fragments, including.
前記上部マスク画像作成工程が、
前記上部カラー画像をグレースケール化し、グレースケール画像を得るグレースケール化工程と、
前記グレースケール画像を二値化し、二値画像を得る二値化工程と、
前記二値画像の補完およびノイズ除去を行う補完・ノイズ除去工程と、
前記補完・ノイズ除去工程で得られる二値画像に反転処理を施す反転処理工程と、
を含む、請求項1に記載の琥珀砕片の種別および透明度の推定方法。
The upper mask image creation process
A grayscale step of grayscale the upper color image to obtain a grayscale image, and
A binarization step of binarizing the grayscale image to obtain a binary image, and
Complementing / noise removing steps for complementing and removing noise from the binary image,
Inversion processing step of performing inversion processing on the binary image obtained in the complementation / noise removal step, and
The method for estimating the type and transparency of the amber fragment according to claim 1, which comprises.
前記琥珀種別判別工程が、
予め定めた黄琥珀、茶琥珀および黒琥珀のR成分の平均値ならびに前記上部マスク画像解析工程で得られるR成分の平均値を用いてR成分の近似度を算出するR成分近似度算出工程と、
予め定めた黄琥珀、茶琥珀および黒琥珀のH成分の最頻値ならびに前記上部マスク画像解析工程で得られるH成分の最頻値を用いてH成分の近似度を算出するH成分近似度算出工程と、
前記R成分の近似度および前記H成分の近似度に基づいて、前記琥珀砕片領域の画素の黄琥珀、茶琥珀および黒琥珀への帰属度を算出する帰属度算出工程と、
前記帰属度が最も高い琥珀の種別に、前記琥珀砕片を判別する判別処理工程と、
を含む、請求項1または2に記載の琥珀砕片の種別および透明度の推定方法。
The amber type determination process
With the R component approximation degree calculation step of calculating the approximation degree of the R component using the predetermined average value of the R component of yellow amber, brown amber and black amber and the average value of the R component obtained in the upper mask image analysis step. ,
H component approximation degree calculation to calculate the approximation degree of H component using the mode value of H component of yellow amber, brown amber and black amber determined in advance and the mode value of H component obtained in the upper mask image analysis step. Process and
A degree of attribution calculation step of calculating the degree of attribution of the pixel of the amber fragment region to yellow amber, brown amber and black amber based on the degree of approximation of the R component and the degree of approximation of the H component.
A discrimination processing step for discriminating the amber fragments according to the type of amber having the highest degree of attribution, and
The method for estimating the type and transparency of amber shards according to claim 1 or 2, which comprises.
前記黄琥珀透明度推定工程が、
前記琥珀種別判別工程で黄琥珀と判別された前記琥珀砕片に下方から光を照射し、下部カラー画像を取得する下部カラー画像取得工程と、
前記下部カラー画像にマスク処理を施し、下部マスク画像を作成する下部マスク画像作成工程と、
前記下部マスク画像を解析し、前記下部マスク画像における前記琥珀砕片領域の画素のRGB成分の情報を取得する下部マスク画像解析工程と、
前記下部マスク画像解析工程で得られるG成分の平均値およびB成分の平均値に基づき、予め定めた黄琥珀のG成分の平均値およびB成分の平均値を基準として、予め定めた複数の規則からなる推論規則の前記各規則への適合度を、前件部メンバーシップ関数を用いて算出する適合度算出工程と、
前記各規則への適合度と後件部メンバーシップ関数とのファジィ論理積から、推論結果である図形を作成する作図工程と、
Mamdaniの推論法を用いて非ファジィ化を行い前記図形の重心を求め、最終推論結果として前記琥珀砕片の透明度を算出する透明度算出工程と、
を含む、請求項1〜3のいずれかに記載の琥珀砕片の種別および透明度の推定方法。
The yellow amber transparency estimation step
A lower color image acquisition step of irradiating the amber fragment determined to be yellow amber in the amber type determination step with light from below to acquire a lower color image, and a lower color image acquisition step.
A lower mask image creation step of applying mask processing to the lower color image to create a lower mask image,
A lower mask image analysis step of analyzing the lower mask image and acquiring information on the RGB component of the pixel of the amber fragment region in the lower mask image.
Based on the average value of the G component and the average value of the B component obtained in the lower mask image analysis step, a plurality of predetermined rules are set based on the average value of the G component and the average value of the B component of yellow amber. A goodness-of-fit calculation process for calculating the goodness of fit of an inference rule consisting of the above rules using the membership function of the preceding part, and
From the fuzzy logical product of the goodness of fit to each rule and the consequent membership function, the drawing process to create the figure that is the inference result, and
A transparency calculation step of performing non-fuzzying using Mamdani's inference method to obtain the center of gravity of the figure, and calculating the transparency of the amber fragment as the final inference result.
The method for estimating the type and transparency of amber fragments according to any one of claims 1 to 3.
前記推論規則の前件部が、以下のA1〜A4からなり、
A1:G成分の平均値が低く、且つ、B成分の平均値が低い
A2:G成分の平均値が低く、且つ、B成分の平均値が高い
A3:G成分の平均値が高く、且つ、B成分の平均値が低い
A4:G成分の平均値が高く、且つ、B成分の平均値が高い
前記推論規則の後件部が、以下のB1〜B3からなり、
B1:透明度が低い
B2:透明度が高いまたは透明度が低い
B3:透明度が高い
前記推論規則が、以下のδ〜δの規則からなる、
δ:前件部がA1であれば、後件部はB1である
δ:前件部がA2であれば、後件部はB2である
δ:前件部がA3であれば、後件部はB2である
δ:前件部がA4であれば、後件部はB3である
請求項4に記載の琥珀砕片の種別および透明度の推定方法。
The antecedent part of the inference rule consists of the following A1 to A4.
A1: The average value of the G component is low and the average value of the B component is low. A2: The average value of the G component is low and the average value of the B component is high. The average value of the B component is low A4: The average value of the G component is high and the average value of the B component is high.
B1: Low transparency B2: High transparency or low transparency B3: High transparency The inference rule consists of the following rules δ 1 to δ 4 .
δ 1 : If the antecedent part is A1, the consequent part is B1 δ 2 : If the antecedent part is A2, the consequent part is B2 δ 3 : If the antecedent part is A3, The consequent part is B2 δ 4 : If the antecedent part is A4, the consequent part is B3. The method for estimating the type and transparency of amber shards according to claim 4.
前記上部カラー画像取得工程で照射される光の前記琥珀表面における照度が500lx以上2500lx以下である、請求項1〜5のいずれかに記載の琥珀砕片の種別および透明度の推定方法。 The method for estimating the type and transparency of amber fragments according to any one of claims 1 to 5, wherein the illuminance of the light emitted in the upper color image acquisition step on the amber surface is 500 xl or more and 2500 lp or less. 前記下部カラー画像取得工程で照射される光の前記琥珀表面における照度が500lx以上1000lx以下である、請求項4〜6のいずれかに記載の琥珀砕片の種別および透明度の推定方法。 The method for estimating the type and transparency of amber fragments according to any one of claims 4 to 6, wherein the illuminance of the light emitted in the lower color image acquisition step on the amber surface is 500 xl or more and 1000 lp or less. 琥珀砕片を静置可能な水平面と、前記水平面に静置された前記琥珀砕片に上方から光を照射可能な光源と、撮像手段と、を有し、前記琥珀砕片の上部カラー画像を取得可能な上部カラー画像取得部と、
前記上部カラー画像にマスク処理を施し、上部マスク画像を作成する上部マスク画像作成部と、
前記上部マスク画像を解析し、前記上部マスク画像における前記琥珀砕片領域の画素のRGB成分およびHSV成分の情報を取得する上部マスク画像解析部と、
前記上部マスク画像解析部で得られR成分の平均値とV成分の平均値とが等しい画素の割合、および、S成分の平均値から、外皮物と琥珀との判別を行う外皮物・琥珀判別部と、
前記外皮物・琥珀判別部で琥珀と判別された前記琥珀砕片が写る前記上部マスク画像の前記琥珀砕片領域の画素を対象に、黄琥珀、茶琥珀および黒琥珀からなる琥珀種別の各琥珀への帰属度を算出し、前記帰属度が最も高い琥珀種別に前記琥珀砕片を判別する琥珀種別判別部と、
前記琥珀種別判別部で黄琥珀と判別された前記琥珀砕片の透明度を、ファジィ推論を用いて推定する黄琥珀透明度推定部と、
を備える、琥珀砕片の種別および透明度の推定装置。
It has a horizontal plane on which the amber shards can be placed, a light source capable of irradiating the amber shards on the horizontal plane with light from above, and an imaging means, and can acquire an upper color image of the amber shards. Upper color image acquisition section and
An upper mask image creation unit that creates an upper mask image by masking the upper color image,
An upper mask image analysis unit that analyzes the upper mask image and acquires information on RGB components and HSV components of pixels in the amber fragment region in the upper mask image.
Distinguishing between exodermis and amber from the ratio of pixels in which the average value of the R component and the average value of the V component are equal to each other obtained by the upper mask image analysis unit and the average value of the S component. Department and
Each amber type consisting of yellow amber, brown amber, and black amber is targeted at the pixels of the amber fragment region of the upper mask image in which the amber fragment determined to be amber by the outer skin / amber discrimination unit is captured. An amber type discriminating unit that calculates the degree of attribution and discriminates the amber fragment into the amber type having the highest degree of attribution,
An amber transparency estimation unit that estimates the transparency of the amber fragment determined to be yellow amber by the amber type determination unit using fuzzy inference, and a yellow amber transparency estimation unit.
A device for estimating the type and transparency of amber fragments.
水平面に静置された琥珀砕片に上方から光を照射し、上部カラー画像を取得する工程と、
前記上部カラー画像にマスク処理を施し、上部マスク画像を作成する工程と、
前記上部マスク画像を解析し、前記上部マスク画像における前記琥珀砕片領域の画素のRGB成分およびHSV成分の情報を取得する工程と、
前記上部マスク画像解析工程で得られるR成分の平均値とV成分の平均値とが等しい画素の割合、および、S成分の平均値から、外皮物と琥珀との判別を行う工程と、
前記外皮物・琥珀判別工程で琥珀と判別された前記琥珀砕片が写る前記上部マスク画像の前記琥珀砕片領域の画素を対象に、黄琥珀、茶琥珀および黒琥珀からなる琥珀種別の各琥珀への帰属度を算出し、前記帰属度が最も高い琥珀種別に前記琥珀砕片を判別する工程と、
前記琥珀種別判別工程で黄琥珀と判別された前記琥珀砕片の透明度を、ファジィ推論を用いて推定する工程と、
をコンピュータに実行させるための、琥珀砕片の種別および透明度の推定プログラム。
The process of irradiating amber fragments placed on a horizontal surface with light from above and acquiring an upper color image, and
The process of masking the upper color image to create the upper mask image, and
A step of analyzing the upper mask image and acquiring information on the RGB component and the HSV component of the pixel of the amber fragment region in the upper mask image.
A step of discriminating between the exodermis and amber from the ratio of pixels in which the average value of the R component and the average value of the V component obtained in the upper mask image analysis step are equal to each other and the average value of the S component.
Each amber type consisting of yellow amber, brown amber, and black amber is targeted at the pixels of the amber fragment region of the upper mask image in which the amber fragment identified as amber in the outer skin / amber discrimination step is captured. A step of calculating the degree of attribution and determining the amber fragment according to the amber type having the highest degree of attribution, and
A step of estimating the transparency of the amber fragment determined to be yellow amber in the amber type determination step by using fuzzy inference, and a step of estimating.
Amber fragment type and transparency estimation program to run the computer.
JP2017153214A 2017-08-08 2017-08-08 Amber Fragment Type and Transparency Estimator, Estimator, and Estimator Program Active JP6909467B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017153214A JP6909467B2 (en) 2017-08-08 2017-08-08 Amber Fragment Type and Transparency Estimator, Estimator, and Estimator Program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017153214A JP6909467B2 (en) 2017-08-08 2017-08-08 Amber Fragment Type and Transparency Estimator, Estimator, and Estimator Program

Publications (2)

Publication Number Publication Date
JP2019032231A JP2019032231A (en) 2019-02-28
JP6909467B2 true JP6909467B2 (en) 2021-07-28

Family

ID=65523252

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017153214A Active JP6909467B2 (en) 2017-08-08 2017-08-08 Amber Fragment Type and Transparency Estimator, Estimator, and Estimator Program

Country Status (1)

Country Link
JP (1) JP6909467B2 (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7341835B2 (en) * 2019-10-09 2023-09-11 株式会社日立製作所 Powder mixing system and powder mixing method
CN113155784A (en) * 2021-03-19 2021-07-23 东营市阔海水产科技有限公司 Water transparency detection method, terminal device and storage medium
CN113267473B (en) * 2021-05-18 2022-09-23 陕西理工大学 Light transmission detection imaging device and method
CN115718081B (en) * 2022-11-15 2024-04-12 中国地质大学(武汉) Construction method and application of amber origin traceability model based on spectral fingerprint

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4847187B2 (en) * 2006-04-11 2011-12-28 エーザイマシナリー株式会社 Inspection apparatus and inspection method
US7889330B2 (en) * 2008-10-10 2011-02-15 Parata Systems, Llc Method of taking an image of an object residing in a transparent, colored container
JP5637399B2 (en) * 2009-11-16 2014-12-10 国立大学法人豊橋技術科学大学 Pearl evaluation method and evaluation apparatus
CN106461565A (en) * 2014-02-07 2017-02-22 株式会社真珠科学研究所 Pearl assessment system, pearl assessment device and pearl assessment method

Also Published As

Publication number Publication date
JP2019032231A (en) 2019-02-28

Similar Documents

Publication Publication Date Title
JP6909467B2 (en) Amber Fragment Type and Transparency Estimator, Estimator, and Estimator Program
US10565479B1 (en) Identifying and excluding blurred areas of images of stained tissue to improve cancer scoring
CN107633503B (en) Image processing method for automatically detecting residual straws in grains
JP5546317B2 (en) Visual inspection device, visual inspection discriminator generation device, visual inspection discriminator generation method, and visual inspection discriminator generation computer program
CN105184787B (en) A kind of license camera and method for portrait scratch figure automatically
EP1229493B1 (en) Multi-mode digital image processing method for detecting eyes
US7970212B2 (en) Method for automatic detection and classification of objects and patterns in low resolution environments
JP4725298B2 (en) Visual inspection method using images
CN109086687A (en) The traffic sign recognition method of HOG-MBLBP fusion feature based on PCA dimensionality reduction
Khoshroo et al. Classification of wheat cultivars using image processing and artificial neural networks.
CN107154044B (en) Chinese food image segmentation method
Nguyen et al. Cell splitting with high degree of overlapping in peripheral blood smear
CN109313699A (en) The device and method for carrying out target identification for the input picture to a vehicle
CN108844957A (en) A kind of tobacco leaf oil new detecting method based on machine vision
JP2017053699A (en) Wavelength decision method of near-infrared image capturing used in substance determination, and substance determination method using near-infrared image
RU2476932C1 (en) Automated system of biomedical microimage analysis for detection and characterisation of fixed class informative objects against inhomogeneous background
JP2007080087A (en) Facial parts extraction method and face authentication device
Pratap et al. Development of Ann based efficient fruit recognition technique
CN110188693B (en) Improved complex environment vehicle feature extraction and parking discrimination method
Seng et al. Research Article Research on Law‘s Mask Texture Analysis System Reliability
Rivera Augmented reality labels for security signs based on color segmentation with PSO for assisting colorblind people
Junxiong et al. Feature extraction of jujube fruit wrinkle based on the watershed segmentation
Helwan ITDS: Iris tumor detection system using image processing techniques
CN109690289A (en) It is segregated analytical equipment and method
Singh et al. Identification of acrylamide in fried potato crisps using image processing in wavelet domain

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20171026

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200730

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210528

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210608

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210624

R150 Certificate of patent or registration of utility model

Ref document number: 6909467

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150