JP2020103284A - 肉の骨の判別装置等の判別装置及び肉の骨判別方法等の判別方法、ならびに肉の骨判別プログラム等の判別プログラム - Google Patents
肉の骨の判別装置等の判別装置及び肉の骨判別方法等の判別方法、ならびに肉の骨判別プログラム等の判別プログラム Download PDFInfo
- Publication number
- JP2020103284A JP2020103284A JP2019231162A JP2019231162A JP2020103284A JP 2020103284 A JP2020103284 A JP 2020103284A JP 2019231162 A JP2019231162 A JP 2019231162A JP 2019231162 A JP2019231162 A JP 2019231162A JP 2020103284 A JP2020103284 A JP 2020103284A
- Authority
- JP
- Japan
- Prior art keywords
- image
- light
- visible light
- image data
- processing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 210000000988 bone and bone Anatomy 0.000 title claims abstract description 162
- 238000000034 method Methods 0.000 title claims abstract description 138
- 235000013372 meat Nutrition 0.000 title claims abstract description 125
- 238000000605 extraction Methods 0.000 claims abstract description 194
- 238000003384 imaging method Methods 0.000 claims abstract description 83
- 238000013135 deep learning Methods 0.000 claims abstract description 74
- 230000001678 irradiating effect Effects 0.000 claims abstract description 60
- 241001474374 Blennius Species 0.000 claims description 183
- 235000013305 food Nutrition 0.000 claims description 127
- 125000000391 vinyl group Chemical group [H]C([*])=C([H])[H] 0.000 claims description 96
- 229920002554 vinyl polymer Polymers 0.000 claims description 96
- 238000000638 solvent extraction Methods 0.000 claims description 84
- OKTJSMMVPCPJKN-UHFFFAOYSA-N Carbon Chemical compound [C] OKTJSMMVPCPJKN-UHFFFAOYSA-N 0.000 claims description 74
- 229910052799 carbon Inorganic materials 0.000 claims description 74
- 238000006243 chemical reaction Methods 0.000 claims description 72
- 238000010801 machine learning Methods 0.000 claims description 57
- 235000015170 shellfish Nutrition 0.000 claims description 56
- 241000251468 Actinopterygii Species 0.000 claims description 46
- 241000238557 Decapoda Species 0.000 claims description 46
- 235000015277 pork Nutrition 0.000 claims description 45
- 235000013311 vegetables Nutrition 0.000 claims description 39
- 235000009419 Fagopyrum esculentum Nutrition 0.000 claims description 32
- 241000219051 Fagopyrum Species 0.000 claims description 23
- 240000008620 Fagopyrum esculentum Species 0.000 claims description 9
- 238000012634 optical imaging Methods 0.000 claims description 9
- 235000003434 Sesamum indicum Nutrition 0.000 claims description 4
- 241000207961 Sesamum Species 0.000 claims 2
- 230000005855 radiation Effects 0.000 abstract 1
- 238000010191 image analysis Methods 0.000 description 52
- 210000000845 cartilage Anatomy 0.000 description 45
- 238000013473 artificial intelligence Methods 0.000 description 30
- 210000004027 cell Anatomy 0.000 description 28
- 239000006071 cream Substances 0.000 description 17
- 240000005856 Lyophyllum decastes Species 0.000 description 14
- 235000013194 Lyophyllum decastes Nutrition 0.000 description 14
- 210000003195 fascia Anatomy 0.000 description 14
- 244000046052 Phaseolus vulgaris Species 0.000 description 7
- 235000010627 Phaseolus vulgaris Nutrition 0.000 description 7
- 235000012149 noodles Nutrition 0.000 description 6
- 241000143060 Americamysis bahia Species 0.000 description 5
- 241000224489 Amoeba Species 0.000 description 5
- 238000004458 analytical method Methods 0.000 description 5
- 238000010586 diagram Methods 0.000 description 4
- 230000006870 function Effects 0.000 description 4
- 235000020989 red meat Nutrition 0.000 description 4
- 241000282373 Panthera pardus Species 0.000 description 3
- 244000061456 Solanum tuberosum Species 0.000 description 3
- 235000002595 Solanum tuberosum Nutrition 0.000 description 3
- 238000013528 artificial neural network Methods 0.000 description 3
- 239000003086 colorant Substances 0.000 description 3
- 230000008014 freezing Effects 0.000 description 3
- 238000007710 freezing Methods 0.000 description 3
- 210000001087 myotubule Anatomy 0.000 description 3
- 230000000007 visual effect Effects 0.000 description 3
- 244000000231 Sesamum indicum Species 0.000 description 2
- 238000012790 confirmation Methods 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 238000012850 discrimination method Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 239000000284 extract Substances 0.000 description 2
- 239000000203 mixture Substances 0.000 description 2
- 210000003205 muscle Anatomy 0.000 description 2
- 210000000578 peripheral nerve Anatomy 0.000 description 2
- 230000011218 segmentation Effects 0.000 description 2
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 2
- 241000282412 Homo Species 0.000 description 1
- 241000237503 Pectinidae Species 0.000 description 1
- 241001261506 Undaria pinnatifida Species 0.000 description 1
- 238000010521 absorption reaction Methods 0.000 description 1
- FFBHFFJDDLITSX-UHFFFAOYSA-N benzyl N-[2-hydroxy-4-(3-oxomorpholin-4-yl)phenyl]carbamate Chemical compound OC1=C(NC(=O)OCC2=CC=CC=C2)C=CC(=C1)N1CCOCC1=O FFBHFFJDDLITSX-UHFFFAOYSA-N 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 210000004556 brain Anatomy 0.000 description 1
- 238000005352 clarification Methods 0.000 description 1
- 238000007635 classification algorithm Methods 0.000 description 1
- 239000000470 constituent Substances 0.000 description 1
- 235000019625 fat content Nutrition 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 239000012634 fragment Substances 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 238000007689 inspection Methods 0.000 description 1
- 238000004020 luminiscence type Methods 0.000 description 1
- 210000003516 pericardium Anatomy 0.000 description 1
- 235000020637 scallop Nutrition 0.000 description 1
- 238000004088 simulation Methods 0.000 description 1
Abstract
Description
)の赤外光は、例えば、1450nm付近を中心として水吸収能のピークを有する。これらの違いによって、食肉切断面に赤外光又は可視光を照射した場合、赤身部、骨部及び脂肪部ごとに反射光の輝度値は異なる。」、
「上記第1画像及び上記第2画像の赤身部及び脂肪部の反射光の輝度値は同一であり、骨部の反射光の輝度値は異なるため、上記減算部において、第1画像と第2画像とを減算処理すると、骨部のみを識別表示した差分画像を得ることができる。」、
また、得られた骨部の位置情報を脱骨装置に用いることで、食肉切断面上又は食肉切断面近傍に存在する骨部の自動脱骨が可能になる。
ここで、「食肉切断面近傍に存在する骨部」とは、切断面からの距離が幾つかの実施形態によって骨部を識別可能な距離にある骨部を意味する。」とされる(特許文献1[0007])
しかしながら、後工程での輝度などを特徴づけする画像処理などが必要になり、そこで人間の目を使った調整が必要になり、二値値化、周縁明瞭化処理、「赤外光を照射して該赤外光の反射光を取り入れ第1画像を得る第1撮影部と、前記切断面に可視光を照射して該可視光の反射光を取り入れ第2画像を得る第2撮影部と、前記第1画像と前記第2画像とを減算処理して前記骨部の領域を識別表示した差分画像を得る減算部」も必要とするなど、作業が複雑化する課題を有する。
1.肉のブロックを切り分けたとき、骨と軟骨を見分けるのに、紫外線(波長10 - 400 nm)、紫色の可視光(波長380 - 450 nm)、青色の可視光(波長450 - 495 nm)を照射することが有効である。
2.紫外線(波長10 - 400 nm)では、骨が白に見える。骨の周りの、筋膜の部分が紫色の豹紋状アメーバ状にみえる。
3.紫色可視光(波長380 - 450 nm)では、骨は白黄色にみえる。骨の周りの、筋膜の部分が薄紫色の豹紋状アメーバ状にみえる。
4.青色可視光(波長450 - 495 nm)では、骨は黄色にみえる。骨の周りの、筋膜の部分は、検出可能な色形ともない。
紫色可視光及び青色可視光は、オレンジあるいは黄色あるいはフィルターを通してみるとはっきり見え、骨が他と識別容易となる。
6.氷の影響について
肉は冷凍してある。紫色、青色の可視光は氷の影響を受けにくい。しかし、紫外線は、氷の影響を受け、照射すると乱反射をする。それで、暗闇の中で、例えば、青色、紫色、赤外線の順で照射し、得られた画像を重ね合わせすることで、骨と軟骨を見分けるのに有効である。
7.作業環境について
作業は、暗所で行うのが望ましい。暗所でないと骨の発光する光がとても弱いのでコンピュータで輝度を処理して2値化したり、エッジ処理(周縁明瞭化処理)が必須となる。
第2実施例関係
海藻類であるもずくに黄色の釣糸が入っている。釣糸の蛍光発光はつよい。
(1)可視光(波長 400 nm-700 nm)と紫外線(波長 10 - 400 nm)を併用して照射する。
釣糸は蛍光発光して見える。隙間から見える下地となるコンベアの白地は見える。
(2)紫外線(波長 10 - 400 nm)を照射する。
釣糸は見える。
可視光のみの照射では、釣糸は光りにくい。
海藻類であるもずくに緑色の釣糸が入っている。釣糸の蛍光発光は微弱である。
(1)可視光(波長 400 nm-700 nm)と紫外線(波長 10 - 400 nm)を併用して照射する。
釣糸は見える。漁網の破片は見える。
(2)紫外線(波長 10 - 400 nm)を照射する。
釣糸は見えない。
可視光のみの照射では、釣糸は光りにくい。
海藻類であるもずくに茶色の釣糸が入っている。茶色の釣糸は、蛍光発光がある。
(1)可視光(波長 400 nm-700 nm)と紫外線(波長 10 - 400 nm)を併用して照射する。
釣糸は見える。
(2)紫外線(波長 10 - 400 nm)を照射する。
釣糸はかすかに見える。
可視光のみの照射では、釣糸は光りにくい。
海藻類であるもずくにエビが入っている。蛍光発光がある。
(1)可視光(波長 400 nm-700 nm)と紫外線(波長 10 - 400 nm)を併用して照射する。
エビは見える。隙間から見える下地となるコンベアの白地が見える。
(2)紫外線(波長 10 - 400 nm)を照射する。
エビ、隙間、は見えない。
可視光のみの照射では、エビは光にくい。
海藻類であるもずくに魚が入っている。魚は蛍光発光がある。
(1)可視光(波長 400 nm-700 nm)と紫外線(波長 10 - 400 nm)を併用して照射する。
魚は見える。隙間から見える下地となるコンベアの白地は見える。
(2)紫外線(波長 10 - 400 nm)を照射する。
魚は薄く見える。隙間は、見えない。
可視光のみの照射では、魚は光りにくい。
海藻類であるもずくに貝が入っている。貝は蛍光発光がある。
(1)可視光(波長 400 nm-700 nm)と紫外線(波長 10 - 400 nm)を併用して照射する。
貝は見える。隙間から見える下地となるコンベアの白地は見える。
(2)紫外線(波長 10 - 400 nm)を照射する。
貝は薄く見える。隙間は、見えない。
可視光のみの照射では、貝は光りにくい。
海藻類であるもずくに異種海藻が入っている。異種海藻は、蛍光発光がある。
(1)可視光(波長 400 nm-700 nm)と紫外線(波長 10 - 400 nm)を併用して照射する。
異種海藻は見える。
(2)紫外線(波長 10 - 400 nm)を照射する。
異種海藻は薄く見える。
可視光のみの照射では、異種海藻は光りにくい。
根野菜であるもやしに根腐れ部位が入っている。根腐れ部位は、蛍光発光はない。
(1)可視光(波長 400 nm-700 nm)を照射する。
根腐れ部位は見える。
(2)可視光(赤のみ)(波長 620-750 nm)を照射する。蛍光発光するものが無いため赤色可視光を照射した。
根腐れ部位は薄く見える。
根野菜であるもやしに黒変した傷み部位が入っている。傷み部位に蛍光発光はない。
(1)可視光(波長 400 nm-700 nm)を照射する。
傷み部位は見える。茎は見える。
(2)可視光(赤のみ)(波長 620-750 nm)を照射する。蛍光発光するものが無いため赤色可視光を照射した。
黒変した傷み部位は薄く見える。
根野菜であるもやしに黒変した傷み部位が入っている。黒変した傷み部位は、蛍光発光はない。
(1)可視光(波長 400 nm-700 nm)を照射する。
傷み部位は見える。茎は見える。
(2)可視光(赤のみ)(波長 620-750 nm)を照射する。蛍光発光するものが無いため赤色可視光を照射した。
黒変した傷み部位は薄く見える。茎はぼんやり映る。
乾燥海藻類である乾燥海苔にカーボン漁網が入っている。漁網は、蛍光発光はない。
(1)近赤外線(波長 0.7 - 2.5 μm)を照射する。
カーボン漁網は見える。
横から近赤外線光を当てた。
(2)近赤外線光以外の光を当てた。
乾燥海藻類である乾燥わかめにカーボン漁網が入っている。カーボン漁網は、蛍光発光はない。
(1)近赤外線(波長 0.7 - 2.5 μm)を照射する。
カーボン漁網は見える。側面から近赤外線を照射したため、側面は白色に映り見やすくなる。
横から近赤外線光を当てた。
(2)近赤外線光以外の光を当てた。
蕎麦麺に極小羽虫が入っている。蛍光発光はない。
(1)近赤外線(波長 0.7 - 2.5 μm)を照射する。
極小羽虫は見える。
横から近赤外線光を当てた。側面から近赤外線を照射したため、側面は白色に映り見やすくなる。
(2)白色光を照射した。
透明ビニル入り豚肉こまぎれに透明ビニルが入っている。透明ビニルは、蛍光発光はない。乱反射はある。
(1)可視光(波長 400 nm-700 nm)を照射する。透明ビニルは乱反射あり。
(2)可視光(赤のみ)(波長 620-750 nm)を照射する。蛍光発光するものが無いため赤色可視光を照射した。
透明ビニル入り豚肉こまぎれに透明ビニルが入っている。透明ビニルの蛍光発光はない。乱反射はある。
(1)可視光(波長 400 nm-700 nm)を照射する。透明ビニル袋の乱反射あり。
(2)可視光(赤のみ)(波長 620-750 nm)を照射する。蛍光発光するものが無いため赤色可視光を照射した。
透明ビニル入り豚肉こまぎれに透明ビニルが入っている。透明ビニルは、蛍光発光はない。乱反射はある。
(1)可視光(波長 400 nm-700 nm)を照射する。乱反射あり。
(2)可視光(赤のみ)(波長 620-750 nm)を照射する。蛍光発光するものが無いため赤色可視光を照射した。
揚げ物の衣の剥がれまたは凍結部位が混在した揚げ物であるコロッケである。
(1)可視光(青色光のみ)(波長450 - 495 nm)を照射した。
(2)可視光(赤色光のみ)(波長 620-750 nm)を照射した。
(3)可視光(白色光)を照射した。
(4)可視光(緑色光のみ)(波長 495-570 nm)を照射した。
揚げ物の衣の剥がれまたは凍結部位が混在した揚げ物であるクリームコロッケである。
(1)可視光(青色光のみ)(波長450 - 495 nm)を照射した。
(2)可視光(赤色光のみ)(波長 620-750 nm)を照射した。
(3)可視光(白色光)を照射した。
(4)可視光(緑色光のみ)(波長 495-570 nm)を照射した。
揚げ物の衣の剥がれまたは凍結部位が混在した揚げ物であるフライドチキンである。
(1)可視光(青色光のみ)(波長450 - 495 nm)を照射した。
(2)可視光(赤色光のみ)(波長 620-750 nm)を照射した。
(3)可視光(緑色光のみ)(波長 495-570 nm)を照射した。
(4)可視光(青プラス白色)を照射した。
暗所で、
切断面に紫外光を照射して該紫外光の反射光を取り入れ紫外光画像を得る紫外光撮影部と、
切断面に紫色光を照射して該紫色光の反射光を取り入れ紫色光画像を得る紫色光撮影部と、
切断面に青色光を照射して該青色光の反射光を取り入れ青色光画像を得る青色光撮影部と、
から得られる、画像データから抽出対象物を抽出するにあたり、肉の切断面の骨部を判別する肉の骨部判別装置であって、
前記画像データを区分分割する区分分割手段と、
ディープラーニングの手法による前記抽出対象物の特徴量の機械学習結果を有し、前記機械学習結果に基づいて、前記区分分割手段により分割された前記画像データの前記区分ごとに、前記区分が前記抽出対象物である確率を算出する画像識別手段と、
前記画像識別手段により算出された、前記区分ごとの前記抽出対象物である確率を画素値に変換する識別結果変換手段と、
前記識別結果変換手段により変換された前記画素値を有する画像に画像処理を行う画像処理手段と
を備えることを特徴とする肉の骨判別装置、
からなる。
前記画像処理手段は、前記区分分割手段により分割された前記画像データに画像処理を行い、
前記画像識別手段は、前記画像処理手段により画像処理された前記画像データに対して、前記画像データの前記区分ごとに、前記抽出対象物である確率を算出することを特徴とする肉の骨判別装置、からなる。
紫色光撮影部にオレンジあるいは黄色のフィルターを通して画像を得ることを特徴とする肉の骨部判別装置、からなる。
青色光撮影部にオレンジあるいは黄色のフィルターを通して画像を得ることを特徴とする肉の骨部判別装置、からなる。
暗所で、
切断面に紫外光を照射して該紫外光の反射光を取り入れ紫外光画像を得る紫外光撮影部と、
切断面に紫色光を照射して該紫色光の反射光を取り入れ紫色光画像を得る紫色光撮影部と、
切断面に青色光を照射して該青色光の反射光を取り入れ青色光画像を得る青色光撮影部と、
から得られる、
画像データから抽出対象物を抽出するにあたり、肉の切断面の骨部を判別する肉の骨部判別方法であって、
前記画像データを区分分割する区分分割ステップと、
ディープラーニングの手法による前記抽出対象物の特徴量の機械学習結果に基づいて、
前記区分分割ステップの処理により分割された前記画像データの前記区分ごとに、前記区分が前記抽出対象物である確率を算出する画像識別ステップと、
前記画像識別ステップの処理により算出された、前記区分ごとの前記抽出対象物である確率を画素値に変換する識別結果変換ステップと、
前記識別結果変換ステップの処理により変換された前記画素値を有する画像に画像処理
を行う画像処理ステップと
を含むことを特徴とする肉の骨部判別方法、からなる。
紫色光撮影部にオレンジあるいは黄色のフィルターを通して画像を得ることを特徴とする肉の骨部判別方法、からなる。
青色光撮影部にオレンジあるいは黄色のフィルターを通して画像を得ることを特徴とする肉の骨部判別方法、からなる。
暗所で、
切断面に紫外光を照射して該紫外光の反射光を取り入れ紫外光画像を得る紫外光撮影部と、
切断面に紫色光を照射して該紫色光の反射光を取り入れ紫色光画像を得る紫色光撮影部と、
切断面に青色光を照射して該青色光の反射光を取り入れ青色光画像を得る青色光撮影部と、
から得られる、
画像データから抽出対象物を抽出するにあたり、肉の切断面の骨部を判別する肉の骨部判別処理をコンピュータに実行させるためのプログラムであって、
前記画像データを区分分割する区分分割ステップと、
ディープラーニングの手法による前記抽出対象物の特徴量の機械学習結果に基づいて、
前記区分分割ステップの処理により分割された前記画像データの前記区分ごとに、前記区分が前記抽出対象物である確率を算出する画像識別ステップと、
前記画像識別ステップの処理により算出された、前記区分ごとの前記抽出対象物である確率を画素値に変換する識別結果変換ステップと、
前記識別結果変換ステップの処理により変換された前記画素値を有する画像に画像処理を行う画像処理ステップと
を含むことを特徴とするプログラム、からなる。
釣り糸またはえびまたは魚または貝または異種海藻が混在した海藻類に可視光を照射して該可視光の反射光を取り入れ可視光画像を得る可視光撮影部と、
釣り糸またはえびまたは魚または貝または異種海藻が混在した海藻類に紫外光を照射して該紫外光の反射光を取り入れ紫外光画像を得る紫外色光撮影部と、
から得られる、画像データから抽出対象物を抽出するにあたり、釣り糸またはえびまたは魚または貝または異種海藻が混在した海藻類から釣り糸またはえびまたは魚または貝または異種海藻を判別する釣り糸またはえびまたは魚または貝または異種海藻の判別装置であって、
前記画像データを区分分割する区分分割手段と、
ディープラーニングの手法による前記抽出対象物の特徴量の機械学習結果を有し、前記機械学習結果に基づいて、前記区分分割手段により分割された前記画像データの前記区分ごとに、前記区分が前記抽出対象物である確率を算出する画像識別手段と、
前記画像識別手段により算出された、前記区分ごとの前記抽出対象物である確率を画素値に変換する識別結果変換手段と、
前記識別結果変換手段により変換された前記画素値を有する画像に画像処理を行う画像処理手段と
を備えることを特徴とする釣り糸またはえびまたは魚または貝または異種海藻が混在した海藻類から釣り糸またはえびまたは魚または貝または異種海藻を判別する釣り糸またはえびまたは魚または貝または異種海藻の判別装置、からなる。
前記画像処理手段は、前記区分分割手段により分割された前記画像データに画像処理を行い、
前記画像識別手段は、前記画像処理手段により画像処理された前記画像データに対して、前記画像データの前記区分ごとに、前記抽出対象物である確率を算出することを特徴とする、釣り糸またはえびまたは魚または貝または異種海藻が混在した海藻類から釣り糸またはえびまたは魚または貝または異種海藻を判別する釣り糸またはえびまたは魚または貝または異種海藻の判別装置、からなる。
釣り糸またはえびまたは魚または貝または異種海藻が混在した海藻類に可視光を照射して該可視光の反射光を取り入れ可視光画像を得る可視光撮影部と、
釣り糸またはえびまたは魚または貝または異種海藻が混在した海藻類に紫外光を照射して該紫外光の反射光を取り入れ紫外光画像を得る紫外色光撮影部と、
から得られる、画像データから抽出対象物を抽出するにあたり、釣り糸またはえびまたは魚または貝または異種海藻が混在した海藻類から釣り糸またはえびまたは魚または貝または異種海藻を判別する釣り糸またはえびまたは魚または貝または異種海藻の判別方法であって、
前記画像データを区分分割する区分分割ステップと、
ディープラーニングの手法による前記抽出対象物の特徴量の機械学習結果に基づいて、前記区分分割ステップの処理により分割された前記画像データの前記区分ごとに、前記区分が前記抽出対象物である確率を算出する画像識別ステップと、
前記画像識別ステップの処理により算出された、前記区分ごとの前記抽出対象物である確率を画素値に変換する識別結果変換ステップと、
前記識別結果変換ステップの処理により変換された前記画素値を有する画像に画像処理を行う画像処理ステップと
を含むことを特徴とする釣り糸またはえびまたは魚または貝または異種海藻が混在した海藻類から釣り糸またはえびまたは魚または貝または異種海藻を判別する釣り糸またはえびまたは魚または貝または異種海藻の判別方法置、からなる。
釣り糸またはえびまたは魚または貝または異種海藻が混在した海藻類に可視光を照射して該可視光の反射光を取り入れ可視光画像を得る可視光撮影部と、
釣り糸またはえびまたは魚または貝または異種海藻が混在した海藻類に紫外光を照射して該紫外光の反射光を取り入れ紫外光画像を得る紫外色光撮影部と、
から得られる、画像データから抽出対象物を抽出するにあたり、釣り糸またはえびまたは魚または貝または異種海藻が混在した海藻類から釣り糸またはえびまたは魚または貝または異種海藻を判別する釣り糸またはえびまたは魚または貝または異種海藻の判別処理をコンピュータに実行させるためのプログラムであって、
前記画像データを区分分割する区分分割ステップと、
ディープラーニングの手法による前記抽出対象物の特徴量の機械学習結果に基づいて、前記区分分割ステップの処理により分割された前記画像データの前記区分ごとに、前記区分が前記抽出対象物である確率を算出する画像識別ステップと、
前記画像識別ステップの処理により算出された、前記区分ごとの前記抽出対象物である確率を画素値に変換する識別結果変換ステップと、
前記識別結果変換ステップの処理により変換された前記画素値を有する画像に画像処理を行う画像処理ステップと、
を含むことを特徴とするプログラム、からなる。
根腐れ部位または傷み部位が混在した根野菜に可視光を照射して該可視光の反射光を取り入れ可視光画像を得る可視光撮影部と、
根腐れ部位または傷み部位が混在した根野菜に他の可視光を照射して該他の可視光の反射光を取り入れ他の可視光画像を得る他の可視光撮影部と、
から得られる、画像データから抽出対象物を抽出するにあたり、根腐れ部位または傷み部位が混在した根野菜から根腐れ部位または傷み部位を判別する根腐れ部位または傷み部位の判別装置であって、
前記画像データを区分分割する区分分割手段と、
ディープラーニングの手法による前記抽出対象物の特徴量の機械学習結果を有し、前記機械学習結果に基づいて、前記区分分割手段により分割された前記画像データの前記区分ごとに、前記区分が前記抽出対象物である確率を算出する画像識別手段と、
前記画像識別手段により算出された、前記区分ごとの前記抽出対象物である確率を画素値に変換する識別結果変換手段と、
前記識別結果変換手段により変換された前記画素値を有する画像に画像処理を行う画像処理手段と
を備えることを特徴とする根腐れ部位または傷み部位が混在した根野菜から根腐れ部位または傷み部位を判別する根腐れ部位または傷み部位の判別装置、からなる。
前記画像処理手段は、前記区分分割手段により分割された前記画像データに画像処理を行い、
前記画像識別手段は、前記画像処理手段により画像処理された前記画像データに対して、前記画像データの前記区分ごとに、前記抽出対象物である確率を算出することを特徴とする根腐れ部位または傷み部位が混在した根野菜から根腐れ部位または傷み部位を判別する根腐れ部位または傷み部位の判別装置、からなる。
根腐れ部位または傷み部位が混在した根野菜に可視光を照射して該可視光の反射光を取り入れ可視光画像を得る可視光撮影部と、
根腐れ部位または傷み部位が混在した根野菜に他の可視光を照射して該他の可視光の反射光を取り入れ他の可視光画像を得る他の可視光撮影部と、
から得られる、画像データから抽出対象物を抽出するにあたり、根腐れ部位または傷み部位が混在した根野菜から根腐れ部位または傷み部位を判別する根腐れ部位または傷み部位の判別方法であって、
前記画像データを区分分割する区分分割ステップと、
ディープラーニングの手法による前記抽出対象物の特徴量の機械学習結果に基づいて、前記区分分割ステップの処理により分割された前記画像データの前記区分ごとに、前記区分が前記抽出対象物である確率を算出する画像識別ステップと、
前記画像識別ステップの処理により算出された、前記区分ごとの前記抽出対象物である確率を画素値に変換する識別結果変換ステップと、
前記識別結果変換ステップの処理により変換された前記画素値を有する画像に画像処理を行う画像処理ステップと
を含むことを特徴とする根腐れ部位または傷み部位が混在した根野菜から根腐れ部位または傷み部位を判別する根腐れ部位または傷み部位の判別方法置、からなる。
根腐れ部位または傷み部位が混在した根野菜に可視光を照射して該可視光の反射光を取り入れ可視光画像を得る可視光撮影部と、
根腐れ部位または傷み部位が混在した根野菜に他の可視光を照射して該他の可視光の反射光を取り入れ他の可視光画像を得る他の可視光撮影部と、
から得られる、画像データから抽出対象物を抽出するにあたり、根腐れ部位または傷み部位が混在した根野菜から根腐れ部位または傷み部位を判別する根腐れ部位または傷み部位の判別処理をコンピュータに実行させるためのプログラムであって、
前記画像データを区分分割する区分分割ステップと、
ディープラーニングの手法による前記抽出対象物の特徴量の機械学習結果に基づいて、前記区分分割ステップの処理により分割された前記画像データの前記区分ごとに、前記区分が前記抽出対象物である確率を算出する画像識別ステップと、
前記画像識別ステップの処理により算出された、前記区分ごとの前記抽出対象物である確率を画素値に変換する識別結果変換ステップと、
前記識別結果変換ステップの処理により変換された前記画素値を有する画像に画像処理を行う画像処理ステップと、
を含むことを特徴とするプログラム、からなる。
カーボン漁網が混在した乾燥海藻類に近赤外線光を照射して該近赤外線光の反射光を取り入れ近赤外線光画像を得る近赤外線光撮影部と、
カーボン漁網が混在した乾燥海藻類に近赤外線光以外の光を照射して該近赤外線光以外の光の反射光を取り入れ近赤外線光以外の光画像を得る近赤外線光以外の光撮影部と、
から得られる、画像データから抽出対象物を抽出するにあたり、カーボン漁網が混在した乾燥海藻類からカーボン漁網を判別するカーボン漁網の判別装置であって、
前記画像データを区分分割する区分分割手段と、
ディープラーニングの手法による前記抽出対象物の特徴量の機械学習結果を有し、前記機械学習結果に基づいて、前記区分分割手段により分割された前記画像データの前記区分ごとに、前記区分が前記抽出対象物である確率を算出する画像識別手段と、
前記画像識別手段により算出された、前記区分ごとの前記抽出対象物である確率を画素値に変換する識別結果変換手段と、
前記識別結果変換手段により変換された前記画素値を有する画像に画像処理を行う画像処理手段と
を備えることを特徴とするカーボン漁網が混在した乾燥海藻類からカーボン漁網を判別するカーボン漁網の判別装置、からなる。
前記画像処理手段は、前記区分分割手段により分割された前記画像データに画像処理を行い、
前記画像識別手段は、前記画像処理手段により画像処理された前記画像データに対して、前記画像データの前記区分ごとに、前記抽出対象物である確率を算出することを特徴とするカーボン漁網が混在した乾燥海藻類からカーボン漁網を判別するカーボン漁網の判別装置、からなる。
カーボン漁網が混在した乾燥海藻類に近赤外線光を照射して該近赤外線光の反射光を取り入れ近赤外線光画像を得る近赤外線光撮影部と、
カーボン漁網が混在した乾燥海藻類に近赤外線光以外の光を照射して該近赤外線光以外の光の反射光を取り入れ近赤外線光以外の光画像を得る近赤外線光以外の光撮影部と、
から得られる、画像データから抽出対象物を抽出するにあたり、カーボン漁網が混在した乾燥海藻類からカーボン漁網を判別するカーボン漁網の判別方法であって、
前記画像データを区分分割する区分分割ステップと、
ディープラーニングの手法による前記抽出対象物の特徴量の機械学習結果に基づいて、前記区分分割ステップの処理により分割された前記画像データの前記区分ごとに、前記区分が前記抽出対象物である確率を算出する画像識別ステップと、
前記画像識別ステップの処理により算出された、前記区分ごとの前記抽出対象物である確率を画素値に変換する識別結果変換ステップと、
前記識別結果変換ステップの処理により変換された前記画素値を有する画像に画像処理を行う画像処理ステップと
を含むことを特徴とするカーボン漁網が混在した乾燥海藻類からカーボン漁網を判別するカーボン漁網の判別方法置、からなる。
カーボン漁網が混在した乾燥海藻類に近赤外線光を照射して該近赤外線光の反射光を取り入れ近赤外線光画像を得る近赤外線光撮影部と、
カーボン漁網が混在した乾燥海藻類に近赤外線光以外の光を照射して該近赤外線光以外の光の反射光を取り入れ近赤外線光以外の光画像を得る近赤外線光以外の光撮影部と、
から得られる、画像データから抽出対象物を抽出するにあたり、カーボン漁網が混在した乾燥海藻類からカーボン漁網を判別するカーボン漁網の判別処理をコンピュータに実行させるためのプログラムであって、
前記画像データを区分分割する区分分割ステップと、
ディープラーニングの手法による前記抽出対象物の特徴量の機械学習結果に基づいて、前記区分分割ステップの処理により分割された前記画像データの前記区分ごとに、前記区分が前記抽出対象物である確率を算出する画像識別ステップと、
前記画像識別ステップの処理により算出された、前記区分ごとの前記抽出対象物である確率を画素値に変換する識別結果変換ステップと、
前記識別結果変換ステップの処理により変換された前記画素値を有する画像に画像処理を行う画像処理ステップと、
を含むことを特徴とするプログラム、からなる。
極小羽虫が混在した蕎麦に近赤外線光を照射して該近赤外線光の反射光を取り入れ近赤外線光画像を得る近赤外線光撮影部と、
極小羽虫が混在した蕎麦に近赤外線光以外の光を照射して該近赤外線光以外の光の反射光を取り入れ近赤外線光以外の光画像を得る近赤外線光以外の光撮影部と、
から得られる、画像データから抽出対象物を抽出するにあたり、極小羽虫が混在した蕎麦から極小羽虫を判別する極小羽虫の判別装置であって、
前記画像データを区分分割する区分分割手段と、
ディープラーニングの手法による前記抽出対象物の特徴量の機械学習結果を有し、前記機械学習結果に基づいて、前記区分分割手段により分割された前記画像データの前記区分ごとに、前記区分が前記抽出対象物である確率を算出する画像識別手段と、
前記画像識別手段により算出された、前記区分ごとの前記抽出対象物である確率を画素値に変換する識別結果変換手段と、
前記識別結果変換手段により変換された前記画素値を有する画像に画像処理を行う画像処理手段と
を備えることを特徴とする極小羽虫が混在した蕎麦から極小羽虫判別する極小羽虫の判別装置、からなる。
前記画像処理手段は、前記区分分割手段により分割された前記画像データに画像処理を行い、
前記画像識別手段は、前記画像処理手段により画像処理された前記画像データに対して、前記画像データの前記区分ごとに、前記抽出対象物である確率を算出することを特徴とする極小羽虫が混在した蕎麦から極小羽虫を判別する極小羽虫の判別装置。
極小羽虫が混在した蕎麦に近赤外線光を照射して該近赤外線光の反射光を取り入れ近赤外線光画像を得る近赤外線光撮影部と、
極小羽虫が混在した蕎麦に近赤外線光以外の光を照射して該近赤外線光以外の光の反射光を取り入れ近赤外線光以外の光画像を得る近赤外線光以外の光撮影部と、
から得られる、画像データから抽出対象物を抽出するにあたり、極小羽虫が混在した蕎麦から極小羽虫を判別する極小羽虫の判別方法であって、
前記画像データを区分分割する区分分割ステップと、
ディープラーニングの手法による前記抽出対象物の特徴量の機械学習結果に基づいて、前記区分分割ステップの処理により分割された前記画像データの前記区分ごとに、前記区分が前記抽出対象物である確率を算出する画像識別ステップと、
前記画像識別ステップの処理により算出された、前記区分ごとの前記抽出対象物である確率を画素値に変換する識別結果変換ステップと、
前記識別結果変換ステップの処理により変換された前記画素値を有する画像に画像処理を行う画像処理ステップと
を含むことを特徴とする極小羽虫が混在した蕎麦から極小羽虫を判別する極小羽虫の判別方法置、からなる。
極小羽虫が混在した蕎麦に近赤外線光を照射して該近赤外線光の反射光を取り入れ近赤外線光画像を得る近赤外線光撮影部と、
極小羽虫が混在した蕎麦に近赤外線光以外の光を照射して該近赤外線光以外の光の反射光を取り入れ近赤外線光以外の光画像を得る近赤外線光以外の光撮影部と、
から得られる、画像データから抽出対象物を抽出するにあたり、極小羽虫が混在した蕎麦から極小羽虫を判別する極小羽虫の判別処理をコンピュータに実行させるためのプログラムであって、
前記画像データを区分分割する区分分割ステップと、
ディープラーニングの手法による前記抽出対象物の特徴量の機械学習結果に基づいて、前記区分分割ステップの処理により分割された前記画像データの前記区分ごとに、前記区分が前記抽出対象物である確率を算出する画像識別ステップと、
前記画像識別ステップの処理により算出された、前記区分ごとの前記抽出対象物である確率を画素値に変換する識別結果変換ステップと、
前記識別結果変換ステップの処理により変換された前記画素値を有する画像に画像処理を行う画像処理ステップと、
を含むことを特徴とするプログラム、からなる。
透明ビニルが混在した豚肉こまぎれに可視光を照射して該可視光の反射光を取り入れ可視光画像を得る可視光撮影部と、
透明ビニルが混在した豚肉こまぎれに他の可視光を照射して該他の可視光の反射光を取り入れ他の可視光光画像を得る他の可視光撮影部と、
から得られる、画像データから抽出対象物を抽出するにあたり、透明ビニルが混在した豚肉こまぎれから透明ビニルを判別する透明ビニルの判別装置であって、
前記画像データを区分分割する区分分割手段と、
ディープラーニングの手法による前記抽出対象物の特徴量の機械学習結果を有し、前記機械学習結果に基づいて、前記区分分割手段により分割された前記画像データの前記区分ごとに、前記区分が前記抽出対象物である確率を算出する画像識別手段と、
前記画像識別手段により算出された、前記区分ごとの前記抽出対象物である確率を画素値に変換する識別結果変換手段と、
前記識別結果変換手段により変換された前記画素値を有する画像に画像処理を行う画像処理手段と
を備えることを特徴とする透明ビニルが混在した豚肉こまぎれから透明ビニル判別する透明ビニルの判別装置、からなる。
前記画像処理手段は、前記区分分割手段により分割された前記画像データに画像処理を行い、
前記画像識別手段は、前記画像処理手段により画像処理された前記画像データに対して、前記画像データの前記区分ごとに、前記抽出対象物である確率を算出することを特徴とする透明ビニルが混在した豚肉こまぎれから透明ビニルを判別する透明ビニルの判別装置、からなる。
透明ビニルが混在した豚肉こまぎれに可視光を照射して該可視光の反射光を取り入れ可視光画像を得る可視光撮影部と、
透明ビニルが混在した豚肉こまぎれに他の可視光を照射して該他の可視光の反射光を取り入れ他の可視光画像を得る他の可視光撮影部と、
から得られる、画像データから抽出対象物を抽出するにあたり、透明ビニルが混在した豚肉こまぎれから透明ビニルを判別する透明ビニルの判別方法であって、
前記画像データを区分分割する区分分割ステップと、
ディープラーニングの手法による前記抽出対象物の特徴量の機械学習結果に基づいて、前記区分分割ステップの処理により分割された前記画像データの前記区分ごとに、前記区分が前記抽出対象物である確率を算出する画像識別ステップと、
前記画像識別ステップの処理により算出された、前記区分ごとの前記抽出対象物である確率を画素値に変換する識別結果変換ステップと、
前記識別結果変換ステップの処理により変換された前記画素値を有する画像に画像処理を行う画像処理ステップと
を含むことを特徴とする透明ビニルが混在した豚肉こまぎれから透明ビニルを判別する透明ビニルの判別方法置、からなる。
透明ビニルが混在した豚肉こまぎれに可視光を照射して該可視光の反射光を取り入れ可視光画像を得る可視光撮影部と、
透明ビニルが混在した豚肉こまぎれに他の可視光を照射して該他の可視光の反射光を取り入れ他の可視光画像を得る他の可視光撮影部と、
から得られる、画像データから抽出対象物を抽出するにあたり、透明ビニルが混在した豚肉こまぎれから透明ビニルを判別する透明ビニルの判別処理をコンピュータに実行させるためのプログラムであって、
前記画像データを区分分割する区分分割ステップと、
ディープラーニングの手法による前記抽出対象物の特徴量の機械学習結果に基づいて、前記区分分割ステップの処理により分割された前記画像データの前記区分ごとに、前記区分が前記抽出対象物である確率を算出する画像識別ステップと、
前記画像識別ステップの処理により算出された、前記区分ごとの前記抽出対象物である確率を画素値に変換する識別結果変換ステップと、
前記識別結果変換ステップの処理により変換された前記画素値を有する画像に画像処理を行う画像処理ステップと、
を含むことを特徴とするプログラム、からなる。
揚げ物の衣の剥がれまたは凍結部位が混在した揚げ物に可視光を照射して該可視光の反射光を取り入れ可視光画像を得る可視光撮影部と、
揚げ物の衣の剥がれまたは凍結部位が混在した揚げ物に他の可視光を照射して該他の可視光の反射光を取り入れ他の可視光画像を得る他の可視光撮影部と、
から得られる、画像データから抽出対象物を抽出するにあたり、揚げ物の衣の剥がれまたは凍結部位が混在した揚げ物から揚げ物の衣の剥がれまたは凍結部位を判別する揚げ物の衣の剥がれまたは凍結部位の判別装置であって、
前記画像データを区分分割する区分分割手段と、
ディープラーニングの手法による前記抽出対象物の特徴量の機械学習結果を有し、前記機械学習結果に基づいて、前記区分分割手段により分割された前記画像データの前記区分ごとに、前記区分が前記抽出対象物である確率を算出する画像識別手段と、
前記画像識別手段により算出された、前記区分ごとの前記抽出対象物である確率を画素値に変換する識別結果変換手段と、
前記識別結果変換手段により変換された前記画素値を有する画像に画像処理を行う画像処理手段と
を備えることを特徴とする揚げ物の衣の剥がれまたは凍結部位が混在した揚げ物から揚げ物の衣の剥がれまたは凍結部位を判別する揚げ物の衣の剥がれまたは凍結部位の判別装置、からなる。
前記画像処理手段は、前記区分分割手段により分割された前記画像データに画像処理を行い、
前記画像識別手段は、前記画像処理手段により画像処理された前記画像データに対して、前記画像データの前記区分ごとに、前記抽出対象物である確率を算出することを特徴とする揚げ物の衣の剥がれまたは凍結部位が混在した揚げ物から揚げ物の衣の剥がれまたは凍結部位を判別する揚げ物の衣の剥がれまたは凍結部位の判別装置、からなる。
揚げ物の衣の剥がれまたは凍結部位が混在した揚げ物に可視光を照射して該可視光の反射光を取り入れ可視光画像を得る可視光撮影部と、
揚げ物の衣の剥がれまたは凍結部位が混在した揚げ物に他の可視光を照射して該他の可視光の反射光を取り入れ他の可視光画像を得る他の可視光撮影部と、
から得られる、画像データから抽出対象物を抽出するにあたり、揚げ物の衣の剥がれまたは凍結部位が混在した揚げ物から揚げ物の衣の剥がれまたは凍結部位を判別する揚げ物の衣の剥がれまたは凍結部位の判別方法であって、
前記画像データを区分分割する区分分割ステップと、
ディープラーニングの手法による前記抽出対象物の特徴量の機械学習結果に基づいて、前記区分分割ステップの処理により分割された前記画像データの前記区分ごとに、前記区分が前記抽出対象物である確率を算出する画像識別ステップと、
前記画像識別ステップの処理により算出された、前記区分ごとの前記抽出対象物である確率を画素値に変換する識別結果変換ステップと、
前記識別結果変換ステップの処理により変換された前記画素値を有する画像に画像処理を行う画像処理ステップと
を含むことを特徴とする揚げ物の衣の剥がれまたは凍結部位が混在した揚げ物から揚げ物の衣の剥がれまたは凍結部位を判別する揚げ物の衣の剥がれまたは凍結部位の判別方法置、からなる。
揚げ物の衣の剥がれまたは凍結部位が混在した揚げ物に可視光を照射して該可視光の反射光を取り入れ可視光画像を得る可視光撮影部と、
揚げ物の衣の剥がれまたは凍結部位が混在した揚げ物に他の可視光を照射して該他の可視光の反射光を取り入れ他の可視光画像を得る他の可視光撮影部と、
から得られる、画像データから抽出対象物を抽出するにあたり、揚げ物の衣の剥がれまたは凍結部位が混在した揚げ物から揚げ物の衣の剥がれまたは凍結部位を判別する揚げ物の衣の剥がれまたは凍結部位の判別処理をコンピュータに実行させるためのプログラムであって、
前記画像データを区分分割する区分分割ステップと、
ディープラーニングの手法による前記抽出対象物の特徴量の機械学習結果に基づいて、前記区分分割ステップの処理により分割された前記画像データの前記区分ごとに、前記区分が前記抽出対象物である確率を算出する画像識別ステップと、
前記画像識別ステップの処理により算出された、前記区分ごとの前記抽出対象物である確率を画素値に変換する識別結果変換ステップと、
前記識別結果変換ステップの処理により変換された前記画素値を有する画像に画像処理を行う画像処理ステップと、
を含むことを特徴とするプログラム、からなる。
釣り糸またはえびまたは魚または貝または異種海藻が混在した海藻類において、釣り糸またはえびまたは魚または貝または異種海藻の判別を可能とするものである。
根腐れ部位または傷み部位が混在したもやし等の根野菜において、根腐れ部位または傷み部位の判別を可能とするものである。
カーボン漁網が混在した乾燥海藻類等の乾燥海苔または乾燥わかめにおいて、カーボン漁網の判別を可能とするものである。
極小羽虫が混在した蕎麦において、極小羽虫の判別を可能とするものである。
透明ビニルが混在した豚肉こまぎれにおいて、透明ビニルの判別を可能とするものである。
揚げ物の衣の剥がれまたは凍結部位が混在した揚げ物において、揚げ物の衣の剥がれまたは凍結部位の判別を可能とするものである。
図11は、画像解析装置1が有する機能について説明するための機能ブロック図である。
照射部11は、紫外光撮影部を構成する紫外線光照射部111、紫色光撮影部を構成する紫色光照射部112、青色光撮影部を構成する青色光照射部113からなる。この実施の形態では、紫色光照射部112では紫色可視光(910nm)を使用した。青色光照射部113では、この実施の形態では、青色可視光(950nm)を使用した。
画像データ取得部21は、紫外光撮影部を構成する紫外線光用画像データ取得部211、紫色光用画像データ取得部212、青色光用画像データ取得部213を有する。
紫外光撮影部、紫色光撮影部、青色光撮影部を成す画像データ取得部21は、照射部11からの反射光を受光する。221は、フィルターである。フィルター221は、オレンジあるいは黄色のフィルターからなる。
図3乃至図9に図示する紫色光で受光した画像、および青色光で受光した画像、赤外線光で受光された画像を重ね合わせた画像を得る。
この発明の実施の形態である紫色可視光を照射した肉のブロックを切り分けたときの骨と軟骨が併存する切断面図である図3乃至図9において、A、B、C、Dは、硬骨、Eは軟骨である。Fは、筋繊維の束である。Gは、筋内膜である。Hは、筋周膜である。
この発明の実施の形態である紫筋膜の切断面の概念図である図10において、Fは、筋繊維の束である。Gは、筋内膜である。Hは、筋周膜である。Iは、筋上膜である。
図2は、自然光を照射し、フィルターを掛けることなく受光した、肉のブロックWを切り分けたときの硬骨A、B、C、Dと軟骨Eが併存する切断面である。硬骨A、硬骨B、
硬骨C、硬骨D、軟骨Eが白く見える。
図15に図示するように、紫外線受光には透過フィルターは使用しない。紫外線では、氷は、白く帯状に見える。赤身は、赤黒く見えるが形状は検出可能な特徴がない。脂肪は、白色に見えるが形状は検出可能な特徴がない。硬骨A、B、C、Dは、白色で浮島状に見える。軟骨Eは、白色で浮島状に見える。筋(すじ)は、白色の筋状に見える。筋膜は、紫色でアメーバ状に見える。筋膜の断面は豹紋柄になる。
筋膜の近傍、側面に軟骨Eはある。筋膜の存在が判ることで、軟骨Eの位置が判る。
図15に図示するように、この発明の実施の形態である紫色可視光を照射した肉のブロックを切り分けたときの硬骨A、B、C、Dと軟骨Eが併存する切断面図である図3乃至図9において、脂肪は、白色に見えるが形状は検出可能な特徴がない。硬骨A、B、C、Dは、白黄色で浮島状に見える。軟骨Eは、薄白色で浮島状に見える。筋(すじ)は、白黄色の筋状に見える。筋膜は、紫色でアメーバ状に見える。
この実施の形態では、紫色可視光(910nm)を使用したが、紫色可視光の受光には、黄色もしくは、橙色のフィルターを使用する。紫色可視光では、氷は、色形とも検出可能な特徴がない。赤身は、赤黒く見えるが形状は検出可能な特徴がない。
図15に図示するように、この実施の形態では、青色可視光(950nm)を使用したが、青色可視光の受光には、黄色もしくは、橙色のフィルターを使用する。
青色可視光では、氷は、色形とも検出可能な特徴がない。赤身は、赤黒く見えるが形は検出可能な特徴がない。脂肪は、白色に見えるが形状は検出可能な特徴がない。硬骨A、B、C、Dは、黄色で浮島状に見える。軟骨Eは、薄白色で浮島状に見える。筋(すじ)は、黄色の筋状に見えるは、色形とも検出可能な特徴がない。
紫外線光、紫色光、青色光いずれも浮き島のように小さい点として検出されるため色と形状をAIに学習させることが出来る(写真参照)。
紫外線光、紫色光、青色光いずれも浮き島のように小さい点として検出されるが、紫外線光と紫色光で検出される筋膜が近傍にあることで硬骨A、B、C、Dと区別ができ、筋膜の近傍には軟骨がある可能性が高いとAIに学習させることが出来る。
紫外線光、紫色光、青色光いずれもすじ状に分布して検出されるため色と形状をAIに学習させることが出来る。
紫外線光、紫色光、青色光の画像を重ね合わせる。
硬骨A、B、C、D、軟骨Eと色が同じであるためAIを用いて形状によって識別させる。
紫外線光、紫色光によって紫色で豹紋柄のアメーバのような形状で検出されるため色と形状をAIに学習させることが出来る。
筋膜は筋肉から骨を脱骨したさいの断面として露わになっている。そのため骨の位置と密接な関係があり、筋膜の位置をAIに学習させることで硬骨A、B、C、D、軟骨Eの位置検出の参考にすることが出来る。下図の筋肉の構造をみるとたしかに豹紋に検出できるのも納得できる。
3種類のLEDを使用して骨を検出するためには必ず暗所で作業を行う必要がある。周囲が明るい状況では不可能。昼白色のLEDを併用したり蛍光灯下で検出しようとすると骨の発光色が非常に弱く、骨だと分かる発光に強弱が付きすぎてしまう。そのため後工程での輝度などを特徴づけする画像処理などが必要になってしまい、そこで人間の目を使った調整が必要になってしまう。二値化は、不要である。
ディープラーニングを用いたAIに学習させる方法をとらないと色と形状を用いた骨の検出が困難であるので必ずディープラーニングを用いたAIを使用する必要がある。
人工知能 (AI) の一部であるディープラーニングは、人間と同じように、コンピューターがrawデータから新しい概念を習得できるようにするものである。ディープラーニングシステムでは、特定のイメージをそれぞれ数千通り確認すると、その違いを特定できる。
肉は冷凍してある。紫色光、青色光は氷の影響を受けにくい。紫外線光は、氷の影響を受け、乱反射をする。
暗闇の中で、青色光、紫色光、紫外線光の順で照射する。青色光、紫色光、それぞれの画像をオレンジあるいは黄色あるいは、オレンジのフィルターを通してみるとはっきり見える。
得られた画像を重ね合わせ、AIで判断する。
近赤外線は、波長がおよそ0.7 - 2.5 μm
中赤外線は、波長がおよそ2.5 - 4 μm
遠赤外線は、波長がおよそ4 - 1000 μm
とされる。
本発明では、赤外線を併用してもよい。
図3乃至図9に図示する紫色光で受光した画像および青色光で受光した画像、赤外線光で受光された画像を得て、重ね合わせた画像を得る。
画像データ分割処理部13により分割されるセルの大きさは、ユーザにより指定可能である。画像データ分割処理部13は、区分分割手段に対応する。また、セルは、区分分割手段により分割された区分に対応する。なお、セルは、画像データ分割処理部13により分割された区分に対応する所定の大きさの画像領域であり、縦横同画素数数からなる画素の正方形の領域で構成しても、縦横のサイズの異なる長方形の領域で構成されるようにしてもよい。
従来の、画像や音声等の認識・識別技術では、ユーザが特徴量を設定し、その後、その特徴量を基に分類アルゴリズムにかけて、抽出対象物が分類されていたが、ディープラーニングを用いて、画像識別処理部14に機械学習を行わせることにより、ユーザによる特徴量の設定を必要とすることなく、抽出対象物を抽出することが可能である。画像識別処理部14は、画像データ分割処理部13、または、画像処理部16から供給された画像データを構成するそれぞれのセルが抽出対象物である確率を算出し、識別結果変換処理部15に供給する。画像識別処理部14は、画像識別手段に対応する。
また、このようにして得られた対象物の抽出結果には、例えば、肉のブロックを切り分けたとき生ずる、硬骨A、B、C、Dと軟骨Eが併存する肉のブロックの骨と紛らわしい部分が骨とともに抽出されてしまうことがなく、目視の確認に近い解析結果を得ることが可能となる。
肉のブロックの多くの画像から得た特徴量の学習結果に基づいて、ユーザによる特徴量の設定を必要とすることなく、骨と紛らわしい部分等に対応する部分を排除して、抽出対象物を抽出することが可能である。
(1)第2実施例の図16に図示する状態では、可視光(波長 400 nm-700 nm)と紫外線(波長 10 - 400 nm)を併用して照射する。
釣糸16−2は蛍光発光して見える。16−3は、隙間から見える下地となるコンベアの白地である。
(2)第2実施例の図17に図示する状態では、紫外線(波長 10 - 400 nm)を照射する。
釣糸16−2は見える。コンベアの白地16−3は、見えない。
可視光のみの照射では、釣糸16−2は光りにくい。
複数の画像から、ディープラーニングの手法を用いた、海藻類であるもずく16−1に黄色の釣糸16−2が入り、隙間16−3が映った状態の特徴量の学習を行った画像識別処理部14による画像解析装置1が実行する画像解析処理を、第1実施例と同様に処理する。第1実施例における「肉の骨判別」の代わりに、海藻類であるもずく16−1と黄色の釣糸16−2の判別を[0065]乃至[0113]にしたがっておこなう。第1実施例を構成する紫外光撮影部を構成する紫外線光照射部111、紫色光撮影部構成する紫色光照射部112、青色光撮影部を構成する青色光照射部113の代わりに、可視光撮影部、紫外光撮影部を設ける。
(1)第3実施例の図18に図示する状態では、可視光(波長 400 nm-700 nm)と紫外線(波長 10 - 400 nm)を併用して照射する。
釣糸18−2は見える。18−3は、漁網の破片である。
(2)第3実施例の図19に図示する状態では、紫外線(波長 10 - 400 nm)を照射する。
釣糸18−2は見えない。
可視光のみの照射では、釣糸18−2は光りにくい。
複数の画像から、ディープラーニングの手法を用いた、海藻類であるもずく18−1に緑色の釣糸18−2が入った状態の特徴量の学習を行った画像識別処理部14による画像解析装置1が実行する画像解析処理を、第1実施例と同様に処理する。第1実施例における「肉の骨判別」の代わりに、海藻類であるもずく18−1と緑色の釣糸18−2の判別を[0065]乃至[0113]にしたがっておこなう。第1実施例を構成する紫外光撮影部を構成する紫外線光照射部111、紫色光撮影部構成する紫色光照射部112、青色光撮影部を構成する青色光照射部113の代わりに、可視光撮影部、紫外光撮影部を設ける。
(1)第4実施例の図20に図示する状態では、可視光(波長 400 nm-700 nm)と紫外線(波長 10 - 400 nm)を併用して照射する。
釣糸20−2は見える。
(2)第4実施例の図21に図示する状態では、紫外線(波長 10 - 400 nm)を照射する。
釣糸20−2はかすかに見える。
可視光のみの照射では、釣糸20−2は光りにくい。
複数の画像から、ディープラーニングの手法を用いた、海藻類であるもずく20−1に茶色の釣糸20−2が入った状態の特徴量の学習を行った画像識別処理部14による画像解析装置1が実行する画像解析処理を、第1実施例と同様に処理する。第1実施例における「肉の骨判別」の代わりに、もずく20−1と茶色の釣糸20−2の判別を[0065]乃至[0113]にしたがっておこなう。第1実施例を構成する紫外光撮影部を構成する紫外線光照射部111、紫色光撮影部構成する紫色光照射部112、青色光撮影部を構成する青色光照射部113の代わりに、可視光撮影部、紫外光撮影部を設ける。
(1)第5実施例の図22に図示する状態では、可視光(波長 400 nm-700 nm)と紫外線(波長 10 - 400 nm)を併用して照射する。
エビ22−2は見える。22−3は、隙間から見える下地となるコンベアの白地である。
(2)第5実施例の図23に図示する状態では、紫外線(波長 10 - 400 nm)を照射する。
エビ22−2、隙間22−3は、見えない。
可視光のみの照射では、エビ22−2は光りにくい。
複数の画像から、ディープラーニングの手法を用いた、海藻類であるもずく22−1にエビ22−2が入り、隙間22−3が映った状態の特徴量の学習を行った画像識別処理部14による画像解析装置1が実行する画像解析処理を、第1実施例と同様に処理する。第1実施例における「肉の骨判別」の代わりに、海藻類であるもずく22−1とエビ22−2の判別を[0065]乃至[0113]にしたがっておこなう。第1実施例を構成する紫外光撮影部を構成する紫外線光照射部111、紫色光撮影部構成する紫色光照射部112、青色光撮影部を構成する青色光照射部113の代わりに、可視光撮影部、紫外光撮影部を設ける。
(1)第6実施例の図24に図示する状態では、可視光(波長 400 nm-700 nm)と紫外線(波長 10 - 400 nm)を併用して照射する。
魚24−2は見える。24−3は、隙間から見える下地となるコンベアの白地である。
(2)第6実施例の図25に図示する状態では、紫外線(波長 10 - 400 nm)を照射する。
魚24−2は薄く見える。隙間24−3は、見えない。
可視光のみの照射では、魚24−2は光りにくい。
複数の画像から、ディープラーニングの手法を用いた、海藻類であるもずく24−1に魚24−2が入り、隙間24−3が映った状態の特徴量の学習を行った画像識別処理部14による画像解析装置1が実行する画像解析処理を、第1実施例と同様に処理する。第1実施例における「肉の骨判別」の代わりに、海藻類であるもずく24−1と魚24−2の判別を[0065]乃至[0113]にしたがっておこなう。第1実施例を構成する紫外光撮影部を構成する紫外線光照射部111、紫色光撮影部構成する紫色光照射部112、青色光撮影部を構成する青色光照射部113の代わりに、可視光撮影部、紫外光撮影部を設ける。
(1)第7実施例の図26に図示する状態では、可視光(波長 400 nm-700 nm)と紫外線(波長 10 - 400 nm)を併用して照射する。
貝26−2は見える。26−3、26−4は、隙間から見える下地となるコンベアの白地である。
(2)第7実施例の図27に図示する状態では、紫外線(波長 10 - 400nm)を照射する。
貝26−2は薄く見える。隙間26−3、26−4は、見えない。
可視光のみの照射では、貝26−2は光りにくい。
複数の画像から、ディープラーニングの手法を用いた、海藻類であるもずく26−1に貝26−2が入り、隙間26−3、26−4が映った状態の特徴量の学習を行った画像識別処理部14による画像解析装置1が実行する画像解析処理を、第1実施例と同様に処理する。第1実施例における「肉の骨判別」の代わりに、もずく26−1と貝26−2の判別を[0065]乃至[0113]にしたがっておこなう。第1実施例を構成する紫外光撮影部を構成する紫外線光照射部111、紫色光撮影部構成する紫色光照射部112、青色光撮影部を構成する青色光照射部113の代わりに、可視光撮影部、紫外光撮影部を設ける。
(1)第8実施例の図28に図示する状態では、可視光(波長 400 nm-700 nm)と紫外線(波長 10 - 400 nm)を併用して照射する。
異種海藻28−2は見える。
(2)第8実施例の図29に図示する状態では、紫外線(波長 10 - 400 nm)を照射する。
異種海藻28−2は薄く見える。
可視光のみの照射では、異種海藻28−2は光りにくい。
複数の画像から、ディープラーニングの手法を用いた、海藻類であるもずく28−1に異種海藻28−2が入った状態の特徴量の学習を行った画像識別処理部14による画像解析装置1が実行する画像解析処理を、第1実施例と同様に処理する。第1実施例における「肉の骨判別」の代わりに、海藻類であるもずく28−1と異種海藻28−2の判別を[0065]乃至[0113]にしたがっておこなう。第1実施例を構成する紫外光撮影部を構成する紫外線光照射部111、紫色光撮影部構成する紫色光照射部112、青色光撮影部を構成する青色光照射部113の代わりに、可視光撮影部、紫外光撮影部を設ける。
(1)第9実施例の図30に図示する状態では、可視光(波長 400 nm-700 nm)を照射する。
根腐れ部位30−2は見える。
(2)第9実施例の図31に図示する状態では、可視光(赤のみ)(波長 620-750 nm)を照射する。蛍光発光するものが無いため赤色可視光を照射した。
根腐れ部位30−2は薄く見える。
複数の画像から、ディープラーニングの手法を用いた、根野菜であるもやし30−1に根腐れ部位30−2が入った状態の特徴量の学習を行った画像識別処理部14による画像解析装置1が実行する画像解析処理を、第1実施例と同様に処理する。第1実施例における「肉の骨判別」の代わりに、根野菜であるもやし30−1と根腐れ部位30−2の判別を[0065]乃至[0113]にしたがっておこなう。第1実施例を構成する紫外光撮影部を構成する紫外線光照射部111、紫色光撮影部構成する紫色光照射部112、青色光撮影部を構成する青色光照射部113の代わりに、可視光撮影部、可視光(赤のみ)撮影部を設ける。
(1)第10実施例の図32に図示する状態では、可視光(波長 400 nm-700 nm)を照射する。
傷み部位32−2は見える。32−3は茎である。
(2)第10実施例の図33に図示する状態では、可視光(赤のみ)(波長 620-750 nm)を照射する。蛍光発光するものが無いため赤色可視光を照射した。
黒変した傷み部位32−2は薄く見える。
複数の画像から、ディープラーニングの手法を用いた、根野菜であるもやし32−1に黒変した傷み部位32−2が入り、茎32−3が映った状態の特徴量の学習を行った画像識別処理部14による画像解析装置1が実行する画像解析処理を、第1実施例と同様に処理する。第1実施例における「肉の骨判別」の代わりに、根野菜であるもやし32−1と黒変した傷み部位32−2の判別を[0065]乃至[0113]にしたがっておこなう。第1実施例を構成する紫外光撮影部を構成する紫外線光照射部111、紫色光撮影部構成する紫色光照射部112、青色光撮影部を構成する青色光照射部113の代わりに、可視光撮影部、可視光(赤のみ)撮影部を設ける。
(1)第11実施例の図34に図示する状態では、可視光(波長 400 nm-700 nm)を照射する。
傷み部位34−2は見える。34−3は茎である。
(2)第11実施例の図35に図示する状態では、可視光(赤のみ)(波長 620-750 nm)を照射する。蛍光発光するものが無いため赤色可視光を照射した。
黒変した傷み部位34−2は薄く見える。茎34−3はぼんやり映る。
複数の画像から、ディープラーニングの手法を用いた、根野菜であるもやし34−1に黒変した傷み部位34−2が入り、茎34−3が映った状態の特徴量の学習を行った画像識別処理部14による画像解析装置1が実行する画像解析処理を、第1実施例と同様に処理する。第1実施例における「肉の骨判別」の代わりに、根野菜であるもやし34−1と黒変した傷み部位34−2の判別を[0065]乃至[0113]にしたがっておこなう。第1実施例を構成する紫外光撮影部を構成する紫外線光照射部111、紫色光撮影部構成する紫色光照射部112、青色光撮影部を構成する青色光照射部113の代わりに、可視光撮影部、可視光(赤のみ)撮影部を設ける。
(1)第12実施例の図36乃至図41に図示する状態では、近赤外線(波長 0.7 - 2.5 μm)を照射する。
カーボン漁網36−2は見える。
(2)図36、図37、図39、図40、図41に図示する第12実施例では、横から近赤外線光を当てた。横から近赤外線を照射したため、側面は白色に映り見やすくなる。
複数の画像から、ディープラーニングの手法を用いた、乾燥海藻類である乾燥海苔36−1にカーボン漁網36−2、36−3が入っている状態の特徴量の学習を行った画像識別処理部14による画像解析装置1が実行する画像解析処理を、第1実施例と同様に処理する。第1実施例における「肉の骨判別」の代わりに、乾燥海藻類である乾燥海苔36−1とカーボン漁網36−2、36−3の判別を[0065]乃至[0113]にしたがっておこなう。第1実施例を構成する紫外光撮影部を構成する紫外線光照射部111、紫色光撮影部構成する紫色光照射部112、青色光撮影部を構成する青色光照射部113の代わりに、近赤外線光撮影部、近赤外線光以外の可視光撮影部を設ける。
(1)第13実施例の図36乃至図41に図示する状態では、近赤外線光(波長 0.7 - 2.5 μm)を照射する。
カーボン漁網42−2は見える。側面42−3から近赤外線光を照射したため、側面42−3は白色に映り見やすくなる。
(2)図43、図44、図45に図示する実施例では、横から近赤外線光を当てた。
複数の画像から、ディープラーニングの手法を用いた、乾燥海藻類である乾燥わかめ42−1にカーボン漁網42−2が入っている状態の特徴量の学習を行った画像識別処理部14による画像解析装置1が実行する画像解析処理を、第1実施例と同様に処理する。第1実施例における「肉の骨判別」の代わりに、乾燥海藻類である乾燥わかめ42−1とカーボン漁網42−2の判別を[0065]乃至[0113]にしたがっておこなう。第1実施例を構成する紫外光撮影部を構成する紫外線光照射部111、紫色光撮影部構成する紫色光照射部112、青色光撮影部を構成する青色光照射部113の代わりに、近赤外線光撮影部、近赤外線光以外の可視光撮影部を設ける。
(1)第14実施例の図46乃至図49に図示する状態では、近赤外線光(波長 0.7 - 2.5 μm)を照射する。
極小羽虫46−2は見える。
図46乃至図49に図示する第14実施例では、横から近赤外線光を当てた。側面から近赤外線光を照射したため、側面は白色に映り見やすくなる。
(2)白色光を照射した(図示せず)。
複数の画像から、ディープラーニングの手法を用いた、蕎麦麺46−1に極小羽虫46−2が入っている状態の特徴量の学習を行った画像識別処理部14による画像解析装置1が実行する画像解析処理を、第1実施例と同様に処理する。第1実施例における「肉の骨判別」の代わりに、蕎麦麺46−1と極小羽虫46−2、46−3、46−4、46−5の判別を[0065]乃至[0113]にしたがっておこなう。第1実施例を構成する紫外光撮影部を構成する紫外線光照射部111、紫色光撮影部構成する紫色光照射部112、青色光撮影部を構成する青色光照射部113の代わりに、近赤外線光撮影部、近赤外線光以外の可視光撮影部を設ける。
(1)第15実施例の図50に図示する状態では、可視光(波長 400 nm-700 nm)を照射する。透明ビニル袋50−4の乱反射50−3あり。
(2)第15実施例の図51に図示する状態では、可視光(赤のみ)(波長 620-750 nm)を照射する。蛍光発光するものが無いため赤色可視光を照射した。
複数の画像から、ディープラーニングの手法を用いた、透明ビニル入り豚肉こまぎれ50−1に透明ビニル50−2が入った状態の特徴量の学習を行った画像識別処理部14による画像解析装置1が実行する画像解析処理を、第1実施例と同様に処理する。第1実施例における「肉の骨判別」の代わりに、透明ビニル入り豚肉こまぎれ50−1と透明ビニル50−2の判別を[0065]乃至[0113]にしたがっておこなう。第1実施例を構成する紫外光撮影部を構成する紫外線光照射部111、紫色光撮影部構成する紫色光照射部112、青色光撮影部を構成する青色光照射部113の代わりに、可視光撮影部、可視光(赤のみ)撮影部を設ける。
(1)第16実施例の図52に図示する状態では、可視光(波長 400 nm-700 nm)を照射する。透明ビニル袋52−4の乱反射52−3あり。
(2)第16実施例の図53に図示する状態では、可視光(赤のみ)(波長 620-750 nm)を照射する。蛍光発光するものが無いため赤色可視光を照射した。
複数の画像から、ディープラーニングの手法を用いた、透明ビニル入り豚肉こまぎれ52−1に透明ビニルが入った状態の特徴量の学習を行った画像識別処理部14による画像解析装置1が実行する画像解析処理を、第1実施例と同様に処理する。第1実施例における「肉の骨判別」の代わりに、透明ビニル入り豚肉こまぎれ52−1と透明ビニル52−2の判別を[0065]乃至[0113]にしたがっておこなう。第1実施例を構成する紫外光撮影部を構成する紫外線光照射部111、紫色光撮影部構成する紫色光照射部112、青色光撮影部を構成する青色光照射部113の代わりに、可視光撮影部、可視光(赤のみ)撮影部を設ける。
(1)第17実施例の図52に図示する状態では、可視光(波長 400 nm-700 nm)を照射する。透明ビニル袋54−4の乱反射54−3あり。
(2)第17実施例の図55に図示する状態では、可視光(赤のみ)(波長 620-750 nm)を照射する。蛍光発光するものが無いため赤色可視光を照射した。
複数の画像から、ディープラーニングの手法を用いた、透明ビニル入り豚肉こまぎれ54−1に透明ビニルが入った状態の特徴量の学習を行った画像識別処理部14による画像解析装置1が実行する画像解析処理を、第1実施例と同様に処理する。第1実施例における「肉の骨判別」の代わりに、透明ビニル入り豚肉こまぎれ54−1と透明ビニル54−2の判別を[0065]乃至[0113]にしたがっておこなう。第1実施例を構成する紫外光撮影部を構成する紫外線光照射部111、紫色光撮影部構成する紫色光照射部112、青色光撮影部を構成する青色光照射部113の代わりに、可視光撮影部、可視光(赤のみ)撮影部を設ける。
第18実施例の図56に図示する状態では、揚げ物の衣の剥がれまたは凍結部位56−2を、有する揚げ物であるコロッケ56−1に可視光(青色光のみ)(波長450 - 495 nm)を照射した。
第18実施例の図57に図示する状態では、揚げ物の衣の剥がれまたは凍結部位56−2を、有する揚げ物であるコロッケ56−1に可視光(赤色光のみ)(波長 620-750 nm)を照射した。
第18実施例の図58に図示する状態では、揚げ物の衣の剥がれまたは凍結部位56−2を、有する揚げ物であるコロッケ56−1に可視光(白色光)を照射した。
第18実施例の図59に図示する状態では、揚げ物の衣の剥がれまたは凍結部位56−2を、有する揚げ物であるコロッケ56−1に可視光(緑色光のみ)(波長 495-570 nm)を照射した。
コロッケ56−1(ポテトコロッケ)の場合は白色光プラス赤色光で衣の剥がれまたは凍結部位56−2がきれいに確認できる。
複数の画像から、ディープラーニングの手法を用いた、揚げ物の衣の剥がれまたは凍結部位56−2が混在した揚げ物であるコロッケ56−1状態の特徴量の学習を行った画像識別処理部14による画像解析装置1が実行する画像解析処理を、第1実施例と同様に処理する。
第1実施例における「肉の骨判別」の代わりに、揚げ物であるコロッケ56−1と揚げ物の衣の剥がれまたは凍結部位56−2との判別を[0065]乃至[0113]にしたがっておこなう。第1実施例を構成する紫外光撮影部を構成する紫外線光照射部111、紫色光撮影部構成する紫色光照射部112、青色光撮影部を構成する青色光照射部113の代わりに、可視光(青色光のみ)撮影部、可視光(赤色光のみ)撮影部、可視光(白色光)撮影部、可視光(緑色光のみ)撮影部を設ける。
第19実施例の図60に図示する状態では、揚げ物の衣の剥がれまたは凍結部位60−2を、有する揚げ物であるクリームコロッケ60−1に可視光(青色光のみ)(波長450 - 495 nm)を照射した。
第19実施例の図61に図示する状態では、揚げ物の衣の剥がれまたは凍結部位60−2を、有する揚げ物であるクリームコロッケ60−1に可視光(赤色光のみ)(波長 620-750 nm)を照射した。
第19実施例の図63に図示する状態では、揚げ物の衣の剥がれまたは凍結部位60−2を、有する揚げ物であるクリームコロッケ60−1に可視光(緑色光のみ)(波長 495-570 nm)を照射した。
クリームコロッケ60−1の場合は白色光プラス赤色光で衣の剥がれまたは凍結部位60−2がきれいに確認できる。
複数の画像から、ディープラーニングの手法を用いた、揚げ物の衣の剥がれまたは凍結部位60−2が混在した揚げ物であるクリームコロッケ60−1状態の特徴量の学習を行った画像識別処理部14による画像解析装置1が実行する画像解析処理を、第1実施例と同様に処理する。第1実施例における「肉の骨判別」の代わりに、揚げ物であるクリームコロッケ60−1と揚げ物の衣の剥がれまたは凍結部位60−2との判別を[0065]乃至[0113]にしたがっておこなう。第1実施例を構成する紫外光撮影部を構成する紫外線光照射部111、紫色光撮影部構成する紫色光照射部112、青色光撮影部を構成する青色光照射部113の代わりに、可視光(青色光のみ)撮影部、可視光(赤色光のみ)撮影部、可視光(白色光)撮影部、可視光(緑色光のみ)撮影部を設ける。
第20実施例の図64に図示する状態では、揚げ物の衣の剥がれまたは凍結部位64−2を、有する揚げ物であるフライドチキン64−1に可視光(青色光のみ)(波長450 - 495 nm)を照射した。
第20実施例の図65に図示する状態では、揚げ物の衣の剥がれまたは凍結部位64−2を、有する揚げ物であるフライドチキン64−1に可視光(赤色光のみ)(波長 620-750 nm)を照射した。
第20実施例の図67に図示する状態では、揚げ物の衣の剥がれまたは凍結部位64−2を、有する揚げ物であるフライドチキン64−1に可視光(青プラス白色)を照射した。
フライドチキン64−1の場合は白色光プラス赤色光で衣の剥がれまたは凍結部位64−2がきれいに確認できる。
複数の画像から、ディープラーニングの手法を用いた、揚げ物の衣の剥がれまたは凍結部位64−2が混在した揚げ物であるフライドチキン64−1状態の特徴量の学習を行った画像識別処理部14による画像解析装置1が実行する画像解析処理を、第1実施例と同様に処理する。第1実施例における「肉の骨判別」の代わりに、揚げ物であるクリームコロッケ60−1と揚げ物の衣の剥がれまたは凍結部位64−2との判別を[0065]乃至[0113]にしたがっておこなう。第1実施例を構成する紫外光撮影部を構成する紫外線光照射部111、紫色光撮影部構成する紫色光照射部112、青色光撮影部を構成する青色光照射部113の代わりに、可視光(青色光のみ)撮影部、可視光(赤色光のみ)撮影部、可視光(緑色光のみ)撮影部、可視光(青プラス白色)撮影部を設ける。
クリームコロッケの場合は 白+緑で衣の剥がれ部位がきれいに確認できる。ポテトコロッケの場合は 白+赤で衣の剥がれ部位がきれいに確認できる。フライドチキンの場合は 白+青で衣の剥がれ部位がきれいに確認できる。
このように揚げ物の剥離した部位を探す際に特徴抽出が可能な光を照射し、その結果2画面をAIに学習させることにより、揚げ物の剥離した部位を検出する精度を上げることが出来る。
2 入力部
3 出力部
11 照射部
111 紫外線光照射部
112 紫色光照射部
113 青色光照射部
12 操作入力情報取得部
13 画像データ分割処理部
14 画像識別処理部
15 識別結果変換処理部
16 画像処理部
17 出力処理部
18 記憶部
21 画像データ取得部
A 硬骨
B 硬骨
C 硬骨
D 硬骨
E 軟骨
F 筋繊維の束
G 筋内膜
H 筋周膜
16−1 もずく
16−2 釣糸(黄色)
18−1 もずく
18−2 釣糸(緑色)
20−1 もずく
20−2 釣糸(茶色)
22−1 もずく
22−2 エビ
24−1 もずく
24−2 魚
26−1 もずく
26−2 貝
28−1 もずく
28−2 異種海藻
30−1 もやし
30−2 根腐れ部位
32−1 もやし
32−2 黒変した傷み部位もやし
34−1 もやし
34−2 黒変した傷み部位
36−1 乾燥海苔
36−2 カーボン漁網
36−3 カーボン漁網
42−1 乾燥わかめ
42−2 カーボン漁網
46−1 蕎麦麺
46−2 極小羽虫
46−3 極小羽虫
46−4 極小羽虫
46−5 極小羽虫
50−1 透明ビニル入り豚肉こまぎれ
50−2 透明ビニル
50−3 乱反射
50−4 透明ビニル袋
52−1 透明ビニル入り豚肉こまぎれ
52−2 透明ビニル
52−3 乱反射
52−4 透明ビニル袋
54−1 透明ビニル入り豚肉こまぎれ
54−2 透明ビニル
54−3 乱反射
54−4 透明ビニル袋
56−1 揚げ物であるコロッケ
56−2 揚げ物の衣の剥がれまたは凍結部位
60−1 クリームコロッケ
60−2 揚げ物の衣の剥がれまたは凍結部位
64−1 フライドチキン
64−2 揚げ物の衣の剥がれまたは凍結部位
Claims (32)
- 暗所で、
切断面に紫外光を照射して該紫外光の反射光を取り入れ紫外光画像を得る紫外光撮影部と、
切断面に紫色光を照射して該紫色光の反射光を取り入れ紫色光画像を得る紫色光撮影部と、
切断面に青色光を照射して該青色光の反射光を取り入れ青色光画像を得る青色光撮影部と、
から得られる、画像データから抽出対象物を抽出するにあたり、肉の切断面の骨部を判別する肉の骨部判別装置であって、
前記画像データを区分分割する区分分割手段と、
ディープラーニングの手法による前記抽出対象物の特徴量の機械学習結果を有し、前記機械学習結果に基づいて、前記区分分割手段により分割された前記画像データの前記区分ごとに、前記区分が前記抽出対象物である確率を算出する画像識別手段と、
前記画像識別手段により算出された、前記区分ごとの前記抽出対象物である確率を画素値に変換する識別結果変換手段と、
前記識別結果変換手段により変換された前記画素値を有する画像に画像処理を行う画像処理手段と
を備えることを特徴とする肉の骨判別装置。 - 前記画像処理手段は、前記区分分割手段により分割された前記画像データに画像処理を行い、
前記画像識別手段は、前記画像処理手段により画像処理された前記画像データに対して、前記画像データの前記区分ごとに、前記抽出対象物である確率を算出することを特徴とする請求項1に記載の肉の骨判別装置。 - 紫外光撮影部にオレンジあるいは黄色のフィルターを通して画像を得ることを特徴とする請求項1又は請求項2のいずれかに記載の肉の骨部判別装置。
- 青色光撮影部にオレンジあるいは黄色のフィルターを通して画像を得ることを特徴とする請求項1又は請求項2又は請求項3のいずれかに記載の肉の骨部判別装置。
- 暗所で、
切断面に紫外光を照射して該紫外光の反射光を取り入れ紫外光画像を得る紫外光撮影部と、
切断面に紫色光を照射して該紫色光の反射光を取り入れ紫色光画像を得る紫色光撮影部と、
切断面に青色光を照射して該青色光の反射光を取り入れ青色光画像を得る青色光撮影部と、
から得られる、
画像データから抽出対象物を抽出するにあたり、肉の切断面の骨部を判別する肉の骨部判別方法であって、
前記画像データを区分分割する区分分割ステップと、
ディープラーニングの手法による前記抽出対象物の特徴量の機械学習結果に基づいて、前記区分分割ステップの処理により分割された前記画像データの前記区分ごとに、前記区分が前記抽出対象物である確率を算出する画像識別ステップと、
前記画像識別ステップの処理により算出された、前記区分ごとの前記抽出対象物である確率を画素値に変換する識別結果変換ステップと、
前記識別結果変換ステップの処理により変換された前記画素値を有する画像に画像処理を行う画像処理ステップと
を含むことを特徴とする肉の骨部判別方法。 - 紫色光撮影部にオレンジあるいは黄色のフィルターを通して画像を得ることを特徴とする請求項5記載の肉の骨部判別方法。
- 青色光撮影部にオレンジあるいは黄色のフィルターを通して画像を得ることを特徴とする請求項5又は請求項6のいずれかに記載の肉の骨部判別方法。
- 暗所で、
切断面に紫外光を照射して該紫外光の反射光を取り入れ紫外光画像を得る紫外光撮影部と、
切断面に紫色光を照射して該紫色光の反射光を取り入れ紫色光画像を得る紫色光撮影部と、
切断面に青色光を照射して該青色光の反射光を取り入れ青色光画像を得る青色光撮影部と、
から得られる、
画像データから抽出対象物を抽出するにあたり、肉の切断面の骨部を判別する肉の骨部判別処理をコンピュータに実行させるためのプログラムであって、
前記画像データを区分分割する区分分割ステップと、
ディープラーニングの手法による前記抽出対象物の特徴量の機械学習結果に基づいて、前記区分分割ステップの処理により分割された前記画像データの前記区分ごとに、前記区分が前記抽出対象物である確率を算出する画像識別ステップと、
前記画像識別ステップの処理により算出された、前記区分ごとの前記抽出対象物である確率を画素値に変換する識別結果変換ステップと、
前記識別結果変換ステップの処理により変換された前記画素値を有する画像に画像処理を行う画像処理ステップと、
を含むことを特徴とするプログラム。 - 釣り糸またはえびまたは魚または貝または異種海藻が混在した海藻類に可視光を照射して該可視光の反射光を取り入れ可視光画像を得る可視光撮影部と、
釣り糸またはえびまたは魚または貝または異種海藻が混在した海藻類に紫外光を照射して該紫外光の反射光を取り入れ紫外光画像を得る紫外色光撮影部と、
から得られる、画像データから抽出対象物を抽出するにあたり、釣り糸またはえびまたは魚または貝または異種海藻が混在した海藻類から釣り糸またはえびまたは魚または貝または異種海藻を判別する釣り糸またはえびまたは魚または貝または異種海藻の判別装置であって、
前記画像データを区分分割する区分分割手段と、
ディープラーニングの手法による前記抽出対象物の特徴量の機械学習結果を有し、前記機械学習結果に基づいて、前記区分分割手段により分割された前記画像データの前記区分ごとに、前記区分が前記抽出対象物である確率を算出する画像識別手段と、
前記画像識別手段により算出された、前記区分ごとの前記抽出対象物である確率を画素値に変換する識別結果変換手段と、
前記識別結果変換手段により変換された前記画素値を有する画像に画像処理を行う画像処理手段と
を備えることを特徴とする釣り糸またはえびまたは魚または貝または異種海藻が混在した海藻類から釣り糸またはえびまたは魚または貝または異種海藻を判別する釣り糸またはえびまたは魚または貝または異種海藻の判別装置。 - 前記画像処理手段は、前記区分分割手段により分割された前記画像データに画像処理を行い、
前記画像識別手段は、前記画像処理手段により画像処理された前記画像データに対して、前記画像データの前記区分ごとに、前記抽出対象物である確率を算出することを特徴とする請求項9に記載の釣り糸またはえびまたは魚または貝または異種海藻が混在した海藻類から釣り糸またはえびまたは魚または貝または異種海藻を判別する釣り糸またはえびまたは魚または貝または異種海藻の判別装置。 - 釣り糸またはえびまたは魚または貝または異種海藻が混在した海藻類に可視光を照射して該可視光の反射光を取り入れ可視光画像を得る可視光撮影部と、
釣り糸またはえびまたは魚または貝または異種海藻が混在した海藻類に紫外光を照射して該紫外光の反射光を取り入れ紫外光画像を得る紫外色光撮影部と、
から得られる、画像データから抽出対象物を抽出するにあたり、釣り糸またはえびまたは魚または貝または異種海藻が混在した海藻類から釣り糸またはえびまたは魚または貝または異種海藻を判別する釣り糸またはえびまたは魚または貝または異種海藻の判別方法であって、
前記画像データを区分分割する区分分割ステップと、
ディープラーニングの手法による前記抽出対象物の特徴量の機械学習結果に基づいて、前記区分分割ステップの処理により分割された前記画像データの前記区分ごとに、前記区分が前記抽出対象物である確率を算出する画像識別ステップと、
前記画像識別ステップの処理により算出された、前記区分ごとの前記抽出対象物である確率を画素値に変換する識別結果変換ステップと、
前記識別結果変換ステップの処理により変換された前記画素値を有する画像に画像処理を行う画像処理ステップと
を含むことを特徴とする釣り糸またはえびまたは魚または貝または異種海藻が混在した海藻類から釣り糸またはえびまたは魚または貝または異種海藻を判別する釣り糸またはえびまたは魚または貝または異種海藻の判別方法置。 - 釣り糸またはえびまたは魚または貝または異種海藻が混在した海藻類に可視光を照射して該可視光の反射光を取り入れ可視光画像を得る可視光撮影部と、
釣り糸またはえびまたは魚または貝または異種海藻が混在した海藻類に紫外光を照射して該紫外光の反射光を取り入れ紫外光画像を得る紫外色光撮影部と、
から得られる、画像データから抽出対象物を抽出するにあたり、釣り糸またはえびまたは魚または貝または異種海藻が混在した海藻類から釣り糸またはえびまたは魚または貝または異種海藻を判別する釣り糸またはえびまたは魚または貝または異種海藻の判別処理をコンピュータに実行させるためのプログラムであって、
前記画像データを区分分割する区分分割ステップと、
ディープラーニングの手法による前記抽出対象物の特徴量の機械学習結果に基づいて、前記区分分割ステップの処理により分割された前記画像データの前記区分ごとに、前記区分が前記抽出対象物である確率を算出する画像識別ステップと、
前記画像識別ステップの処理により算出された、前記区分ごとの前記抽出対象物である確率を画素値に変換する識別結果変換ステップと、
前記識別結果変換ステップの処理により変換された前記画素値を有する画像に画像処理を行う画像処理ステップと、
を含むことを特徴とするプログラム。 - 根腐れ部位または傷み部位が混在した根野菜に可視光を照射して該可視光の反射光を取り入れ可視光画像を得る可視光撮影部と、
根腐れ部位または傷み部位が混在した根野菜に他の可視光を照射して該他の可視光の反射光を取り入れ他の可視光画像を得る他の可視光撮影部と、
から得られる、画像データから抽出対象物を抽出するにあたり、根腐れ部位または傷み部位が混在した根野菜から根腐れ部位または傷み部位を判別する根腐れ部位または傷み部位の判別装置であって、
前記画像データを区分分割する区分分割手段と、
ディープラーニングの手法による前記抽出対象物の特徴量の機械学習結果を有し、前記機械学習結果に基づいて、前記区分分割手段により分割された前記画像データの前記区分ごとに、前記区分が前記抽出対象物である確率を算出する画像識別手段と、
前記画像識別手段により算出された、前記区分ごとの前記抽出対象物である確率を画素値に変換する識別結果変換手段と、
前記識別結果変換手段により変換された前記画素値を有する画像に画像処理を行う画像処理手段と
を備えることを特徴とする根腐れ部位または傷み部位が混在した根野菜から根腐れ部位または傷み部位を判別する根腐れ部位または傷み部位の判別装置。 - 前記画像処理手段は、前記区分分割手段により分割された前記画像データに画像処理を行い、
前記画像識別手段は、前記画像処理手段により画像処理された前記画像データに対して、前記画像データの前記区分ごとに、前記抽出対象物である確率を算出することを特徴とする請求項13に記載の根腐れ部位または傷み部位が混在した根野菜から根腐れ部位または傷み部位を判別する根腐れ部位または傷み部位の判別装置。 - 根腐れ部位または傷み部位が混在した根野菜に可視光を照射して該可視光の反射光を取り入れ可視光画像を得る可視光撮影部と、
根腐れ部位または傷み部位が混在した根野菜に他の可視光を照射して該他の可視光の反射光を取り入れ他の可視光画像を得る他の可視光撮影部と、
から得られる、画像データから抽出対象物を抽出するにあたり、根腐れ部位または傷み部位が混在した根野菜から根腐れ部位または傷み部位を判別する根腐れ部位または傷み部位の判別方法であって、
前記画像データを区分分割する区分分割ステップと、
ディープラーニングの手法による前記抽出対象物の特徴量の機械学習結果に基づいて、前記区分分割ステップの処理により分割された前記画像データの前記区分ごとに、前記区分が前記抽出対象物である確率を算出する画像識別ステップと、
前記画像識別ステップの処理により算出された、前記区分ごとの前記抽出対象物である確率を画素値に変換する識別結果変換ステップと、
前記識別結果変換ステップの処理により変換された前記画素値を有する画像に画像処理を行う画像処理ステップと
を含むことを特徴とする根腐れ部位または傷み部位が混在した根野菜から根腐れ部位または傷み部位を判別する根腐れ部位または傷み部位の判別方法置。 - 根腐れ部位または傷み部位が混在した根野菜に可視光を照射して該可視光の反射光を取り入れ可視光画像を得る可視光撮影部と、
根腐れ部位または傷み部位が混在した根野菜に他の可視光を照射して該他の可視光の反射光を取り入れ他の可視光画像を得る他の可視光撮影部と、
から得られる、画像データから抽出対象物を抽出するにあたり、根腐れ部位または傷み部位が混在した根野菜から根腐れ部位または傷み部位を判別する根腐れ部位または傷み部位の判別処理をコンピュータに実行させるためのプログラムであって、
前記画像データを区分分割する区分分割ステップと、
ディープラーニングの手法による前記抽出対象物の特徴量の機械学習結果に基づいて、前記区分分割ステップの処理により分割された前記画像データの前記区分ごとに、前記区分が前記抽出対象物である確率を算出する画像識別ステップと、
前記画像識別ステップの処理により算出された、前記区分ごとの前記抽出対象物である確率を画素値に変換する識別結果変換ステップと、
前記識別結果変換ステップの処理により変換された前記画素値を有する画像に画像処理を行う画像処理ステップと、
を含むことを特徴とするプログラム。 - カーボン漁網が混在した乾燥海藻類に近赤外線光を照射して該近赤外線光の反射光を取り入れ近赤外線光画像を得る近赤外線光撮影部と、
カーボン漁網が混在した乾燥海藻類に近赤外線光以外の光を照射して該近赤外線光以外の光の反射光を取り入れ近赤外線光以外の光画像を得る近赤外線光以外の光撮影部と、
から得られる、画像データから抽出対象物を抽出するにあたり、カーボン漁網が混在した乾燥海藻類からカーボン漁網を判別するカーボン漁網の判別装置であって、
前記画像データを区分分割する区分分割手段と、
ディープラーニングの手法による前記抽出対象物の特徴量の機械学習結果を有し、前記機械学習結果に基づいて、前記区分分割手段により分割された前記画像データの前記区分ごとに、前記区分が前記抽出対象物である確率を算出する画像識別手段と、
前記画像識別手段により算出された、前記区分ごとの前記抽出対象物である確率を画素値に変換する識別結果変換手段と、
前記識別結果変換手段により変換された前記画素値を有する画像に画像処理を行う画像処理手段と
を備えることを特徴とするカーボン漁網が混在した乾燥海藻類からカーボン漁網を判別するカーボン漁網の判別装置。 - 前記画像処理手段は、前記区分分割手段により分割された前記画像データに画像処理を行い、
前記画像識別手段は、前記画像処理手段により画像処理された前記画像データに対して、前記画像データの前記区分ごとに、前記抽出対象物である確率を算出することを特徴とする請求項17に記載のカーボン漁網が混在した乾燥海藻類からカーボン漁網を判別するカーボン漁網の判別装置。 - カーボン漁網が混在した乾燥海藻類に近赤外線光を照射して該近赤外線光の反射光を取り入れ近赤外線光画像を得る近赤外線光撮影部と、
カーボン漁網が混在した乾燥海藻類に近赤外線光以外の光を照射して該近赤外線光以外の光の反射光を取り入れ近赤外線光以外の光画像を得る近赤外線光以外の光撮影部と、
から得られる、画像データから抽出対象物を抽出するにあたり、カーボン漁網が混在した乾燥海藻類からカーボン漁網を判別するカーボン漁網の判別方法であって、
前記画像データを区分分割する区分分割ステップと、
ディープラーニングの手法による前記抽出対象物の特徴量の機械学習結果に基づいて、前記区分分割ステップの処理により分割された前記画像データの前記区分ごとに、前記区分が前記抽出対象物である確率を算出する画像識別ステップと、
前記画像識別ステップの処理により算出された、前記区分ごとの前記抽出対象物である確率を画素値に変換する識別結果変換ステップと、
前記識別結果変換ステップの処理により変換された前記画素値を有する画像に画像処理を行う画像処理ステップと
を含むことを特徴とするカーボン漁網が混在した乾燥海藻類からカーボン漁網を判別するカーボン漁網の判別方法置。 - カーボン漁網が混在した乾燥海藻類に近赤外線光を照射して該近赤外線光の反射光を取り入れ近赤外線光画像を得る近赤外線光撮影部と、
カーボン漁網が混在した乾燥海藻類に近赤外線光以外の光を照射して該近赤外線光以外の光の反射光を取り入れ近赤外線光以外の光画像を得る近赤外線光以外の光撮影部と、
から得られる、画像データから抽出対象物を抽出するにあたり、カーボン漁網が混在した乾燥海藻類からカーボン漁網を判別するカーボン漁網の判別処理をコンピュータに実行させるためのプログラムであって、
前記画像データを区分分割する区分分割ステップと、
ディープラーニングの手法による前記抽出対象物の特徴量の機械学習結果に基づいて、前記区分分割ステップの処理により分割された前記画像データの前記区分ごとに、前記区分が前記抽出対象物である確率を算出する画像識別ステップと、
前記画像識別ステップの処理により算出された、前記区分ごとの前記抽出対象物である確率を画素値に変換する識別結果変換ステップと、
前記識別結果変換ステップの処理により変換された前記画素値を有する画像に画像処理を行う画像処理ステップと、
を含むことを特徴とするプログラム。 - 極小羽虫が混在した蕎麦に近赤外線光を照射して該近赤外線光の反射光を取り入れ近赤外線光画像を得る近赤外線光撮影部と、
極小羽虫が混在した蕎麦に近赤外線光以外の光を照射して該近赤外線光以外の光の反射光を取り入れ近赤外線光以外の光画像を得る近赤外線光以外の光撮影部と、
から得られる、画像データから抽出対象物を抽出するにあたり、極小羽虫が混在した蕎麦から極小羽虫を判別する極小羽虫の判別装置であって、
前記画像データを区分分割する区分分割手段と、
ディープラーニングの手法による前記抽出対象物の特徴量の機械学習結果を有し、前記機械学習結果に基づいて、前記区分分割手段により分割された前記画像データの前記区分ごとに、前記区分が前記抽出対象物である確率を算出する画像識別手段と、
前記画像識別手段により算出された、前記区分ごとの前記抽出対象物である確率を画素値に変換する識別結果変換手段と、
前記識別結果変換手段により変換された前記画素値を有する画像に画像処理を行う画像処理手段と
を備えることを特徴とする極小羽虫が混在した蕎麦から極小羽虫判別する極小羽虫の判別装置。 - 前記画像処理手段は、前記区分分割手段により分割された前記画像データに画像処理を行い、
前記画像識別手段は、前記画像処理手段により画像処理された前記画像データに対して、前記画像データの前記区分ごとに、前記抽出対象物である確率を算出することを特徴とする請求項21に記載の極小羽虫が混在した蕎麦から極小羽虫を判別する極小羽虫の判別装置。 - 極小羽虫が混在した蕎麦に近赤外線光を照射して該近赤外線光の反射光を取り入れ近赤外線光画像を得る近赤外線光撮影部と、
極小羽虫が混在した蕎麦に近赤外線光以外の光を照射して該近赤外線光以外の光の反射光を取り入れ近赤外線光以外の光画像を得る近赤外線光以外の光撮影部と、
から得られる、画像データから抽出対象物を抽出するにあたり、極小羽虫が混在した蕎麦から極小羽虫を判別する極小羽虫の判別方法であって、
前記画像データを区分分割する区分分割ステップと、
ディープラーニングの手法による前記抽出対象物の特徴量の機械学習結果に基づいて、前記区分分割ステップの処理により分割された前記画像データの前記区分ごとに、前記区分が前記抽出対象物である確率を算出する画像識別ステップと、
前記画像識別ステップの処理により算出された、前記区分ごとの前記抽出対象物である確率を画素値に変換する識別結果変換ステップと、
前記識別結果変換ステップの処理により変換された前記画素値を有する画像に画像処理を行う画像処理ステップと
を含むことを特徴とする極小羽虫が混在した蕎麦から極小羽虫を判別する極小羽虫の判別方法置。 - 極小羽虫が混在した蕎麦に近赤外線光を照射して該近赤外線光の反射光を取り入れ近赤外線光画像を得る近赤外線光撮影部と、
極小羽虫が混在した蕎麦に近赤外線光以外の光を照射して該近赤外線光以外の光の反射光を取り入れ近赤外線光以外の光画像を得る近赤外線光以外の光撮影部と、
から得られる、画像データから抽出対象物を抽出するにあたり、極小羽虫が混在した蕎麦から極小羽虫を判別する極小羽虫の判別処理をコンピュータに実行させるためのプログラムであって、
前記画像データを区分分割する区分分割ステップと、
ディープラーニングの手法による前記抽出対象物の特徴量の機械学習結果に基づいて、前記区分分割ステップの処理により分割された前記画像データの前記区分ごとに、前記区分が前記抽出対象物である確率を算出する画像識別ステップと、
前記画像識別ステップの処理により算出された、前記区分ごとの前記抽出対象物である確率を画素値に変換する識別結果変換ステップと、
前記識別結果変換ステップの処理により変換された前記画素値を有する画像に画像処理を行う画像処理ステップと、
を含むことを特徴とするプログラム。 - 透明ビニルが混在した豚肉こまぎれに可視光を照射して該可視光の反射光を取り入れ可視光画像を得る可視光撮影部と、
透明ビニルが混在した豚肉こまぎれに他の可視光を照射して該他の可視光の反射光を取り入れ他の可視光光画像を得る他の可視光撮影部と、
から得られる、画像データから抽出対象物を抽出するにあたり、透明ビニルが混在した豚肉こまぎれから透明ビニルを判別する透明ビニルの判別装置であって、
前記画像データを区分分割する区分分割手段と、
ディープラーニングの手法による前記抽出対象物の特徴量の機械学習結果を有し、前記機械学習結果に基づいて、前記区分分割手段により分割された前記画像データの前記区分ごとに、前記区分が前記抽出対象物である確率を算出する画像識別手段と、
前記画像識別手段により算出された、前記区分ごとの前記抽出対象物である確率を画素値に変換する識別結果変換手段と、
前記識別結果変換手段により変換された前記画素値を有する画像に画像処理を行う画像処理手段と
を備えることを特徴とする透明ビニルが混在した豚肉こまぎれから透明ビニル判別する透明ビニルの判別装置。 - 前記画像処理手段は、前記区分分割手段により分割された前記画像データに画像処理を行い、
前記画像識別手段は、前記画像処理手段により画像処理された前記画像データに対して、前記画像データの前記区分ごとに、前記抽出対象物である確率を算出することを特徴とする請求項25に記載の透明ビニルが混在した豚肉こまぎれから透明ビニルを判別する透明ビニルの判別装置。 - 透明ビニルが混在した豚肉こまぎれに可視光を照射して該可視光の反射光を取り入れ可視光画像を得る可視光撮影部と、
透明ビニルが混在した豚肉こまぎれに他の可視光を照射して該他の可視光の反射光を取り入れ他の可視光画像を得る他の可視光撮影部と、
から得られる、画像データから抽出対象物を抽出するにあたり、透明ビニルが混在した豚肉こまぎれから透明ビニルを判別する透明ビニルの判別方法であって、
前記画像データを区分分割する区分分割ステップと、
ディープラーニングの手法による前記抽出対象物の特徴量の機械学習結果に基づいて、前記区分分割ステップの処理により分割された前記画像データの前記区分ごとに、前記区分が前記抽出対象物である確率を算出する画像識別ステップと、
前記画像識別ステップの処理により算出された、前記区分ごとの前記抽出対象物である確率を画素値に変換する識別結果変換ステップと、
前記識別結果変換ステップの処理により変換された前記画素値を有する画像に画像処理を行う画像処理ステップと
を含むことを特徴とする透明ビニルが混在した豚肉こまぎれから透明ビニルを判別する透明ビニルの判別方法置。 - 透明ビニルが混在した豚肉こまぎれに可視光を照射して該可視光の反射光を取り入れ可視光画像を得る可視光撮影部と、
透明ビニルが混在した豚肉こまぎれに他の可視光を照射して該他の可視光の反射光を取り入れ他の可視光画像を得る他の可視光撮影部と、
から得られる、画像データから抽出対象物を抽出するにあたり、透明ビニルが混在した豚肉こまぎれから透明ビニルを判別する透明ビニルの判別処理をコンピュータに実行させるためのプログラムであって、
前記画像データを区分分割する区分分割ステップと、
ディープラーニングの手法による前記抽出対象物の特徴量の機械学習結果に基づいて、前記区分分割ステップの処理により分割された前記画像データの前記区分ごとに、前記区分が前記抽出対象物である確率を算出する画像識別ステップと、
前記画像識別ステップの処理により算出された、前記区分ごとの前記抽出対象物である確率を画素値に変換する識別結果変換ステップと、
前記識別結果変換ステップの処理により変換された前記画素値を有する画像に画像処理を行う画像処理ステップと、
を含むことを特徴とするプログラム。 - 揚げ物の衣の剥がれまたは凍結部位が混在した揚げ物に可視光を照射して該可視光の反射光を取り入れ可視光画像を得る可視光撮影部と、
揚げ物の衣の剥がれまたは凍結部位が混在した揚げ物に他の可視光を照射して該他の可視光の反射光を取り入れ他の可視光画像を得る他の可視光撮影部と、
から得られる、画像データから抽出対象物を抽出するにあたり、揚げ物の衣の剥がれまたは凍結部位が混在した揚げ物から揚げ物の衣の剥がれまたは凍結部位を判別する揚げ物の衣の剥がれまたは凍結部位の判別装置であって、
前記画像データを区分分割する区分分割手段と、
ディープラーニングの手法による前記抽出対象物の特徴量の機械学習結果を有し、前記機械学習結果に基づいて、前記区分分割手段により分割された前記画像データの前記区分ごとに、前記区分が前記抽出対象物である確率を算出する画像識別手段と、
前記画像識別手段により算出された、前記区分ごとの前記抽出対象物である確率を画素値に変換する識別結果変換手段と、
前記識別結果変換手段により変換された前記画素値を有する画像に画像処理を行う画像処理手段と
を備えることを特徴とする揚げ物の衣の剥がれまたは凍結部位が混在した揚げ物から揚げ物の衣の剥がれまたは凍結部位を判別する揚げ物の衣の剥がれまたは凍結部位の判別装置。 - 前記画像処理手段は、前記区分分割手段により分割された前記画像データに画像処理を行い、
前記画像識別手段は、前記画像処理手段により画像処理された前記画像データに対して、前記画像データの前記区分ごとに、前記抽出対象物である確率を算出することを特徴とする請求項29に記載の揚げ物の衣の剥がれまたは凍結部位が混在した揚げ物から揚げ物の衣の剥がれまたは凍結部位を判別する揚げ物の衣の剥がれまたは凍結部位の判別装置。 - 揚げ物の衣の剥がれまたは凍結部位が混在した揚げ物に可視光を照射して該可視光の反射光を取り入れ可視光画像を得る可視光撮影部と、
揚げ物の衣の剥がれまたは凍結部位が混在した揚げ物に他の可視光を照射して該他の可視光の反射光を取り入れ他の可視光画像を得る他の可視光撮影部と、
から得られる、画像データから抽出対象物を抽出するにあたり、揚げ物の衣の剥がれまたは凍結部位が混在した揚げ物から揚げ物の衣の剥がれまたは凍結部位を判別する揚げ物の衣の剥がれまたは凍結部位の判別方法であって、
前記画像データを区分分割する区分分割ステップと、
ディープラーニングの手法による前記抽出対象物の特徴量の機械学習結果に基づいて、前記区分分割ステップの処理により分割された前記画像データの前記区分ごとに、前記区分が前記抽出対象物である確率を算出する画像識別ステップと、
前記画像識別ステップの処理により算出された、前記区分ごとの前記抽出対象物である確率を画素値に変換する識別結果変換ステップと、
前記識別結果変換ステップの処理により変換された前記画素値を有する画像に画像処理を行う画像処理ステップと
を含むことを特徴とする揚げ物の衣の剥がれまたは凍結部位が混在した揚げ物から揚げ物の衣の剥がれまたは凍結部位を判別する揚げ物の衣の剥がれまたは凍結部位の判別方法置。 - 揚げ物の衣の剥がれまたは凍結部位が混在した揚げ物に可視光を照射して該可視光の反射光を取り入れ可視光画像を得る可視光撮影部と、
揚げ物の衣の剥がれまたは凍結部位が混在した揚げ物に他の可視光を照射して該他の可視光の反射光を取り入れ他の可視光画像を得る他の可視光撮影部と、
から得られる、画像データから抽出対象物を抽出するにあたり、揚げ物の衣の剥がれまたは凍結部位が混在した揚げ物から揚げ物の衣の剥がれまたは凍結部位を判別する揚げ物の衣の剥がれまたは凍結部位の判別処理をコンピュータに実行させるためのプログラムであって、
前記画像データを区分分割する区分分割ステップと、
ディープラーニングの手法による前記抽出対象物の特徴量の機械学習結果に基づいて、前記区分分割ステップの処理により分割された前記画像データの前記区分ごとに、前記区分が前記抽出対象物である確率を算出する画像識別ステップと、
前記画像識別ステップの処理により算出された、前記区分ごとの前記抽出対象物である確率を画素値に変換する識別結果変換ステップと、
前記識別結果変換ステップの処理により変換された前記画素値を有する画像に画像処理を行う画像処理ステップと、
を含むことを特徴とするプログラム。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018241565 | 2018-12-25 | ||
JP2018241565 | 2018-12-25 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2020103284A true JP2020103284A (ja) | 2020-07-09 |
Family
ID=71449801
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019231162A Pending JP2020103284A (ja) | 2018-12-25 | 2019-12-23 | 肉の骨の判別装置等の判別装置及び肉の骨判別方法等の判別方法、ならびに肉の骨判別プログラム等の判別プログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2020103284A (ja) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2020218513A1 (ja) * | 2019-04-26 | 2020-10-29 | 株式会社前川製作所 | 特徴点の認識システムおよび認識方法 |
WO2023063215A1 (ja) * | 2021-10-13 | 2023-04-20 | 株式会社前川製作所 | 食肉用の作用点演算システム、食肉加工システム、及び、食肉用の作用点演算方法 |
JP7413583B1 (ja) | 2023-03-31 | 2024-01-15 | 株式会社電通 | 魚の品質判定システム |
-
2019
- 2019-12-23 JP JP2019231162A patent/JP2020103284A/ja active Pending
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2020218513A1 (ja) * | 2019-04-26 | 2020-10-29 | 株式会社前川製作所 | 特徴点の認識システムおよび認識方法 |
WO2023063215A1 (ja) * | 2021-10-13 | 2023-04-20 | 株式会社前川製作所 | 食肉用の作用点演算システム、食肉加工システム、及び、食肉用の作用点演算方法 |
JP7413583B1 (ja) | 2023-03-31 | 2024-01-15 | 株式会社電通 | 魚の品質判定システム |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2020103284A (ja) | 肉の骨の判別装置等の判別装置及び肉の骨判別方法等の判別方法、ならびに肉の骨判別プログラム等の判別プログラム | |
Jackman et al. | Automatic segmentation of beef longissimus dorsi muscle and marbling by an adaptable algorithm | |
Folkestad et al. | Rapid and non-invasive measurements of fat and pigment concentrations in live and slaughtered Atlantic salmon (Salmo salar L.) | |
Lino et al. | Image processing techniques for lemons and tomatoes classification | |
Trinderup et al. | Comparison of a multispectral vision system and a colorimeter for the assessment of meat color | |
Cheng et al. | Integration of classifiers analysis and hyperspectral imaging for rapid discrimination of fresh from cold-stored and frozen-thawed fish fillets | |
Windham et al. | Visible/NIR spectroscopy for characterizing fecal contamination of chicken carcasses | |
Bulanon et al. | Citrus black spot detection using hyperspectral image analysis | |
CN106296670B (zh) | 一种基于Retinex-分水岭-Canny算子的红外图像边缘检测方法 | |
Chao et al. | High throughput spectral imaging system for wholesomeness inspection of chicken | |
Song et al. | Detection of fish bones in fillets by Raman hyperspectral imaging technology | |
Li et al. | Development of algorithms for detecting citrus canker based on hyperspectral reflectance imaging | |
CA2383726C (en) | Method of detecting and removing unstripped residual shell left on shellfish, and apparatus therefor | |
Stien et al. | Automated image analysis as a tool to quantify the colour and composition of rainbow trout (Oncorhynchus mykiss W.) cutlets | |
Al-Rahbi et al. | Detecting surface cracks on dates using color imaging technique | |
Stien et al. | Rapid estimation of fat content in salmon fillets by colour image analysis | |
Pau | Fish quality control by computer vision | |
CN102184389B (zh) | 用于心材与边材高色差树种的年轮自动识别方法 | |
Arnarson et al. | Vision applications in the fishing and fish product industries | |
Stormo et al. | Effects of single wavelength selection for anisakid roundworm larvae detection through multispectral imaging | |
Sheng et al. | Detection of fish bones in cod fillets by UV illumination | |
ES2552405A1 (es) | Sistema y método de detección de parásitos Anisakis en filetes de pescado | |
KR102205445B1 (ko) | 다분광 형광 영상을 이용한 가공 채소류 측 이물질 검출시스템 및 검출방법 | |
JP2022180641A (ja) | 異物判別方法、加工農作物の製造方法、食品検査装置、及び異物除去システム | |
JP7248284B2 (ja) | 異物の検出装置及び異物の検出方法ならびに異物の検出プログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
AA64 | Notification of invalidation of claim of internal priority (with term) |
Free format text: JAPANESE INTERMEDIATE CODE: A241764 Effective date: 20200204 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200205 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20210401 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20221019 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20231114 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20240111 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20240304 |