JP7223880B2 - 乳牛の乳首の検出畳み込みニューラルネットワークモデル及びその構築方法 - Google Patents

乳牛の乳首の検出畳み込みニューラルネットワークモデル及びその構築方法 Download PDF

Info

Publication number
JP7223880B2
JP7223880B2 JP2021568565A JP2021568565A JP7223880B2 JP 7223880 B2 JP7223880 B2 JP 7223880B2 JP 2021568565 A JP2021568565 A JP 2021568565A JP 2021568565 A JP2021568565 A JP 2021568565A JP 7223880 B2 JP7223880 B2 JP 7223880B2
Authority
JP
Japan
Prior art keywords
cow
image
neural network
convolutional neural
network model
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021568565A
Other languages
English (en)
Other versions
JP2022533167A (ja
Inventor
迪 呉
博博 連
晨健 呉
旻▲しん▼ 陳
虹 陳
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
FJ Dynamics Technology Co Ltd
Original Assignee
FJ Dynamics Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by FJ Dynamics Technology Co Ltd filed Critical FJ Dynamics Technology Co Ltd
Publication of JP2022533167A publication Critical patent/JP2022533167A/ja
Application granted granted Critical
Publication of JP7223880B2 publication Critical patent/JP7223880B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/23Clustering techniques
    • G06F18/232Non-hierarchical techniques
    • G06F18/2321Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions
    • G06F18/23213Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions with fixed number of clusters, e.g. K-means clustering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Computational Linguistics (AREA)
  • Molecular Biology (AREA)
  • Mathematical Physics (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Probability & Statistics with Applications (AREA)
  • Databases & Information Systems (AREA)
  • Medical Informatics (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Description

本発明は、コンピュータ分野に関し、さらに乳牛の乳首の検出畳み込みニューラルネットワークモデル及びその構築方法並びにその構築システムに関する。
科学技術の発展に伴い、農業や畜産の自動化の開発は、現在の需要になっている。自動化の発展は、多くの人的資源と時間のコストを削減でき、また、農薬の自動噴霧や農場、牧草地の自動給餌装置などの人間の管理を容易にする。多くの畜産生産作業のうち、乳牛搾乳は、労働強度が高く、操作者に対する要求が高い仕事である。現在、自動搾乳装置の研究と設計もいくつかあるが、これらの装置では依然として手動操作が必要とされ、操作が複雑であり、作業効率が低い。
当業者は、乳牛搾乳プロセスの完全な自動化を実現するために、乳首の検出および位置決めが非常に重要なステップであることを理解すべきである。乳首の位置決めが正確であるか否かは、牛搾乳プロセスの精度と効果に直接関係している。オブジェクト検出を実現するために、従来の方法では、オブジェクトに対してさまざまな特徴抽出方法と分類アルゴリズムを設計する必要があり、これらは、主に、領域選択-特徴抽出-分類器として表すことができる。領域の選択は、通常、列挙戦略を使用し、スライディングウィンドウを使用し、さまざまなサイズを設定し、さまざまなアスペクト比で画像をトラバースし、時間の複雑さが高くなる。そして、使用される特徴抽出は、人工的に設計されたものばかりであり、形状の多様性、光の多様性、光の変化の多様性、および背景の多様性により、ロバスト性が劣っている。
畳み込みニューラルネットワークアーキテクチャの開発とともに、ディープラーニングに基づく目標の検出および認識が主流の方法になっている。1つのタイプは、R-CNN、Fast R-CNN、Faster R-CNNなど、オブジェクト境界領域推薦を含むモデルであり、このタイプのモデルは、列挙法を使用して目標候補領域を予め仮定し、目標位置を徐々に微調整および最適化し、最終的に分類と認識を実現するが、このタイプの方法の検出速度は遅い。もう1つのタイプは、境界領域を直接生成するモデル、例えば、YOLOやSSDなどのOne-stageの検出モデルである。このタイプのモデルは、目標予測を実行するとともに、境界と分類の認識を予測できる。検出速度は非常に明らかに向上しているが、多くの場合、検出漏れなど、検出精度が低い問題がある。一方、ディープラーニングのフレームワークでは、学習すべきパラメータが多すぎ、計算速度が遅く、過剰適合が発生する可能性があるため、目標検出の改善点はまだたくさんある。
本発明の1つの目的は、乳牛の乳首の検出畳み込みニューラルネットワークモデル及びその構築方法並びにその構築システムを提供することであり、畳み込みニューラルネットワークを乳牛の乳首検出の分野に適用することで、乳牛の乳首検出の精度を向上させる。
本発明の別の目的は、乳牛の乳首の検出畳み込みニューラルネットワークモデル及びその構築方法並びにその構築システムを提供することであり、前記乳牛の乳首の検出畳み込みニューラルネットワークモデルは、乳牛の乳首に対する検出精度が高い。
本発明の別の目的は、乳牛の乳首の検出畳み込みニューラルネットワークモデル及びその構築方法並びにその構築システムを提供することであり、入力された画像の認識率が高く、乳牛の乳首の認識ロバスト性が高く、学習能力が高い。
本発明の別の目的は、乳牛の乳首の検出畳み込みニューラルネットワークモデル及びその構築方法並びにその構築システムを提供することであり、ImageNet訓練モデルで訓練されたResNet50パラメータファイルを用いることで、モデルの収束速度を加速し、乳牛の乳首の検出効率を向上させることができる。
本発明の別の目的は、乳牛の乳首の検出畳み込みニューラルネットワークモデル及びその構築方法並びにその構築システムを提供することであり、BatchNorm層のパラメータを畳み込み層に統合することで、検出効率を向上できる。
本発明の別の目的は、乳牛の乳首の検出畳み込みニューラルネットワークモデル及びその構築方法並びにその構築システムを提供することであり、スクリーニングメカニズムを導入し、所定条件を満たさない検出ブロックを除去することで、乳牛の乳首検出の精度を向上させる。
本発明の別の目的は、乳牛の乳首の検出畳み込みニューラルネットワークモデル及びその構築方法並びにその構築システムを提供することであり、前記乳牛の乳首の検出畳み込みニューラルネットワークモデルは、乳牛の乳首に対する検出精度が高く、使いやすい。
以上に対応し、以上の少なくとも1つの発明目的を実現するために、本発明は、乳牛の乳首の検出畳み込みニューラルネットワークモデルの構築方法を提供し、乳牛の乳首の検出畳み込みニューラルネットワークモデルの構築方法は、
少なくとも1つの乳牛の少なくとも1つの乳牛画像を取得し、前記乳牛画像が乳牛の乳首を含むステップ101と、
前記乳牛画像の各々に対応するマーキング画像を取得し、前記マーキング画像が前記乳牛画像における前記乳牛の乳首の位置をマーキングする少なくとも1つの目標ブロックを有するステップ102と、
前記乳牛画像及び対応する前記マーキング画像を所定比率で訓練セット、検証セット及びテストセットに分割するステップ103と、
前記訓練セットにおける前記乳牛画像及び対応する前記マーキング画像に基づいて、乳牛の乳首の検出畳み込みニューラルネットワークモデルを構築するステップ104と、
前記検証セット及び前記テストセットにおける前記乳牛画像及び対応する前記マーキング画像に基づいて、前記乳牛の乳首の検出畳み込みニューラルネットワークモデルパラメータに対して最適化とテストを行うステップ105と、を含む。
本発明のいくつかの好適な実施例では、前記ステップ103では、前記乳牛画像及び対応する前記マーキング画像を8:1:1の比率で前記訓練セット、前記検証セット及び前記テストセットに分割する。
本発明のいくつかの好適な実施例では、前記ステップ102と前記ステップ103との間に、前記乳牛画像及び対応する前記マーキング画像に対して増幅処理を行うことにより、前記乳牛画像及び対応する前記マーキング画像の多様性を向上させるステップをさらに含む。
本発明のいくつかの好適な実施例では、前記ステップ103と前記ステップ104との間に、前記マーキング画像に基づいて前記目標ブロックを所定サイズに調整するステップをさらに含む。
本発明のいくつかの好適な実施例では、K-meansクラスタリングアルゴリズムを用いて前記目標ブロックを前記所定サイズに調整する。
本発明のいくつかの好適な実施例では、前記ステップ105では、前記乳牛の乳首の検出畳み込みニューラルネットワークモデルを最適化して認証するとき、前記乳牛の乳首の検出畳み込みニューラルネットワークモデルのBatchNorm層のパラメータを畳み込み層に統合する。
本発明のいくつかの好適な実施例では、前記乳牛の乳首の検出畳み込みニューラルネットワークモデルの構築方法は、所定条件を満たさない検出ブロックを除去するステップをさらに含む。
本発明の他の態様によれば、本発明は、画像における乳牛の乳首の位置を検出する乳牛の乳首の検出畳み込みニューラルネットワークモデルをさら提供し、前記乳牛の乳首の検出畳み込みニューラルネットワークモデルは、
少なくとも1つの乳牛の少なくとも1つの乳牛画像を取得し、前記乳牛画像が乳牛の乳首を含む乳牛画像取得ユニットと、
前記乳牛画像に対応するマーキング画像を取得し、前記マーキング画像が前記乳牛の乳首の位置をマーキングする少なくとも1つの目標ブロックを有するマーキング画像取得ユニットと、
前記乳牛画像及び対応する前記マーキング画像を所定比率で訓練セット、検証セット及びテストセットに分割する画像分割ユニットと、
前記訓練セットにおける前記乳牛画像及び対応する前記マーキング画像に基づいて、乳牛の乳首の検出畳み込みニューラルネットワークモデルを構築するネットワークモデル構築ユニットと、
前記検証セット及び前記テストセットにおける前記乳牛画像及び対応する前記マーキング画像に基づいて、前記乳牛の乳首の検出畳み込みニューラルネットワークモデルパラメータに対して最適化とテストを行うネットワークモデル最適化ユニットと、を含む。
本発明のいくつかの好適な実施例では、前記画像分割ユニットは、前記乳牛画像及び対応する前記マーキング画像を8:1:1の比率で前記訓練セット、前記検証セット及び前記テストセットに分割する。
本発明のいくつかの好適な実施例では、前記乳牛の乳首の検出畳み込みニューラルネットワークモデル構築システムは、前記乳牛画像及び対応する前記マーキング画像に対して増幅処理を行うことにより、前記乳牛画像及び対応する前記マーキング画像の多様性を向上させる画像増幅ユニットをさらに含む。
本発明のいくつかの好適な実施例では、前記乳牛の乳首の検出畳み込みニューラルネットワークモデル構築システムは、前記マーキング画像に基づいて前記目標ブロックを所定サイズに調整する目標ブロック調整ユニットをさらに含む。
本発明のいくつかの好適な実施例では、前記乳牛の乳首の検出畳み込みニューラルネットワークモデル構築システムは、所定条件を満たさない検出ブロックをスクリーニングするスクリーニングユニットをさらに含む。
本発明の他の態様によれば、本発明は、乳牛画像における乳牛の乳首の位置を検出する乳牛の乳首の検出畳み込みニューラルネットワークモデルをさら提供し、前記乳牛の乳首の検出畳み込みニューラルネットワークモデルの構築方法は、
少なくとも1つの乳牛の少なくとも1つの乳牛画像を取得し、前記乳牛画像が乳牛の乳首を含むステップ101と、
前記乳牛画像の各々に対応するマーキング画像を取得し、前記マーキング画像が前記乳牛画像における前記乳牛の乳首の位置をマーキングする少なくとも1つの目標ブロックを有するステップ102と、
前記乳牛画像及び対応する前記マーキング画像を所定比率で訓練セット、検証セット及びテストセットに分割するステップ103と、
前記訓練セットにおける前記乳牛画像及び対応する前記マーキング画像に基づいて、乳牛の乳首の検出畳み込みニューラルネットワークモデルを構築するステップ104と、
前記検証セット及び前記テストセットにおける前記乳牛画像及び対応する前記マーキング画像に基づいて、前記乳牛の乳首の検出畳み込みニューラルネットワークモデルパラメータに対して最適化とテストを行うステップ105と、を含む。
本発明の他の態様によれば、本発明は、乳牛の乳首検出方法であって、
実際の乳牛画像を取得するステップ201と、
乳牛の乳首の検出畳み込みニューラルネットワークモデルを用いて前記実際の乳牛画像における乳牛の乳首の位置を検出するステップ202と、を含み、
前記乳牛の乳首の検出畳み込みニューラルネットワークモデルの構築方法は、
少なくとも1つの乳牛の少なくとも1つの乳牛画像を取得し、前記乳牛画像が乳牛の乳首を含むステップ101と、
前記乳牛画像の各々に対応するマーキング画像を取得し、前記マーキング画像が前記乳牛画像における前記乳牛の乳首の位置をマーキングする少なくとも1つの目標ブロックを有するステップ102と、
前記乳牛画像及び対応する前記マーキング画像を所定比率で訓練セット、検証セット及びテストセットに分割するステップ103と、
前記訓練セットにおける前記乳牛画像及び対応する前記マーキング画像に基づいて、乳牛の乳首の検出畳み込みニューラルネットワークモデルを構築するステップ104と、
前記検証セット及び前記テストセットにおける前記乳牛画像及び対応する前記マーキング画像に基づいて、前記乳牛の乳首の検出畳み込みニューラルネットワークモデルパラメータに対して最適化とテストを行うステップ105と、を含む、ことを特徴とする乳牛の乳首検出方法をさら提供する。
本発明の1つの好適な実施例による乳牛の乳首の検出畳み込みニューラルネットワークモデル構築方法の模式的なブロック図である。 本発明の1つの好適な実施例による乳牛の乳首の検出畳み込みニューラルネットワークモデル構築方法の模式的なフローチャート図である。 本発明の1つの好適な実施例による乳牛の乳首の検出畳み込みニューラルネットワークモデルのネットワークアーキテクチャ構造の模式図である。 本発明の1つの好適な実施例による乳牛の乳首の検出畳み込みニューラルネットワークモデルのスクリーニングメカニズムの模式図である。 本発明の1つの好適な実施例による乳牛の乳首の検出畳み込みニューラルネットワークモデルのネットワーク訓練のLoss曲線図である。 本発明の1つの好適な実施例による乳牛の乳首の検出畳み込みニューラルネットワークモデルのネットワークテスト結果PR図である。 本発明の1つの好適な実施例による乳牛の乳首の検出畳み込みニューラルネットワークモデルの適用構造の模式図である。 本発明の第2の好適な実施例による乳牛の乳首の検出畳み込みニューラルネットワークモデル構築方法の模式的なブロック図である。 本発明の1つの好適な実施例による乳牛の乳首の検出畳み込みニューラルネットワークモデル構築システム全体構造の模式的なブロック図である。 本発明の1つの好適な実施例による乳牛の乳首検出方法の模式的なブロック図である。
以下の説明は、当業者が本発明を実施できるために、本発明を開示するためのものである。以下の説明における好ましい実施形態は単なる例であり、当業者は他の明白な変形を想到できる。以下の説明で限定される本発明の基本原理は、その他の実施案、変形案、改良案、同等案及び本発明の精神と範囲から逸脱しないその他の技術の解決手段に適用できる。
当業者であれば理解できるように、本発明の説明において、「縦方向」、「横方向」、「上」、「下」、「前」、「後」、「左」、「右」、「垂直」、「水平」、「頂」、「底」「内」、「外」などのような用語により示される方位又は位置関係は、図面に示される方位又は位置関係に基づくものであり、本発明の説明及び本発明の説明の簡単化のために過ぎず、示される装置又は要素が特定方位を有したり、特定方位で構成又は操作されたりすることを指示又は示唆するものではなく、従って、上記用語は、本発明に対する限定としては理解されない。
理解できるように、用語の「1つ」は、「少なくとも1つ」又は「1つ又は複数」と理解されるべきであり、すなわち、1つの実施例では、1つの素子の数は、1つであってもよいが、他の実施例では、該素子の数は複数であってもよく、用語「1つ」は数に対する制限と理解すべきではない。
明細書の図1~図8を参照すると、本発明に係る乳牛の乳首の検出畳み込みニューラルネットワークモデルの構築方法100が説明され、乳牛の乳首の検出畳み込みニューラルネットワークモデルの構築方法100は、
少なくとも1つの乳牛の少なくとも1つの乳牛画像を取得し、前記乳牛画像が乳牛の乳首を含むステップ101と、
前記乳牛画像の各々に対応するマーキング画像を取得し、前記マーキング画像が前記乳牛画像における前記乳牛の乳首の位置をマーキングするための目標ブロックを有するステップ102と、
前記乳牛画像及び対応する前記マーキング画像を所定比率で訓練セット、検証セット及びテストセットに分割するステップ103と、
前記訓練セットにおける前記乳牛画像及び対応する前記マーキング画像に基づいて、乳牛の乳首の検出畳み込みニューラルネットワークモデルを構築するステップ104と、
前記検証セット及び前記テストセットにおける前記乳牛画像及び対応する前記マーキング画像に基づいて、前記乳牛の乳首の検出畳み込みニューラルネットワークモデルパラメータに対して最適化とテストを行うステップ105と、を含む。
前記ステップ101では、前記乳牛の前記乳牛画像を撮影するとき、工業用カメラで前記乳牛の異なる角度の複数枚の前記乳牛画像をそれぞれ取得する。好適には、それぞれ前記乳牛の前後左右の4つ方向から前記乳牛の前記乳牛画像を撮影する。好適には、前記乳牛の数は、100匹であり、それぞれ100匹の前記乳牛の前記乳牛画像を取得することにより、サンプルの多様性を向上させる。
なお、前記乳牛の前記乳牛画像を撮影した後、所定条件を満たさない乳牛画像、例えば、露光されたり、不明瞭であったり、目標が遮蔽されたりするなどの写真を除去し、前記乳牛画像の精度を向上させ、乳牛の乳首の検出畳み込みニューラルネットワークモデルの精度を向上させる。
前記ステップ102では、前記乳牛画像のうち、前記所定条件を満たさない画像を除去した後、マーキングツールを用いて残りの前記乳牛画像をマーキングし、各前記乳牛画像に対して対応する目標ブロック及びカテゴリを作成し、前記目標ブロックは、前記乳牛画像における前記乳牛の乳首の位置をマーキングするためのものであり、マーキングカテゴリは、主として背景、乳牛乳房及び乳牛の乳首に分けられており、マーキング済みの前記マーキング画像をxmlファイルに記憶する。
前記ステップ103では、前記乳牛画像及び対応する前記マーキング画像を所定比率で前記訓練セット、前記検証セット及び前記テストセットに分割し、好適には、本好適な実施例では、前記乳牛画像及び対応する前記マーキング画像を8:1:1の比率で前記訓練セット、前記検証セット及び前記テストセットにランダムに分割し、対応するtxtファイルを生成し、ファイルに図の名称を記憶する。前記乳牛画像、マーキングして生成された前記xmlファイル及びtxtファイルをそれぞれPascal_VOCデータセットに対応するフォルダに入れ、Pascal_VOCフォーマットの乳牛データセットを生成する。
さらに、本発明の別のいくつかの好適な実施例では、前記ステップ102と前記ステップ103との間に、前記乳牛画像及び対応する前記マーキング画像に対して増幅処理を行うことにより、画像の多様性を向上させるステップ106をさらに含む。当業者であれば理解できるように、取得された前記乳牛画像の数が限られているため、ディープラーニングの大量のデータの要求を満たすことができず、回転、並進及び反転などのデータ強化技術を用いて前記乳牛画像及び前記マーキング画像の多様性を向上させ、また、データセットの平均値を計算し、データセットに対して色標準化処理を行い、不均一な光よる影響を解消し、増幅処理済みの前記乳牛画像及び対応する前記マーキング画像を前記所定比率で前記訓練セット、前記検証セット及び前記テストセットに分割する。当業者であれば理解できるように、本発明の別のいくつかの好適な実施例では、収集された前記乳牛画像の数が十分に多い場合、ディープラーニングに必要とされる大量のデータの要求を満たすことができるとき、前記乳牛画像及び対応する前記マーキング画像に対して増幅処理を行わなくてもよい。
さらに、前記ステップ103と前記ステップ104との間に、前記マーキング画像に基づいて前記目標ブロックを所定サイズに調整するステップ107をさらに含む。当業者であれば理解できるように、本発明に係る前記乳牛画像及び対応する前記マーキング画像の特殊性のため、実際ニーズに応じて前記乳牛画像及び対応する前記マーキング画像の大きさを調整する必要がある。具体的には、本好適な実施例では、K-meansクラスタリングアルゴリズムを用いて前記目標ブロックの大きさを取得し、各訓練サンプルを最も近い中心点が位置するクラスタに割り当て、サンプルとクラスタ中心との距離dを計算することで、それぞれ9つ及び15つのanchorを生成し、dの計算式は、d(box,centroid)=1-IOU(box,centroid)であり、IOUの計算式は、IOU=(box∩centroid)/(box∪centroid)である。
明細書の図面を参照すると、前記ステップ104では、前記訓練セットにおける前記乳牛画像及び対応する前記マーキング画像に基づいて、乳牛画像に基づく畳み込みニューラルネットワークを構築し、ここで用いられるネットワークは、FasterRCNN及びRFCNを含み、resnet50を特徴抽出ネットワークとして用い、ネットワークの最後の全接続層を除去する。前記特徴抽出ネットワークは、画像特徴情報を抽出するための残差畳み込み構造であり、この後、RPNネットワークに接続して目標検出を行う。前記ステップ107で決定された前記目標ブロックの大きさに応じて、ネットワーク層におけるanchorの大きさ及び数を変更することで、小目標に対する検出精度を向上させる。そして、前記訓練セットにおける前記乳牛画像及び対応する前記マーキング画像を畳み込みニューラルネットワークに入力することで、前記乳牛の乳首の検出畳み込みニューラルネットワークを構築する。具体的には、ネットワークに入力された画像解像度が720*1280であり、また、ImageNetモデルにより訓練されたresnet50パラメータファイルをダウンロードし、caffeフレームワークを用いて訓練し、訓練結果に基づいて学習パラメータを調整し、最後に条件を満たすモデルパラメータを取得する。
前記ステップ105において、前記検証セットにおける前記乳牛画像及び対応する前記マーキング画像を用いて前記乳牛の乳首の検出畳み込みニューラルネットワークモデルのパラメータを最適化させ、前記テストセットにおける前記乳牛画像及び対応する前記マーキング画像を用いて前記乳牛の乳首の検出畳み込みニューラルネットワークをテストすることで、前記乳牛の乳首の検出畳み込みニューラルネットワークモデルの検出効果を決定する。本発明の1つの好適な実施例では、前記テストセットにおける前記乳牛画像及び対応する前記マーキング画像を用いて前記乳牛の乳首の検出畳み込みニューラルネットワークモデルの検出結果を認証した結果は、MAP=0.9046、FPS=12である。
本発明の別のいくつかの好適な実施例では、前記ステップ102において、前記乳牛画像の各々に対応する前記マーキング画像を取得し、マーキングツールを用いて前記乳牛画像をマーキングするとき、マーキングデータは、背景及び乳牛の乳首の2種類であってもよく、主要目的は、乳牛の乳首の検出であり、それにより、マーキングツールを用いてマーキングするときの仕事量を減少させ、乳牛の乳首マーキングの速度を向上させる。
本発明に係る前記乳牛の乳首の検出畳み込みニューラルネットワークモデルの構築方法の第2の好適な実施例では、所定条件を満たさない検出ブロックを除去するステップ108をさらに含む。当業者であれば理解できるように、大目標検出が小目標検出より容易であり、小目標の誤検出を回避し、検出精度をさらに向上させるために、直感的に条件を満たさない側検出ブロックを除去する。明細書の図4を参照すると、破線で示される前記検出ブロックは、明らかに前記目標ブロック内に位置しない一方、実線で示される前記検出ブロックは、前記目標ブロック内に位置し、従って、破線で示される前記検出ブロックを除去し、実線で示される前記検出ブロックを残し、最後にネットワークが異なるカテゴリ及び対応する信頼度と位置情報を出力し、設定された閾値に基づいて結果を得る。
本発明に係る前記乳牛の乳首の検出畳み込みニューラルネットワークモデルの構築方法の第3の好適な実施例では、前記ステップ106において、前記検証セット及び前記テストセットにおける前記乳牛画像及び対応する前記マーキング画像に基づいて、前記乳牛の乳首の検出畳み込みニューラルネットワークモデルパラメータを最適化して認証し、前記乳牛の乳首の検出畳み込みニューラルネットワークモデルパラメータを処理し、BatchNorm層のパラメータを畳み込み層に統合することで、前記乳牛の乳首の検出畳み込みニューラルネットワークモデルの推測速度を向上させる。具体的には、畳み込み層の計算は、W*X+Bであり、式中、Wは、畳み込み加重であり、Bは、畳み込み偏差である。BN層では、
Figure 0007223880000001
以下の表1を参照すると、BN層が畳み込み層に統合される前後の効果の比較が示され、実験から分かるように、BN層が畳み込み層に統合された後、前記乳牛の乳首の検出畳み込みニューラルネットワークモデルの検出速度が著しく向上する。
Figure 0007223880000002
本発明に係る前記乳牛の乳首の検出畳み込みニューラルネットワークモデルの構築方法の第4の好適な実施例では、前記ステップ104において、前記訓練セットにおける前記乳牛画像及び対応する前記マーキング画像に基づいて、前記乳牛の乳首畳み込みニューラルネットワークモデルを構築する過程では、畳み込みニューラルネットワークパラメータは、力積Momentum、重み減衰Decay、最大反復回数Max Iters、学習率Learning rate、学習率変化反復回数Steps及び学習率変化比率Scalesを含む。畳み込みニューラルネットワークにおける訓練パラメータは、以下の表2のように定義されている。
Figure 0007223880000003
本発明に係る前記乳牛の乳首の検出畳み込みニューラルネットワークモデルの構築方法の第5の好適な実施例では、前記ステップ108において、前記マーキング画像に基づいて前記目標ブロックを所定サイズに調整する過程は、以下のとおりである。オリジナルネットワークモデルが異なる比率かつ異なるスケール(例えば、ratios=[0.5,1,2]、scales=[128,256,512])の9つのanchorを用い、本好適な実施例では、クラスタリング方法でanchorの大きさを決定せずに、比率及びスケールの大きさを直接調整することで、小目標の検出要求を満たし、具体的な変更結果は、ratios=[0.5,1,2]、scales=[16,32,64,128,252]である。
明細書の図9を参照すると、本発明の他の態様によれば、本発明は、乳牛の乳首の検出畳み込みニューラルネットワークモデル構築システム200をさら提供し、前記乳牛の乳首の検出畳み込みニューラルネットワークモデル200は、乳牛画像取得ユニット21と、マーキング画像取得ユニット22と、画像分割ユニット23と、ネットワークモデル構築ユニット24と、ネットワークモデル最適化ユニット25と、を含み、前記乳牛画像取得ユニット21は、少なくとも1つの乳牛の乳牛画像を取得し、前記乳牛画像が乳牛の乳首を含む。前記マーキング画像取得ユニット22は、前記乳牛画像の各々に対応するマーキング画像を取得し、前記マーキング画像が前記乳牛画像における前記乳牛の乳首の位置をマーキングする少なくとも1つの目標ブロックを有する。前記画像分割ユニット23は、前記乳牛画像及び対応する前記マーキング画像を所定比率で訓練セット、検証セット及びテストセットに分割し、前記ネットワークモデル構築ユニット24は、前記訓練セットにおける前記乳牛画像及び対応する前記マーキング画像に基づいて、乳牛の乳首の検出畳み込みニューラルネットワークモデルを構築する。前記ネットワークモデル最適化ユニット25は、前記検証セット及び前記テストセットにおける前記乳牛画像及び対応する前記マーキング画像に基づいて、前記乳牛の乳首の検出畳み込みニューラルネットワークモデルパラメータに対して最適化とテストを行う。
前記乳牛画像取得ユニット21によって取得された前記乳牛画像は、工業用カメラにより前記乳牛の異なる角度から撮影される。好適には、それぞれ前記乳牛の前後左右の4つ方向から前記乳牛の前記乳牛画像を撮影する。好適には、前記乳牛の数は、100匹であり、それぞれ100匹の前記乳牛の前記乳牛画像を取得することにより、サンプルの多様性を増加させる。
前記マーキング画像取得ユニット22は、前記乳牛画像に対応する前記マーキング画像を取得し、マーキングツールを用いて前記乳牛画像の各々をマーキングして前記乳牛画像の各々に対応する前記マーキング画像を得、各前記乳牛画像に対して対応する目標ブロック及びカテゴリを作成し、前記目標ブロックは、前記乳牛画像における前記乳牛の乳首の位置をマーキングするためのものであり、マーキングカテゴリは、主に背景、乳牛乳房及び乳牛の乳首に分けられており、マーキング済みの前記マーキング画像をxmlファイルに記憶する。
前記画像分割ユニット23は、前記乳牛画像及び対応する前記マーキング画像を8:1:1の比率で前記訓練セット、前記検証セット及び前記テストセットに分割する。
前記乳牛の乳首の検出畳み込みニューラルネットワークモデル構築システム200は、画像増幅ユニット26をさらに含み、前記画像増幅ユニット26は、前記乳牛画像及び対応する前記マーキング画像に対して増幅処理を行うことにより前記乳牛画像及び対応する前記マーキング画像の多様性を向上させる。当業者であれば理解できるように、取得された前記乳牛画像の数が限られているため、ディープラーニングの大量のデータの要求を満たすことができず、回転、並進及び反転などのデータ強化技術を用いて前記乳牛画像及び前記マーキング画像の多様性を向上させ、また、データセットの平均値を計算し、データセットに対して色標準化処理を行い、不均一な光よる影響を解消し、増幅処理済みの前記乳牛画像及び対応する前記マーキング画像を前記所定比率で前記訓練セット、前記検証セット及び前記テストセットに分割する。当業者であれば理解できるように、本発明の別のいくつかの好適な実施例では、収集された前記乳牛画像の数が十分に多い場合、ディープラーニングに必要とされる大量のデータの要求を満たすことができるとき、前記乳牛画像及び対応する前記マーキング画像に対して増幅処理を行わなくてもよい。
前記乳牛の乳首の検出畳み込みニューラルネットワーク構築システム200は、前記マーキング画像に基づいて前記目標ブロックを所定サイズに調整することで、前記目標ブロックのサイズを前記マーキング画像と一致させる目標ブロック調整ユニット27をさらに含む。当業者であれば理解できるように、本発明に係る前記乳牛画像及び対応する前記マーキング画像の特殊性のため、実際ニーズに応じて前記乳牛画像及び対応する前記マーキング画像の大きさを調整する必要がある。具体的には、本好適な実施例では、K-meansクラスタリングアルゴリズムを用いて前記目標ブロックの大きさを取得し、各訓練サンプルを最も近い中心点が位置するクラスタに割り当て、サンプルとクラスタ中心との距離dを計算することで、それぞれ9つ及び15つのanchorを生成し、dの計算式は、d(box,centroid)=1-IOU(box,centroid)であり、IOUの計算式は、IOU=(box∩centroid)/(box∪centroid)である。
本発明の別のいくつかの好適な実施例では、前記目標ブロック調整ユニット27が前記目標ブロックのサイズを調整するとき、オリジナルネットワークモデルが異なる比率かつ異なるスケール(例えば、ratios=[0.5,1,2]、scales=[128,256,512])の9つのanchorを用い、本好適な実施例では、クラスタリング方法でanchorの大きさを決定せずに、比率及びスケールの大きさを直接調整することで、小目標の検出要求を満たし、具体的な変更結果は、ratios=[0.5,1,2]、scales=[16,32,64,128,252]である。
前記ネットワークモデル構築ユニット24は、前記訓練セットにおける前記乳牛画像及び対応する前記マーキング画像に基づいて、前記乳牛の乳首の検出畳み込みニューラルネットワークモデルを構築する。具体的には、ここで用いられるネットワークは、FasterRCNN及びRFCNを含み、resnet50を特徴抽出ネットワークとして用い、ネットワークの最後の全接続層を除去する。前記特徴抽出ネットワークは、画像特徴情報を抽出するための残差畳み込み構造であり、この後、RPNネットワークに接続して目標検出を行う。前記ステップ108で決定された前記目標ブロックの大きさに応じて、ネットワーク層におけるanchorの大きさ及び数を変更することで、小目標に対する検出精度を向上させる。そして、前記訓練セットにおける前記乳牛画像及び対応する前記マーキング画像を畳み込みニューラルネットワークに入力することで、前記乳牛の乳首の検出畳み込みニューラルネットワークを構築する。具体的には、ネットワークに入力された画像解像度が720*1280であり、また、ImageNetモデルにより訓練されたresnet50パラメータファイルをダウンロードし、caffeフレームワークを用いて訓練し、訓練結果に基づいて学習パラメータを調整し、最後に条件を満たすモデルパラメータを取得する。
前記ネットワークモデル最適化ユニット25は、前記検証セットと前記テストセットにおける前記乳牛画像及び対応する前記マーキング画像に基づいて前記乳牛の乳首の検出畳み込みニューラルネットワークモデルパラメータに対して最適化とテストを行う。具体的には、前記検証セットにおける前記乳牛画像及び対応する前記マーキング画像を用いて前記乳牛の乳首の検出畳み込みニューラルネットワークモデルのパラメータを最適化させ、前記テストセットにおける前記乳牛画像及び対応する前記マーキング画像を用いて前記乳牛の乳首の検出畳み込みニューラルネットワークをテストすることで、前記乳牛の乳首の検出畳み込みニューラルネットワークモデルの検出効果を決定する。本発明の1つの好適な実施例では、前記テストセットにおける前記乳牛画像及び対応する前記マーキング画像を用いて前記乳牛の乳首の検出畳み込みニューラルネットワークモデルの検出結果を認証した結果は、MAP=0.9046、FPS=12である。
本発明の別のいくつかの好適な実施例では、前記乳牛の乳首の検出畳み込みニューラルネットワークモデル構築システム200は、スクリーニングユニット28をさらに含み、前記スクリーニングユニット28は、所定条件を満たさない前記検出ブロック、例えば、前記目標ブロックの外に位置する前記検出ブロックを除去することにより、検出精度をさらに向上させ、小目標の誤検出を回避し、最後にネットワークが異なるカテゴリ及び対応する信頼度と位置情報を出力し、設定された閾値に基づいて結果を得る。
本発明の他の態様によれば、本発明は、乳牛の乳首の位置を検出する乳牛の乳首の検出畳み込みニューラルネットワークモデルをさら提供し、前記乳牛の乳首の検出畳み込みニューラルネットワークモデルの構築方法は、
少なくとも1つの乳牛の少なくとも1つの乳牛画像を取得し、前記乳牛画像が乳牛の乳首を含むステップ101と、
前記乳牛画像の各々に対応するマーキング画像を取得し、前記マーキング画像が前記乳牛画像における前記乳牛の乳首の位置をマーキングするための目標ブロックを有するステップ102と、
前記乳牛画像及び対応する前記マーキング画像を所定比率で訓練セット、検証セット及びテストセットに分割するステップ103と、
前記訓練セットにおける前記乳牛画像及び対応する前記マーキング画像に基づいて、乳牛の乳首の検出畳み込みニューラルネットワークモデルを構築するステップ104と、
前記検証セット及び前記テストセットにおける前記乳牛画像及び対応する前記マーキング画像に基づいて、前記乳牛の乳首の検出畳み込みニューラルネットワークモデルパラメータに対して最適化とテストを行うステップ105と、を含む。
明細書の図10を参照すると、本発明の他の態様によれば、本発明は、乳牛の乳首検出方法をさら提供し、乳牛の乳首検出方法は、
実際の乳牛画像を取得するステップ201と、
乳牛の乳首の検出畳み込みニューラルネットワークモデルを用いて前記実際の乳牛画像における乳牛の乳首の位置を検出するステップ202と、を含み、
前記乳牛の乳首の検出畳み込みニューラルネットワークモデルの構築方法は、
少なくとも1つの乳牛の少なくとも1つの乳牛画像を取得し、前記乳牛画像が乳牛の乳首を含むステップ101と、
前記乳牛画像の各々に対応するマーキング画像を取得し、前記マーキング画像が前記乳牛画像における前記乳牛の乳首の位置をマーキングするための目標ブロックを有するステップ102と、
前記乳牛画像及び対応する前記マーキング画像を所定比率で訓練セット、検証セット及びテストセットに分割するステップ103と、
前記訓練セットにおける前記乳牛画像及び対応する前記マーキング画像に基づいて、乳牛の乳首の検出畳み込みニューラルネットワークモデルを構築するステップ104と、
前記検証セット及び前記テストセットにおける前記乳牛画像及び対応する前記マーキング画像に基づいて、前記乳牛の乳首の検出畳み込みニューラルネットワークモデルパラメータに対して最適化とテストを行うステップ105と、を含む。
本明細書の説明では、「1つの実施例」、「いくつかの実施例」、「例」、「特定の例」、又は「一部の例」などの用語を参照した説明は、該実施例又は例と組み合わせて説明されている特定の特徴、構造、材料又は特性が、本発明の少なくとも1つの実施例又は例に含まれることを意味する。本明細書において、上記用語の例示的な表現は、必ずしも同じ実施例又は例を意味するわけではない。さらに、説明された特定の特徴、構造、材料又は特性が、任意の1つ又は複数の実施例又は例においては適切な組み合わせで一体化されていてもよい。また、相互に矛盾しない状況で、当業者は本明細書に記載された異なる実施例又は例及び異なる実施例又は例の特徴を組み合わせることができる。
当業者であれば理解できるように、上記説明及び図面に示された本発明の実施例は単なる例に過ぎず、本発明を限定するものではない。本発明の目的は完全かつ効果的に実現される。本発明の機能及び構造原理は実施例に示され説明され、前記原理から逸脱することなく、本発明の実施の形態は任意の変形又は修正を有することができる。

Claims (12)

  1. 乳牛の乳首の検出畳み込みニューラルネットワークモデルの構築方法であって、
    少なくとも1つの乳牛の少なくとも1つの乳牛画像を取得し、前記乳牛画像が乳牛の乳首を含むステップ101と、
    前記乳牛画像の各々に対応するマーキング画像を取得し、前記マーキング画像が前記乳牛画像における前記乳牛の乳首の位置をマーキングする少なくとも1つの目標ブロックを有するステップ102と、
    前記乳牛画像及び対応する前記マーキング画像を所定比率で訓練セット、検証セット及びテストセットに分割するステップ103と、
    前記訓練セットにおける前記乳牛画像及び対応する前記マーキング画像に基づいて、乳牛の乳首の検出畳み込みニューラルネットワークモデルを構築するステップ104と、
    前記検証セット及び前記テストセットにおける前記乳牛画像及び対応する前記マーキング画像に基づいて、前記乳牛の乳首の検出畳み込みニューラルネットワークモデルパラメータに対して最適化とテストを行うステップ105と、
    を含み、
    前記ステップ102と前記ステップ103との間に、
    前記乳牛画像及び対応する前記マーキング画像に対して増幅処理を行うことにより、前記乳牛画像及び対応する前記マーキング画像の多様性を向上させるステップをさらに含み、
    前記ステップ103では、前記乳牛画像及び対応する前記マーキング画像を8:1:1の比率で前記訓練セット、前記検証セット及び前記テストセットに分割することを特徴とする乳牛の乳首の検出畳み込みニューラルネットワークモデルの構築方法。
  2. 前記ステップ103と前記ステップ104との間に、
    前記マーキング画像に基づいて前記目標ブロックを所定サイズに調整するステップをさらに含む、請求項1に記載の乳牛の乳首の検出畳み込みニューラルネットワークモデルの構築方法。
  3. K-meansクラスタリングアルゴリズムを用いて前記目標ブロックを前記所定サイズに調整する、請求項に記載の乳牛の乳首の検出畳み込みニューラルネットワークモデルの構築方法。
  4. 前記ステップ105では、前記乳牛の乳首の検出畳み込みニューラルネットワークモデルを最適化して認証するとき、前記乳牛の乳首の検出畳み込みニューラルネットワークモデルのBatchNorm層のパラメータを畳み込み層に統合する、請求項1に記載の乳牛の乳首の検出畳み込みニューラルネットワークモデルの構築方法。
  5. 所定条件を満たさない検出ブロックを除去するステップをさらに含む、請求項1に記載の乳牛の乳首の検出畳み込みニューラルネットワークモデルの構築方法。
  6. 所定条件を満たさない検出ブロックを除去するステップをさらに含む、請求項に記載の乳牛の乳首の検出畳み込みニューラルネットワークモデルの構築方法。
  7. 所定条件を満たさない検出ブロックを除去するステップをさらに含む、請求項に記載の乳牛の乳首の検出畳み込みニューラルネットワークモデルの構築方法。
  8. 画像における乳牛の乳首の位置を検出する乳牛の乳首の検出畳み込みニューラルネットワークモデル構築システムであって、
    少なくとも1つの乳牛の少なくとも1つの乳牛画像を取得し、前記乳牛画像が乳牛の乳首を含む乳牛画像取得ユニットと、
    前記乳牛画像に対応するマーキング画像を取得し、前記マーキング画像が前記乳牛の乳首の位置をマーキングする少なくとも1つの目標ブロックを有するマーキング画像取得ユニットと、
    前記乳牛画像及び対応する前記マーキング画像を所定比率で訓練セット、検証セット及びテストセットに分割する画像分割ユニットと、
    前記訓練セットにおける前記乳牛画像及び対応する前記マーキング画像に基づいて、乳牛の乳首の検出畳み込みニューラルネットワークモデルを構築するネットワークモデル構築ユニットと、
    前記検証セット及び前記テストセットにおける前記乳牛画像及び対応する前記マーキング画像に基づいて、前記乳牛の乳首の検出畳み込みニューラルネットワークモデルパラメータに対して最適化とテストを行うネットワークモデル最適化ユニットと、
    前記乳牛画像及び対応する前記マーキング画像に対して増幅処理を行うことにより、前記乳牛画像及び対応する前記マーキング画像の多様性を向上させる画像増幅ユニットと、を含み、
    前記画像分割ユニットは、前記乳牛画像及び対応する前記マーキング画像を8:1:1の比率で前記訓練セット、前記検証セット及び前記テストセットに分割することを特徴とする乳牛の乳首の検出畳み込みニューラルネットワークモデル構築システム
  9. 前記マーキング画像に基づいて前記目標ブロックを所定サイズに調整する目標ブロック調整ユニットをさらに含む、請求項に記載の乳牛の乳首の検出畳み込みニューラルネットワークモデル構築システム。
  10. 所定条件を満たさない検出ブロックをスクリーニングするスクリーニングユニットをさらに含む、請求項に記載の乳牛の乳首の検出畳み込みニューラルネットワークモデル構築システム。
  11. 乳牛画像における乳牛の乳首の位置を検出する乳牛の乳首の検出畳み込みニューラルネットワークモデルの構築方法であって、前記乳牛の乳首の検出畳み込みニューラルネットワークモデルの構築方法は、
    少なくとも1つの乳牛の少なくとも1つの乳牛画像を取得し、前記乳牛画像が乳牛の乳首を含むステップ101と、
    前記乳牛画像の各々に対応するマーキング画像を取得し、前記マーキング画像が前記乳牛画像における前記乳牛の乳首の位置をマーキングする少なくとも1つの目標ブロックを有するステップ102と
    前記乳牛画像及び対応する前記マーキング画像を所定比率で訓練セット、検証セット及びテストセットに分割するステップ103と、
    前記訓練セットにおける前記乳牛画像及び対応する前記マーキング画像に基づいて、乳牛の乳首の検出畳み込みニューラルネットワークモデルを構築するステップ104と、
    前記検証セット及び前記テストセットにおける前記乳牛画像及び対応する前記マーキング画像に基づいて、前記乳牛の乳首の検出畳み込みニューラルネットワークモデルパラメータに対して最適化とテストを行うステップ105と、を含み、
    前記ステップ102と前記ステップ103との間に、
    前記乳牛画像及び対応する前記マーキング画像に対して増幅処理を行うことにより、前記乳牛画像及び対応する前記マーキング画像の多様性を向上させるステップをさらに含み、
    前記ステップ103では、前記乳牛画像及び対応する前記マーキング画像を8:1:1の比率で前記訓練セット、前記検証セット及び前記テストセットに分割することを特徴とする、乳牛画像における乳牛の乳首の位置を検出する乳牛の乳首の検出畳み込みニューラルネットワークモデルの構築方法
  12. 乳牛の乳首検出方法であって、
    実際の乳牛画像を取得するステップ201と、
    乳牛の乳首の検出畳み込みニューラルネットワークモデルを用いて前記実際の乳牛画像における乳牛の乳首の位置を検出するステップ202と、を含み、
    前記乳牛の乳首の検出畳み込みニューラルネットワークモデルの構築方法は、
    少なくとも1つの乳牛の少なくとも1つの乳牛画像を取得し、前記乳牛画像が乳牛の乳首を含むステップ101と、
    前記乳牛画像の各々に対応するマーキング画像を取得し、前記マーキング画像が前記乳牛画像における前記乳牛の乳首の位置をマーキングする少なくとも1つの目標ブロックを有するステップ102と、
    前記乳牛画像及び対応する前記マーキング画像を所定比率で訓練セット、検証セット及びテストセットに分割するステップ103と、
    前記訓練セットにおける前記乳牛画像及び対応する前記マーキング画像に基づいて、乳牛の乳首の検出畳み込みニューラルネットワークモデルを構築するステップ104と、
    前記検証セット及び前記テストセットにおける前記乳牛画像及び対応する前記マーキング画像に基づいて、前記乳牛の乳首の検出畳み込みニューラルネットワークモデルパラメータに対して最適化とテストを行うステップ105と、を含み、
    前記ステップ102と前記ステップ103との間に、
    前記乳牛画像及び対応する前記マーキング画像に対して増幅処理を行うことにより、前記乳牛画像及び対応する前記マーキング画像の多様性を向上させるステップをさらに含み、
    前記ステップ103では、前記乳牛画像及び対応する前記マーキング画像を8:1:1の比率で前記訓練セット、前記検証セット及び前記テストセットに分割することを特徴とする乳牛の乳首検出方法。
JP2021568565A 2019-05-17 2019-09-25 乳牛の乳首の検出畳み込みニューラルネットワークモデル及びその構築方法 Active JP7223880B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
CN201910414096.9 2019-05-17
CN201910414096.9A CN110969156B (zh) 2019-05-17 2019-05-17 奶牛奶头检测卷积神经网络模型及其构建方法
PCT/CN2019/107857 WO2020232941A1 (zh) 2019-05-17 2019-09-25 奶牛奶头检测卷积神经网络模型及其构建方法

Publications (2)

Publication Number Publication Date
JP2022533167A JP2022533167A (ja) 2022-07-21
JP7223880B2 true JP7223880B2 (ja) 2023-02-16

Family

ID=70029463

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021568565A Active JP7223880B2 (ja) 2019-05-17 2019-09-25 乳牛の乳首の検出畳み込みニューラルネットワークモデル及びその構築方法

Country Status (4)

Country Link
EP (1) EP3971766A4 (ja)
JP (1) JP7223880B2 (ja)
CN (1) CN110969156B (ja)
WO (1) WO2020232941A1 (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111680753A (zh) * 2020-06-10 2020-09-18 创新奇智(上海)科技有限公司 一种数据标注方法、装置、电子设备及存储介质
CN112434577B (zh) * 2020-11-12 2024-03-26 中国农业大学 奶牛跛行检测方法及奶牛跛行检测装置
CN114863198B (zh) * 2022-03-02 2024-08-06 湖北工业大学 一种基于神经网络的小龙虾质量分级方法
CN114998926A (zh) * 2022-05-07 2022-09-02 广东电网有限责任公司广州供电局 一种自上而下的工装合规穿戴检测算法方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018005520A (ja) 2016-06-30 2018-01-11 クラリオン株式会社 物体検出装置及び物体検出方法
JP2019061505A (ja) 2017-09-27 2019-04-18 株式会社デンソー 情報処理システム、制御システム、及び学習方法
CN109726801A (zh) 2018-12-29 2019-05-07 北京中科寒武纪科技有限公司 卷积神经网络的优化方法、装置、存储介质和系统

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2489668A (en) * 2011-03-28 2012-10-10 Delaval Holding Ab A method and apparatus for locating the teats of an animal
NZ708197A (en) * 2012-12-02 2018-08-31 Agricam Ab Systems and methods for predicting the outcome of a state of a subject
CA3034457A1 (en) * 2016-08-25 2018-03-01 Delaval Holding Ab Arrangement and method for classifying teats with respect to size measures
CN107950402B (zh) * 2017-11-29 2020-10-30 北京伟景智能科技有限公司 基于双目视觉的挤奶器自动控制方法
CN108154182A (zh) * 2017-12-25 2018-06-12 合肥阿巴赛信息科技有限公司 基于成对比较网络的珠宝相似性度量方法
CN108509860A (zh) * 2018-03-09 2018-09-07 西安电子科技大学 基于卷积神经网络的可可西里藏羚羊检测方法
CN109063594A (zh) * 2018-07-13 2018-12-21 吉林大学 基于YOLOv2的遥感图像快速目标检测方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018005520A (ja) 2016-06-30 2018-01-11 クラリオン株式会社 物体検出装置及び物体検出方法
JP2019061505A (ja) 2017-09-27 2019-04-18 株式会社デンソー 情報処理システム、制御システム、及び学習方法
CN109726801A (zh) 2018-12-29 2019-05-07 北京中科寒武纪科技有限公司 卷积神经网络的优化方法、装置、存储介质和系统

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
Akanksha Rastogi et al.,Real-Time Teat Detction using Haar Cascade Classifier in Smart Automatic Milking System,2017 7th IEEE International Conference on Control System, Computing and Engineering (ICCSCE 2017),IEEE,2017年11月26日,pp.74-79

Also Published As

Publication number Publication date
WO2020232941A1 (zh) 2020-11-26
JP2022533167A (ja) 2022-07-21
CN110969156B (zh) 2024-07-16
EP3971766A1 (en) 2022-03-23
EP3971766A4 (en) 2023-06-14
CN110969156A (zh) 2020-04-07

Similar Documents

Publication Publication Date Title
JP7223880B2 (ja) 乳牛の乳首の検出畳み込みニューラルネットワークモデル及びその構築方法
WO2021000423A1 (zh) 一种生猪体重测量方法及装置
CN107895367B (zh) 一种骨龄识别方法、系统及电子设备
CN108229509B (zh) 用于识别物体类别的方法及装置、电子设备
CN111325217B (zh) 数据处理方法、装置、系统和介质
CN108921057B (zh) 基于卷积神经网络的对虾形态测量方法、介质、终端设备及装置
CN108961330B (zh) 基于图像的猪体长测算方法及系统
CN111666855B (zh) 基于无人机的动物三维参数提取方法、系统及电子设备
CN109141248A (zh) 基于图像的猪体重测算方法及系统
EP2927871A1 (en) Method and device for calculating number of pedestrians and crowd movement directions
WO2018077111A1 (zh) 植物种类的识别方法、识别装置和服务器
WO2023273572A1 (zh) 一种特征提取模型构建方法、目标检测方法及其设备
CN111178381A (zh) 一种禽蛋估重、图像处理方法及装置
CN111639629A (zh) 一种基于图像处理的猪只体重测量方法、装置及存储介质
CN109272546A (zh) 一种鱼苗长度测量方法及系统
CN111767794A (zh) 基于机器视觉的笼养家禽异常行为检测方法及检测系统
CN113379727A (zh) 基于改进YOLOv4-Tiny特征融合的猕猴桃叶面病害检测方法
US11961230B2 (en) Discerning device, cell mass discerning method, and computer program
CN113793385A (zh) 鱼头鱼尾定位方法及装置
CN118115760A (zh) 一种基于病害特征匹配的道路病害时空追溯方法及系统
CN112293295B (zh) 一种奶牛早期跛行识别方法及装置
CN116994131A (zh) 玉米叶病害检测方法、装置、设备及存储介质
CN116229236A (zh) 一种基于改进YOLO v5模型的结核杆菌检测方法
CN111639651A (zh) 一种基于全连接层特征提取的船只检索方法及装置
CN110705698A (zh) 尺度自适应感知的目标计数深度网络设计方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211116

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220920

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221219

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230110

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230206

R150 Certificate of patent or registration of utility model

Ref document number: 7223880

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150