JP2021515323A - 遠隔から生体標本を特徴付ける方法と装置 - Google Patents

遠隔から生体標本を特徴付ける方法と装置 Download PDF

Info

Publication number
JP2021515323A
JP2021515323A JP2020545266A JP2020545266A JP2021515323A JP 2021515323 A JP2021515323 A JP 2021515323A JP 2020545266 A JP2020545266 A JP 2020545266A JP 2020545266 A JP2020545266 A JP 2020545266A JP 2021515323 A JP2021515323 A JP 2021515323A
Authority
JP
Japan
Prior art keywords
image
biological specimen
fractionated
map
acquisition unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020545266A
Other languages
English (en)
Other versions
JP7336691B2 (ja
Inventor
ロルダン,イワン アマト
ロルダン,イワン アマト
Original Assignee
タッチレス アニマル メトリクス,エスエル.
タッチレス アニマル メトリクス,エスエル.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by タッチレス アニマル メトリクス,エスエル., タッチレス アニマル メトリクス,エスエル. filed Critical タッチレス アニマル メトリクス,エスエル.
Publication of JP2021515323A publication Critical patent/JP2021515323A/ja
Application granted granted Critical
Publication of JP7336691B2 publication Critical patent/JP7336691B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • G06T7/0014Biomedical image inspection using an image reference approach
    • AHUMAN NECESSITIES
    • A01AGRICULTURE; FORESTRY; ANIMAL HUSBANDRY; HUNTING; TRAPPING; FISHING
    • A01KANIMAL HUSBANDRY; AVICULTURE; APICULTURE; PISCICULTURE; FISHING; REARING OR BREEDING ANIMALS, NOT OTHERWISE PROVIDED FOR; NEW BREEDS OF ANIMALS
    • A01K29/00Other apparatus for animal husbandry
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/74Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/103Static body considered as a whole, e.g. static pedestrian or occupant recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10048Infrared image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20036Morphological image processing
    • G06T2207/20041Distance transform
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20036Morphological image processing
    • G06T2207/20044Skeletonization; Medial axis transform
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20048Transform domain processing
    • G06T2207/20061Hough transform
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30168Image quality inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30181Earth observation
    • G06T2207/30188Vegetation; Agriculture

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Environmental Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Radiology & Medical Imaging (AREA)
  • Medical Informatics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • General Health & Medical Sciences (AREA)
  • Quality & Reliability (AREA)
  • Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Animal Husbandry (AREA)
  • Biodiversity & Conservation Biology (AREA)
  • Human Computer Interaction (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Apparatus For Radiation Diagnosis (AREA)
  • Magnetic Resonance Imaging Apparatus (AREA)
  • Measuring And Recording Apparatus For Diagnosis (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Abstract

【課題】遠隔から生体標本(家畜)を特徴付ける方法を提供する。【解決手段】本発明の方法は、(A)生体標本の画像を取得し、これを分画しこの分画画像を提供する。(B)前記得られた画像の複数の部分までの距離測定を提供し、記生体標本の分画画像に含まれる距離測定値のサブセットを選択する。(C)分画画像を処理し、生体標本を特徴づけ、前記分画画像に含まれる複数の距離測定内の標本の深さを特徴づける。形状形成マップと深さプロファイル解析マップを比較し、比較結果が所定の範囲内に含まれる場合それを採用し、それ以外はこのプロセスを繰り返す。【選択図】 図1

Description

本発明は、自動測定する方法とシステムに関する。特に、離れた場所から(即ち、遠隔から或いは非接触方式で)生体標本(例:家畜)を特徴付ける方法と装置に関する。この特徴付けは、生体標本のサイズ・パラメータ(例、傾き即ち方向、大きさ、姿勢、特に3D表現を含む)を算出或いは計算する(以下「計算」と総称する)ことを含む。
本明細書において、「マップ」とは、その中に様々な情報が関連付けられている複数の空間的関連性、一連の特徴、グラフ(1次元、2次元、3次元の)を意味する。従って、マップは、様々な部位での一連の身体のサイズと方向又は体温の関係性を表す。これは特に形状解析マップ、深さプロファイル解析マップ、身体マップに適用される。
生体標本を特徴付ける方法又は装置は従来公知である。本出願人による特許文献1は、ブタ或いは他の家畜のような対象物のパラメータの自動化された計算を実行する方法と装置を開示する。この従来方法は、シーン中に、対象物の2D画像を2Dカメラで取得し、この取得した2D画像内で対象物を同定する。第1手段により、取得され分画された2D画像内の対象物の画素サイズを計算する。この計算は、対象物と2Dカメラとの間の距離を考慮に入れつつ行われる。第2手段により、複数のパラメータ(例、サイズ、寸法、ボディ部分の寸法、身体的特徴、対象物の体重と大きさ(体積))を計算する。この計算は、計算された画素・サイズと対象物の先験的モデルを用いて行われる。この先験的モデルは、様々な部分をリンクする情報と複数の対象物の代表的輪郭と形状とを含む。先験的モデルは、2Dカメラを用いて予め取得され、複数のパラメータと複数の対象物を有する。
EP3158289 US5474085 US5412420 US−A1−20150302241 Black cattle boDy shape anD temperature measurement using thermography anD KINECT senosr
特許文献2は、サーモグラフィ画像検知システムを用いて、家畜を遠方から検知する方法と装置を開示する。これを用いて、区域内にいる家畜の頭数、体重、居場所、温度、肉質、pH等を決定している。領域の画素を含むサーモグラフィ画像は、コンピュータのデジタル化装置に送られ、そこで画像が番号アレイ/数字列に変換される。この数字をソフトウエアが、解釈し解読可能な形式で所望の情報を提供する。
特許文献3は、動物(乳牛)の3D表現型の特徴を測定するシステムを開示する。このシステムは、ライダー・カメラ(Lidar camera)からの多数の変調されたレーザー・ビームを用い1平方インチ当たり100か所のポイント(点)を測定している。各レーザー・ビームは、強度、水平方向寸法、垂直方向寸法、深さ寸法を測定し、この測定値を組み合わせることにより、動物の極めて正確な3D画像を構築している。このシステムは、所望の表現型測定値を計算し、動物の形態(conformatin of animal)を得ている。これは、動物の表面の選択したポイントの測定値を組み合わせることにより行われている。その後このシステムは、各動物の測定値をコンピュータのデータ・ベース内に記憶し、後で使用できるようにしている。このシステムは、また動物のマーキングの光強度画像を記憶し、記憶された他の画像と比較している。
特許文献4は、工場内の被験者の健康を改善するシステムと方法を開示する。このシステムは、被験者の特徴を観察するカメラとこのカメラに接続されているプロセッサとを有する。このプロセッサは、カメラから得られた画像を解析し、被験者の画像から特徴を抽出し、特徴又はこの特徴に隠れている副特徴を解析し、被験者の状態の出力を予測する。特にこのシステムは、この分析に基づいて診断信号(診断結果、熱、乳房炎、ウイルス、細菌感染、発情期等の信号)を生成する。
非特許文献1は、黒毛和牛の体格と体温を測定するシステムを開示する。この文献によれば、黒毛和牛の品質は周期的に成長過程で評価することが重要である。牛の体重と体格のみならず姿勢、形状、体温を主評価基準として追跡することが重要である。この文献においては、KINECTセンサーとサーモ・カメラが牛の体形と体温を取得する。この全体システムは、共通座標系で動作するよう校正される。点群データは、様々な角度から取得されコンピュータ内で再構築される。熱データも取得される。点群データと熱情報は、牛の向いている方向を考慮に入れて組み合わせる。集められたデータを用いて牛の状態を評価予測する。
しかしこれら何れの従来技術文献も、生体標本の3D方向のパラメータ又は姿勢のパラメータの信頼でき再現可能で正確な予測値を得る為に、高速(秒単位)で自動測定するシステム又は方法、生体標本が農場又は自然環境を自由に動き回れる様にしながら、その身体マップを計算するシステム又は方法を開示していない。
本発明は、その第1態様において、遠隔から生体標本を特徴付ける方法を提供する。好ましくはこの生体標本は、ブタ、ブル、ウシ、ヒツジ、ブロイラー、アヒル、チッキンのいずれかを含む家畜である。これらの家畜は農場又は自然環境を自由に動き回れる。本発明の方法は複雑な形状の生体標本の特徴付けにも適用可能である。
本発明の方法は、(A)画像取得ユニット(例:カメラ)により生体標本の画像を取得し、この得られた画像を処理ユニットにより更に分画し、この分画された画像(以下「分画画像」と称する)を提供するステップと、(B)遠隔から測定する装置(以下「遠隔測定装置」と総称し、これは画像取得ユニットから離れた場所即ち遠隔にある)により、前記得られた画像の複数の部分までの距離を測定し、複数の距離測定値を提供し、前記生体標本の分画画像に含まれる距離測定値のサブセットを選択するステップと、(C)処理ユニット(他の処理ユニットとの異同を問わない)により、前記分画画像と前記分画画像に含まれる様々な位置に関連する前記複数の距離測定値とを処理するステップとを有する。
本発明の方法によれば、ステップ(C)は、(C1)生体標本の形状を特徴づけるステップと、(C2)生体標本の深さを評価するステップと、(C3)以前に得た結果と比較するステップとを有する。これにより、生体標本の身体部分又は解剖学的基準が実際に測定され適正に配置されていることを示す高品質のパラメータ/予測値を得る。そうでない場合は、より良好な予測を見いだすことが必要とされる。
前記ステップ(C3)の比較結果が所定の範囲内にある(即ち測定は正しく行われた)場合は、本発明の方法は、(D1)前記生体標本のあるパラメータ(生体標本の身体の深さ又は曲げの方向のような姿勢パラメータ、前記解剖学的基準点の配置又は補正、前記生体標本の身体サイズ・パラメータ)を決定するステップと、(D2)前記生体標本の身体マップ(3D)を表すステップとを実行する。これに対し、前記ステップ(C3)の比較結果が所定の範囲外にある(即ち測定が正しく行われなかった、例えば画像取得中に動物が動いた)場合は、(E)ステップ(A)−(C)を繰り返し、新たな深さプロファイル解析マップと新たな形状解析マップを得るステップを実行する。別法として、比較結果が所定の範囲外にある場合は、何もせずに、関連する測定誤りを有する生体標本の身体マップを表すこともできる。
好ましくは、前記形状を特徴付けるステップは、分画画像内の次の項目、生体標本の重心、基準点を参照して前記分画画像内の生体標本の方向、前記生体標本の特定の身体部分(前記生体標本の解剖学的基準点を見いだすことにより見いだされる))のいずれかを計算するアルゴリズムを実行することにより、行われる。前記形状の特徴付けの結果は形状解析マップを提供する。
深さ/奥行き(以下「深さ」と総称する)を特徴付けるステップは、分画画像内に含まれる距離測定値内の前記生体標本の特定の身体部分(前記距離測定値内に前記生体標本の解剖学的基準点を見いだす或いは配置ことにより見いだされる)を計算するアルゴリズムを実行することにより、行われる。これは、深さの特徴付けの結果は1つ或いは複数の深さプロファイル解析マップを提供する。
本発明の特徴付けの方法を実行する順序は、記載された順とは関係なく実施してもよい又は同時に実施してもよい。更に本発明によれば、画像取得ユニット(例、RGBカメラ、サーモ・カメラ)と遠隔測定ユニット(例、ライダー・システム、TOF(time of fright)システム)は校正されている。両ユニットとも所定距離離れて配置されている。特に共通の基板上に配置されている。
一実施例においては、本発明の方法は、画像取得ユニットと生体標本との相対位置の3D情報の一部を推定し、いくつかの追加のパラメータを得る。このパラメータの一例は、画像取得ユニットと生体標本との間の角度の平均値、生体標本の形状の屈曲即ち平坦さの程度、画像取得ユニットの床面からの高さ、生体標本の高さに対する画像取得ユニットの高さ、床面に対する画像取得ユニットの角度である。
一実施例においては、生体標本の方向の計算は、分画画像を楕円にフィットさせることにより行われる。これは、正方形フィッティング関数法、ガウス・モデル法、主成分分析(PCA(Pricipal Component Analysis))法、最小面積矩形法、ハフ変換法、二次元フーリエ変換の主軸に対する相対法を用いて行われる。
身体部分を形状解析マップ内で計算する場合は、この身体部分は、前記分画画像内のハム即ち大腿部(以下「ハム」と総称する)に含まれる半径を計算する円形ハフ(Hough)変換法により、計算される。別法として、身体部分は、前記重心と方向軸の周りに放物線を適合させることにより、分画画像内の生体標本の尻部又はテール(「テール」と称する)を検出する二次元多項式関数法により、計算される。
形状解析マップを改善するために更なる計算が行われる。例えば一実施例においては、分画画像内の生体標本の輪郭を計算し、前記計算された輪郭を極座標で符号化し、フーリエ変換を前記極座標に適用し、複数のフーリエ係数を提供することにより、行われる。その係数は回転不変でありその引数は回転情報を含む。
他の実施例においては分画画像は画像モメントとして符号化される。その一例は、統計モメント、中央モメント、Huモメントであり、これは複数の係数を提供する。この複数の係数は形状のフーリエ変換に類似する表現である。この操作は分画された領域、輪郭、輪郭のサブセットにも適用可能である。
他の実施例においては、生体標本の輪郭を計算し、距離が、距離測定法(distance metric)に基づいて、計算された輪郭内で更に計算される。この距離測定法は、ユークリッド法、測地法、シティ・ブロック法を含む。
他の実施例においては、分画画像内の生体標本の輪郭はスケルトン化関数(skeletonization funtion)から計算され、生体標本のスケルトン画像を提供する。選択的事項として、スケルトン内の分岐点と端部点とを計算し、様々な身体部分の解剖学的位置を推定することもできる。
更に他の実施例においては分画画像の距離変換が計算される。
前記ステップ(A)は、前記生体標本の複数の画像を様々な異なった時間で取得し、その結果生体標本の様々な姿勢を取得する。この場合取得した画像の各々に対し距離測定値のシーケンスを取得する。
後者の場合、各取得に対し得られた情報を集積し/組み合わせて、深さプロファイル解析マップと形状解析マップの対のシーケンスを得る。その後、本発明の方法は、各対のマップにスコアを割り当て、最高のスコアを持つマップの対を選択する。別法として、本発明の方法は、更に全ての取得内の解剖学的基準点をマッチングさせ、深さプロファイル解析マップと解剖学的基準点の様々な断片を蓄積し、生体標本の三次元再構成を計算する。本発明の方法は、更に各取得毎に身体マップを計算し、各身体マップの全情報を蓄積し、スコアを付与して拡張(即ち改良)身体マップにする。
生体標本の身体マップが表示されている場合は、この身体マップを用いて、画像取得ユニットが得た特徴(例、色、温度)に基づいて身体マップの特徴を計算する。或いは予め校正されている追加の装置(例、高解像度サーモ・カメラ)により測定された追加的特徴(例、スペクトル特徴)を計算する。
取得した画像が複数の生体標本を含む場合がある。この場合一実施例においては、本発明の方法は、前記画像に含まれる各生体標本について得られた形状解析マップと深さプロファイル解析マップとを算出して比較することにより、1つの画像内にある全ての生体標本を1回の取得で特徴づけることができる。
本発明は、他の態様によれば、遠隔から生体標本を特徴付ける装置を開示する。同装置は、生体標本の画像を取得する画像取得ユニットと、この得られた画像を分画しこの分画画像を提供する第1処理ユニットと、前記得られた画像の複数の部分までの距離を測定し複数の距離測定値を提供し、前記生体標本の分画画像に含まれる距離測定値のサブセットを選択する遠隔測定装置と、前記分画画像と複数の距離測定値を、前記分画画像に含まれる様々な位置を参照して処理するよう構築されている(以下単に「処理する」と訳す即ち「構築されている」を省く)第2処理ユニットとを有する。
好ましくは、画像取得ユニットと遠隔測定装置は、同一の支持部材内で所定距離離れて配置されている。
第1処理ユニットと第2処理ユニットは、同じでも異なってもよい。
本発明の装置によれば、第2処理ユニットは本発明の第1態様の方法を実施できるよう構成されている。更に、画像取得ユニットと遠隔測定装置は校正されている。
本発明の画像取得システムは、拡張NIR(近赤外線)を有するRGBカメラ又はサーモ・カメラである。本発明の遠隔測定装置は、ライダー、スキャニング・ライダー、複数のライダー、TOFセンサー、TOFカメラ、一点或いは複数点の検出が可能な可動部分を有する遠隔測定装置である。
遠隔から生体標本を特徴付ける本発明の一実施例のフローチャートを表す図。 遠隔から生体標本を特徴付ける本発明の他の実施例のフローチャートを表す図。 形状解析マップを得る為に、テールが深さプロファイルの最小距離として検出される3つの取得を示し、これは中央列の深さプロファイルに最も近い重心を有することによる形状解析に一致している。 形状解析マップを得る為に、テールが深さプロファイルの最小距離として検出される同じ3つの取得を示し、これは中央列の深さプロファイルに最も平行な軸を有することによる形状解析に一致している。 形状解析マップを得る為に、テールが深さプロファイルの最小距離として検出される同じ3つの取得を示し、これは中央列の右側にテールを配置することによる形状解析に一致している。 一実施例により、重心と推定された方向(向き)の計算がどのように実行されるかを示す図。 2つの湾曲線が、方向を修正した後の輪郭の左側(点線)と右側(実線)の両端にいかに適合させたかを示す図。 輪郭線としてユークリッド距離に基づく2値画像の距離変換を表す図。数字の入った線は分画された境界を示す。画像スコア(数字)は、任意の境界から離れるにつれて大きくなっている。 画像のスケルトン化を示す図。 三角印は端部点を表し丸は分岐点を表す図。 直線は解剖学的基準の第1推定値である前足、交差部(肩部)、ヒップ、後足の間の接続を表す図。 頭部、テール(白丸で示す)のような他の基準点と中央体幅への接続を示す追加の線を表す図。 形状解析マップとライダー・スキャニングのマッチングが、いくつかの画像点の特定の深さを知ることができる以下にできるかを示す図。 一実施例による、上部の行は分画画像と回転するライダー(以下「回転ライダー」と称する)による遠隔測定の一連の取得を表し、中央の行は画像内の距離測定値と水平方向画素位置を示し、下部の行は距離と画素位置の実空間への変換を表す図。 特定の体特徴を測定しこの測定値の質を予測するために、測定された深さプロフィル解析の角度補正を示す図。 形状解析及び深さプロファイル解析によって計算された身体部分の修正された深さプロファイルの補間と身体部分の注釈を示す図。同図において両方の解析の解剖学的位置の計算を比較することが可能である。 図10Aのプロファイル解析によって計算された、分画画像の2値輪郭と補間された深さプロファイル解析マップと身体部分を有するオリジナル画像を表す図。 解剖学的基準点が3次元軸内に配置されたブタの身体マップを表す図。同図において、重心が(0,0,0)で表されテールと頭部のような身体の様々な部分が、cm単位の座標の実空間にマッピングされている。 ある時間に取得された右側のフェンスを背景にしたブタの画像を表す図。 図12Aとは様々な異なる時間に取得された壁を背景にした同じブタの画像を表す図。 身体部分は形状解析より得られた分画画像のスケルトン化の図。 身体部分は図6の方法により得られた分画画像のスケルトン化の図。 図12に示された2回の取得により得られたブタの基準点と身体部分の2値輪郭を重ねた図。 並進と回転により正規化された空間を表す図。 基準点に基づく空間変換による図。 図8の左列のプロファイル解析からの輪郭と深さプロファイルと基準点を表す図。 図8の中央列のプロファイル解析からの輪郭と深さプロファイルと基準点を表す図。 画像(B)上の補正された座標での深さプロファイルと基準点の重複を表す図。 2つの深さプロファイル解析マップの基準点と輪郭と蓄積の重複を表す図。 身体部分又は基準点の解剖学的関連性を表す図。 角度φとθの明確な関係性を得る為に、上面図(TOP VIEW)と正面図(FRONT VIEW)の投影を表す図。同図において画像は任意の角度・距離から得られた。 雄牛(ブル)の角の先端と角の間の中間点と口が検出され、基準線がこの対の点に対しトレースし形状マップを構築したブルの画像分画を表す図。点は図17Dの深さプロフィルが測定された画像位置を示す。 分岐点(丸印)と端部点(三角印)の検出とスケルトン化に基づく形状解析を表す図。 図17Bの拡大図。これは分岐点(丸印)と端部点(三角印)の特定の位置を示す。 角の根元部と頭部の頂点の深さプロファイルを表す図。 角の位置決めをし全長を計算する為に頭部の形状解析マップを表す図。 元の画像を表す図。 キャニー(canny)・エッジから内側輪郭を表す図。 形状解析マップに基づくスケルトン化と分岐点と端部点とを表す図。 輪郭としての分画画像であり、重心(白丸)と、方向に直交する軸として深さプロファイル解析マップの画像位置(点線)を表す。 実空間において取得された深さプロファイル解析マップを表す図。 輪郭としての分画画像であり、重心(白丸)と、頭部とテールを結んだ線として深さプロファイルの画像位置(点線)又は形状解析マップの特定の点を表す。 実空間において取得された深さプロファイル解析マップを表す図。 サーモ画像から得られた分画した領域とライダーによる測定値を示す小点を重ねた写真の図。 テールと肩部の検出の為のTOF画像(左)とハフ変換(左)を表す図。このスパイン・トレーシングは、身体の走査と方法2における追加的な解剖学的点の計算による中間点である。 他のシステム(サーモ・カメラ)から追加的特徴を抽出することを可能にする身体マップの処理の一例を示す図。
図1は、一実施例による本発明の方法のフローチャートである。この実施例によれば、本発明の方法は、画像取得ユニット(例、サーモ・カメラ、RGBカメラ、)により、ブタ(これに限定されず他の生体標本でもよい)の画像を取得し、この得られた画像を分画し、分画画像を提供する(ステップA)。同時に或いはその後、遠隔測定装置により、前記得られた画像の複数の部分までの距離を測定し、複数の距離測定値を提供し、ブタの分画画像に含まれるこれらの距離測定値のサブセットを選択する(ステップB)。その後、分画画像と複数の距離測定値とを処理する(ステップC)。この実施例において、この処理ステップCは、前記生体標本の形状解析マップを算出するアルゴリズムにより、ブタの形状を特徴付け(ステップC1)、ブタの深さを、深さプロフィル解析マップを算出するアルゴリズムを用いて特徴付ける(ステップC2)。最後に、形状解析マップと深さプロファイル解析マップとを比較する(ステップC3)。比較の結果/スコアを用いて、ブタのパラメータが、十分な質と十分な身体マップのいずれか又は両方を有するか決定する(図2)、好ましくは3D情報が十分な質で算出されたかを決定する。そうでない場合は、本発明の方法は、繰り返され、修正され、停止される。
取得された画像は、任意のタイプ(グレースケール、カラー、熱,色と熱)の2D画像である。取得した画像を分画して分画画像にするには、任意の分画方法を用いることができる。分画画像は1つの画像(グレースケール、カラー、熱,それらの組み合わせ)の処理結果である。画像の画素を、2つの場合即ちブタに含まれる画素とブタに含まれない画素に分ける。
分画画像は様々な方法で符号化される。(1)2値マップ法、(2)2値輪郭法、(3)ベクトル法である。(1)2値マップ法においては、ブタに含まれる画素には最大値が、ブタに含まれない画素には最小値が設定される。(2)2値輪郭法においては、ブタのエッジ内に含まれる画素には最大値が、ブタに含まれない画素には最小値が設定される。(3)ベクトル法におては、境界の位置にベクトルが設定される。
遠隔測定ユニットが、取得された画像に含まれる複数のポイントまでの距離を測定する。距離測定値は様々な方法で得られる。第1例として、遠隔測定ユニットは回転ライダー(rotating Lidar)で実現できる。この回転ライダーは、10Hzの回転速度(角度と距離の全読み取りに対し100ms)と1度未満の解像度を有する。画像取得ユニットとライダーの前の校正、又はサーモ・カメラを可視又は近赤外線カメラへの変更、そしてライダーへの校正により、ライダー座標(角度と測定距離)から画像座標(二次元画像の行と列)へ変換するのに用いられるテーブル(表)を構築できる。第2の例として、ライダーの波長のみを検出する特定の光学フィルターを具備する専用カメラを用いて、画像座標の正確な配置と正確なライダー情報とを得ることもできる。第3の例として、遠隔測定ユニットはTOF技術を搭載した新たなタイプのカメラで実現できる。このタイプのカメラは、距離情報を有する2次元画像を提供できる。その速度は、毎秒10フレーム(10fps)を超え、ある場合は1000fpsを達成する。画像取得ユニットの以前の校正とTOFセンサー又はカメラにより、画像取得ユニットの画素とTOFセンサー又はカメラの画素との間の関係を見いだすことができる。
遠隔測定ユニットと画像取得ユニットの校正は、面の任意の深さに配置された一対の加熱抵抗で実行できる。この場合、画像取得ユニットは画像の取得が面に平行になるように配置される。加熱抵抗はサーモ・カメラの垂直軸の中心の周囲に配置される。回転ライダーは、各加熱抵抗の距離D1とD2が、ライダー座標(これは回転ライダーにとって角度と距離である)に関しDLの初期値(例えば2m)に対し測定されるよう配置される。取得した画像内の位置は距離と共に変化するので、この操作は様々な距離DLに対し繰り返される。これにより、画素の位置と測定された距離とを関連付けるポイントのテーブルを構築できる。その後回帰モデルが構築され、この回帰モデルが任意のライダー座標(角度と距離)を取得した画像と分画画像の特定の位置(x、y)に関連付ける。
他の実施例、特に画像取得ユニットがサーモ・カメラであり遠隔測定ユニットがTOFカメラ又はセンサーの場合は、校正は、前と同様になされるが、回転ライダーの走査ラインにのみ基づかず、より多くのポイントを考慮して行われる。
他の校正方法も可能である。例えば、画像取得ユニットを赤外線チャネルにNIR拡張を有するRGBカメラで構築でき、サーモ・カメラと回転ライダーに基づく遠隔測定ユニットを共に校正することもできる。
形状解析マップを計算する形状特徴付けは、ブタの重心の計算、分画画像内のブタの基準点に対する方向の計算、ブタの特定の身体部分の方向の計算であり、これらは、ブタの解剖学的基準点を分画画像内に見いだすことにより、行われる。上記した計算は、形状解析マップを計算するために必要である。またこれらの組み合わせも可能である。図3A−3Cはこれら3つの計算の実施例を示す。
ブタの形状を特徴づける為に、ブタは分画画像で定義される。ブタの形状は分画画像の形状である。得られた画像と分画画像は、位置のシーケンスとして表され、二値マップ、二値輪郭、輪郭の多点近似を構築する。かくして、分画画像S(x,y)は、そのいずれかのフォーマットにおいて、以下のように表すことができる。

s(x、y)=1 (x、y)が分画画像に含まれる場合
s(x、y)=0 上記以外
ここで、xはデジタル画像の列、yはデジタル画像の行である。
重心を計算するために、実施例においては、ブタの形状は、画像モーメントの手段で特徴付けることができる。このフォーマットに続いて、標準式に従って任意の画像モーメントMnkを計算することが可能である。

nk=ΣΣx・y・s(x、y)
x y

画素の数は、モーメントM00に等しく、
重心は、(M10/M00.M01/M00)に等しい。
これらのモーメントは並進不変である中心モーメントに直接拡張できる。その後、並進不変モーメントはスケール不変に更に拡張できる。このスケール不変は、公知の計算法により回転不変(Huモーメント不変)に拡張できる。これらのモーメントの組により特定の形状に関連する特徴的容貌(例、特定の視点から見たブタの形状、方向(傾き)角)を計算できる。
これらのモーメントは、多次元例えば3D形状を特徴づける3Dに容易に拡張できる。

nkl=ΣΣx・y・zs(x,y、z)
x y

s(x、y、z)=1 (x、y、z)が分画画像に含まれる場合
s(x、y、z)=0 上記以外
xは体積のデジタル画像の列、yはデジタル画像の行、zは深さである。
ブタの方向を計算するために、分画画像は楕円形にフィットさせることができる。これは最小正方形適合関数、ガウスモデル法、主成分解析法、ハフ(Hough)変換法等で行うことができる。適合された楕円形の方向、ガウス分布の方向、第1主成分の角度、ハフ・ラインの平均的方向は、目的物の方向を推定する高速で信頼性のある方法である。
特定の身体部分を計算するために、一実施例によれば図3Cを参照すると、ハフ変換が用いられる。ハフ変換は多くの形式で実行できる。特に円形ハフ変換は、ある半径範囲内の円形領域を識別できるようになる。これを用いてブタの頭部とテールとを区別できるようになる。テールはより丸いのでより大きな円に適合する。例えば、分画画像が図3Cに示す二値輪郭であることを考慮すると、円形ハフ変換は、高感度で円形を検出するよう設定でき、円形に適合させるだけの点の数を必要とするだけである。円の範囲は、次の推定で得られる。(1)ハムの半径RHは、分画画像の垂直方向のサイズの約1/3である。(2)半径の検索範囲は、RH+/ー50%に設定する。最大の投票の5つの円の中でより大きな円が選択され、その結果テール部分に中心を有する円が得られる。
ハフ解析は、半円ハフ変換により拡張され、頭部とテールとを区別を得るために、より信頼できる半円適合が得られる。さらにブタの身体又は頭部の中央部分又は他の部分に適合する楕円形状に拡張できる。一般化されたフーリエ変換は、様々なスケールで、複数の特定の形状とブタの形状にマッチする角度に適合させる別の方法である。類似の形状マッチング方法が利用できる。
同様に、ブタのテールの検出は、二次多項式を、重心と方向角により定義される軸に適合させることにより、行われる。図4Aは重心と方向軸を示す。図4Bは、方向を修正し、放物線(二次多項式)を両方のマージン周りに適合させることを示す。底部分は重心に最も近い頂点を有する放物線で検出される。
形状解析マップは、更なる複数の戦略により完成させることができる。例えばフーリエ解析で行われる。この場合ブタの輪郭は極座標で符号化され、その後フーリエ変換が行われる。これにより複数のフーリエ係数が与えられる。その係数(modulus)は回転不変であり、その引数は回転情報を含む。
図5は使用される別の方法を示す。この場合、分画画像は、その中に含まれる任意の点から最も近い境界点までの距離に従って、スコアが付される。距離測定法は多種多様である。一例として、ユークリッド法、シティ・ブロック法、他の距離測定法が用いられる。
他の方法では、ブタの輪郭を計算することは、分画画像からスケルトン化関数を計算することにより行われる。画像スケルトンは、境界まで等距離にある形状の幅の狭いバージョンである。このスケルトンは、通常形状の幾何学的特徴とトポロジカルな特徴を強調する。例えば、接続性、トポリジィ、長さ、方向、幅である。点の形状境界までの距離と共に、このスケルトンは、形状の代表として機能する。これらは形状を再構成するのに必要な全情報を含む。その後分岐点と端部点を用いて様々な身体部分を解剖学的位置を推測する。
形状解析マップを計算するこれらの相補的な方法は組み合わせても使用できる。
図3,4において、同図は、形状解析が、適切な「テール検出(tail detection)」により頭部からテールへの方向を同定する方法の一例を示す。この「テール検出」は、画像点を身体部分に関連づける基本ステップである。形状の更なる特徴付けにより、他の画像点を他の身体部分に関連づけることもできる。例えば、高い境界スコア(距離変換から計算される)を有する分岐点或いは近傍の重心軸は、交差部(肩部)とテールに関連付けられる(図5)。テール検出は交差部とヒップを区別する。足部は分画画像の底部分にある端部点で決定され、交差部とヒップに引かれた線(或いは重心軸)にほぼ直交する。底部分の端部点を図6Cに示す。
深さプロフィル解析マップを計算するためのブタの深さの特徴付けに関し、このプロセスは、分画画像に含まれる距離測定値において、生体標本の特定の身体部分を計算するステップを含む。これは、生体標本の解剖学的基準点を距離測定値内に見いだす(或いは配置する)ステップにより、行われる。
このステップは2つの次の主要部分に分けることができる。(1)遠隔測定距離の画図点への配置は、上記した以前の校正により行われ、深さ情報を有する画像座標の計算を可能にする。(2)画像点と身体部分までの距離との関連性の計算である。
分画画像に含まれる深さ情報を有する画像座標は、図7に示す深さプロファイルを提供する。大きな点は分画画像内に入るドットを、小さな点は分画画像外にあるドットを表す。形状解析マップの出力は、画像点(と深さ情報)を身体部分又は特定の基準点に関連づける。例えば深さ情報は特定の基準点から得られる、特定の基準点の一例は、重心、交差部、ヒップ、テール、又は解剖学的基準と他の形状解析(距離変換、スケルトン化)から得られた他の基準点である。
遠隔測定ユニットと画像取得ユニットの特定の整合により3D情報を取得できる。3D情報の一例は、身体サイズ、測定された身体部分又は基準点の高い信頼性に関連する、例えば、回転ライダーを重心軸又は画像内の交差部とヒップに沿って引かれた身体ラインに整合させることにより、重要な身体的特徴を走査させることができ、これにより特定の深さ情報を得ることができる。図7は、整合したライダーが重心軸を走査すると、深さプロファイルは複数のピークを有する曲線となることを示す。
図8は、交差部とヒップにより定義される軸を有する別のライダー整合で得られた画像のシーケンスを示す。最上の行には点線で示した3つの二値輪郭(シルエット)が示されている。輪郭内の白十字印は、回転ライダーにより得られた距離測定値の画像位置を示す。丸印は、スケルトンと分岐点と上記した追加計算により定義された交差部とヒップの位置まで最も近いライダーの測定値を示す。中央の行は、水平画素内の画像位置と測定された距離を示す。最下の行は、画像位置から実空間に変換された測定値を示す。
実空間におけるプロファイル曲線の解析により、基準点(身体部分又は解剖学的基準)は、実際に測定され的確に配置されたかを確認できる、そうでない場合更に良い推定値が得られるかを確認できる。
図8の左側の列は、回転ライダーが、交差部とヒップにより定義された軸に近い位置でブタを走査する状況を示す。走査ラインは、上記のヒップと記載したポイントから極めて近いところを通過する(図6に示す)。しかし、回転ライダーの角度は交差部とヒップにより定義された軸から外れている。この状態では、深さプロファイル解析マップは、重要な身体的特徴を欠いているように見える。図8の右側の列は、回転ライダーが、交差部とヒップにより定義された軸から離れた位置でブタを走査する状況を示す。これではブタの形状の任意の深さ情報を得ることはできない。図8の中央の列は、回転ライダーが、交差部とヒップにより定義された軸に沿ってブタを走査する状態を示す。実空間におけるプロファイル深さで見られるように、測定値は後足に関する情報を含む。ブタの後足はブタの重要な部分であり、ブタの後足の太さは多くの状況において関連する特徴である。例えばイベリア・ブタの後足のサイズは、ブタの全身の市場価値を予測する際には重要である。図9は、実空間における交差部とヒップにより定義される軸に近い位置で測定されたプロファイルを示す。これは、プロファイルの線形成分を予測することにより修正されている。これによりハムの厚さを測定できる。この測定は、修正された画像内で、交差部とヒップの間の最遠の位置から、ヒップとテールの間の最近の位置までの深さの差を予測することにより行われる。負のピークが、ヒップとテール間の最近の位置にある。この負のピークは、「ヒップ−マックス」と名付けられた新たな基準点と見なされる。「ヒップ−マックス」は後足で肉厚が最大になる場所である。「ヒップ−マックス」の位置を見いだすことは、全方位の予測値を有効にし任意の身体部分の測定を実行しこの深さ情報を記録するために、測定値が満たさなければならない制約条件として設定される。
キーポイント(例、分画画像上の形状解析で推定された交差部とヒップを通過する)を通して走査された時の深さプロファイル解析マップを更に用いて、基準点又身体部分の正確な位置を予測ことができる。予測された深さプロファイル又はスプライン補間の「先験的な」モデルは、この目的の為に更に用いることができる。図10は、図9の深さプロファイル測定値の補間に基づくスプラインを示す。同図において、菱形は、形状解析(図8に示す)で計算された交差部とヒップを示す。新たな身体部分が補間された深さプロフィルから再計算される。図10Aにおいて、交差部の位置は、頭部側に近い最小距離であり、「ヒップ−マックス」は、テール側に近い最小距離であり、ヒップは、「ヒップ−マックス」と重心に近くテール側方向を向いた最大点の間の屈曲点である。
より一般的には、画像点と身体部分までの距離の関係は、基準点又は身体部分までの深さ測定値を参照することにより、得られる。これにより、一連の測定値の情報を組み合わせて、図11に示す動物又は複雑な対象物のより完全な3D画像(即ち身体マップ)を得ている。これは次のように行われる。(1)図6Dに示すような分画画像の形状解析から基準点又は身体部分を得て、(2)正規化された基準空間を計算し、(3)この基準点に基づいて前記正規化された基準空間への空間変換を計算し、(3’)この空間変換を全ての取得に適用し、(4)全ての深さプロファイルを正規化された基準空間に蓄積する。
図12は、分画画像の形状解析から基準点又は身体部分を得る第1ステップを示す。図13Aは、分画画像の座標内の基準点と二値輪郭が重なりあった状態を示す。第1の正規化された空間は、二値輪郭を重心に直接変換することにより、計算される。その後、上記した計算による方向を補正/修正することにより、点の回転が得られる。その結果を図13Bに示す。類似の距離で得られた両方の取得については、スケーリング/換算は修正の必要はないが、他のいくつかの取得においては修正が必要とされることがある。座標の第2の微細化は、従来公知のように様々な手段(例、多項式関数、局所加重マッピング、区分的方法)により基準点の対に基づいて空間変換を構築することにより、行われる。3次多項式マッピングを図13Cに示す。
2つの取得の間の基準点の一致に応じて、重複の蓄積は拒絶され、更なる取得が要求されることがある。取得の受け入れは、図8に示される形状解析から得られた測定の基準点を参照する時に、予測されるある規則を満たす深さ情報プロファイルを読むために、制限されることがある。図8において、中央列は、推定される交差部とヒップを通って回転ライダーを走査する点において、受け入れ可能な取得を表す。深さプロファイルは、ハムと肩部の厚さに関連する予測されたピークを含む。このラインにおいて、回転ライダーの複数回の走査は、動物、人間又は複雑な対象物に関する知識に従って、動物或いは複雑な対象物の向き/方向(以下「方向」と総称する)とサイズを計算するのに十分な深さと形状の情報を得るために、必要である。
上記の説明が適用されるのは、3Dカメラと分画画像が用いられる時である。例えば、サーモ・カメラとTOFカメラを用いて、動物の身体の方向と大きさを推定することもできる。サーモ・カメラを用いて、上記の処理法に従って処理される分画画像を生成することもできる。TOFカメラは複数点の深さ情報を与える。しかし分画画像の形状解析は、取得を受け入れるのに必要な身体状態を提供する。同様に、TOFカメラは1回の取得から複数のライン走査を可能とし、これにより全体的な取得を大幅に高速化できる。
図15は、図に示す基準点又は身体部分(例、交差部、ハムの開始点、テール)を得る為に、形状解析マップ又は深さ情報を有する画像座標の関係を示す。
一実施例において、本発明の方法は、画像取得ユニットと生体標本の相対位置の三次元情報の一部を推定/確保し、画像取得ユニットとブタとの間の角度(θとφ)の平均値を得る。図16に示すように、これは、例えば深さプロフィル解析マップの線形近似の傾斜の円弧接線(arc tangent)を計算することにより、実行される。更に、ブタの形状の曲がりあるいは平坦さ程度(以下「湾曲度又は平坦度」と総称する)も得られる。この湾曲度又は平坦度は、図9に示すアプローチを拡張することにより推定される。この場合、線形関数を適合させてφ角を推定することができる。この原理は、例えば二次又は三次の多項式であらゆる形状に拡張できる。調整されたR平方係数を用いて、二次関数が線形モデルより良く適合できるかを評価できる。二次関数がより良く適合できる可能性がある時は、動物は曲がった状態にあり、測定は繰り返す必要があるか適切に修正する必要があることを意味する。イベリア・ブタは、他種のブタより高筋肉動物であり、一般的に身体を曲げて防御姿勢をとる。このことは、特徴付けの誤りの原因を解消するためにしばしば考慮しなければならない。
床面からの画像取得ユニットの高さ又は画像取得ユニットのブタの身体高に対する高さも得ることができる。第1の場合、更なる遠隔距離測定ユニットが更なる距離測定手段を提供し画像取得ユニットと遠隔距離測定ユニットが動作する相対高さを提供する。第2の場合、距離が遠隔距離測定ユニットにより測定されると、分画画像は距離測定値に直接関連するので、動物の身体高を提供できる。動物の全身体高は次のようにして計算される。(1)方向修正後の分画された輪郭の垂直方向程度を計算する。(2)画素数の計算は、距離と垂直視野の関係又は校正により変換される。回転ライダーが垂直に走査するように構成されているか、遠隔距離測定ユニットが距離の2D画像を提供する場合は、身体部分の基準点を用いて3D座標を抽出し、座標点間の距離として高さを計算できる。同様に、高さは、基準点又は身体部分(例、後足までの「ヒップーマックス」)から推定できる。その後、画素数は、距離と視野の関係、回転する垂直方向ライダーからの別の校正方法又は座標距離としての距離の2D画像に従って、変換可能である。
これにより床面に対する画像取得ユニットの光学軸の角度さえ得ることができる。
一実施例において、本発明の方法は、ブタの様々な身体部分又は基準点の間の関係を計算し、ブタの身体解析を得ることができる。基準点又は身体部分を全て用いて、図6に示すブタを単純化した図を構築できる。校正により、任意の画像点を実空間の3D座標に計算できるようになる。これにより、複雑な対象物、人間、動物の方向とサイズ/大きさの直接的な推定が可能になる。頭部からテールまでの動物の全長、交差部からテールまでの身体長さ、交差部からヒップまでの短い身体長さ、ヒップから後足までのハムの長さ、交差部から前足までの前足長さ、中央部の身体の上部から下部までの動物の幅がある。図9は、深さプロファイル解析マップからハムの厚さをいかに測定するかを示す。これらの要素はイベリア・ブタのハムにとって重要な特徴である。同時に交差部、ヒップ、ヒップ−マックスに対しなされた修正は、より信頼できより興味のあるサイズと方向の測定値を与える。ハムの面積(領域)と体積の測定もできる。ハムの面積の測定は、分画画像のハムの領域のみがヒップ点を超えるよう維持することにより、行われる。深さプロファイル解析マップ情報を加えることにより、ハムの体積の予測値も生成できる。同様に、身体領域と体積測定は、交差部を超えた領域を基準点として維持することにより、達成できる。
全ての状況データ、例えば、取得したφ角、最小距離、最大距離、平均距離、様々なサイズ、様々なサイズの間の関係(例、長さ、領域、体積)を用いて、ブタの基準点のシーケンス/列を生成できる。
本明細書において、ブタの形状は複雑な形状の代表例である。他の動物、畜牛、チッキン、ブロイラー、ブル、カウ、ヒツジ等もこの実施例では家畜動物であるので、このアプローチに特に適合する。人間もこれらの参照例としてモデル化でき、複雑な対象物とは、広い意味であるので、特定の適用を必要とする。単純に四角、三角、円形ではない明確な基準点を有するパターンに従う対象物は、遠隔距離測定ユニット(例、ライダー、回転ライダー、走査ライダー、TOFカメラ、1D(1次元)又は2D(2次元)の距離のシーケンスを提供する他の装置)により得られた分画画像の形状解析と深さ情報を組み合わせるこのアプローチを直接適用できる。
図17−20は、他の家畜、闘牛、ブロイラー、チッキンの例を示す。同図において、身体マップ又はその一部を構築する類似のアプローチを示す。一例として、図17Aは、角の間の距離、闘牛の価値を決めるための重要な特徴を測定するために、解剖学的基準点を用いて闘牛の頭の基準マップを構築する様子を示す。深さプロファイル解析マップを用いて、頭の方向を計算し、角間の距離を図17Bに示す角の長ささえも正確に計算できる。スケルトン化の同じ手順をブロイラー、チッキンに適用する例を図19に示す。ある場合には、図20に示すブロイラー、チッキンの幅を正確に測定することが重要である。他の試みは、図21に示す他の軸の正確な測定値を必要とする。あるいは、2D表面の両方の軸の情報の組み合わせさえも必要とする。
図17Aー17Dについて、ウシの角の先端を、頭の内側又は口の上の上部左位置と上部右位置で検出できる。口の重心は、その色又は温度が十分定義できる程度に(他の身体部分とは)異なっているので、取得した画像の色解析又は熱解析で検出できる。足も測定され(図17B)、ブタと同様に形状解析で検出できる。これは、実施例によれば、形状解析マップ内の分岐点と端部点を参照することにより、行われる。テールも上記した方法に類似する方法で検出される。これは、円形ハウ変換または二次関数を適合することにより、行われる。
頭の方向は、上記したブタに類似する方法で、深さプロファイル解析で推定できる。
角の先端の間の距離の測定は、頭の方向を考慮にいれ、(x、y)距離のみならず深さも導入した画像ひずみを修正することにより、うまく計算できる。角の全長の更なる情報は、図18に示すように、計算される。角の対称的特性を用いて、特定の基準点又は軸を見つけ出すことができる。
ブロイラー、チッキンは本発明の方法が適用できる。図19は、ブロイラー、チッキン(図19A)と、その分画画像と輪郭(図19B)と、スケルトン化(図19C)を示す。このスケルトン化は、形状解析マップを構築するために分岐点と端部点を検出している。
重心と方向に直交する軸を基準として用いて、短軸の深さプロファイルを得ることができる。同様に、分岐点から得られた頭とテールを用いて長軸を同定し、他の方向の深さプロファイル情報を得ることができる。上からみた画像又はTOFカメラの使用により、同一の取得から両方の深さプロファイルの計算ができる。更に、分画画像の外側の点を用いて、ブロイラー、チッキンの高さを計算できる。
深さプロファイル解析マップの例は線形測定として示されるが、TOFカメラは、2D画像又は回転したライダーの複数の走査ラインの蓄積を捕獲する。この蓄積は、身体マップに解剖学的にマッピングされる。これにより、楕円に適合するような他の計算法を実行できる。このアプローチを実際にテープ測定を行い動物の長さを測定する方法と比較する場合、線形測定値がより類似する測定値となる。しかし、この方法は線形測定法に限定されず、TOF情報は表面に適合させる為に用いることができる。
解剖学的ポイントも更に画像情報によりアシストされる。例えば、ブロイラー、チッキンの頭は身体部分よりも暖かい。この特徴を用いて頭の位置を直接見つけ出すことができる。同様に、頭は他の身体部分より高い位置にあり、このことは、遠隔測定又は画像位置により利用される。
本発明の方法を以下に詳述する。
実験例1:側面又は斜めの視点からの形状解析マップとしての重心
サーモ・カメラ、ヴィデオ・カメラ、ライダーは校正済みである。その後、本発明の方法は、ステップ(A)サーモ・カメラにより画像を取得し、温度しきい値により1頭のブタを分画する。その後ステップ(B)回転ライダーにより極座標(ρ、φ)で複数の点までの距離を測定し、この極座標形式のライダー測定値を画像内の特定の画素位置(x、y)に関連付ける。本発明の方法は、ステップ(C1)として、ブタの重心を、図22Aに示す分画画像(x0,y0)の質量の中心即ち中心ドットとして計算する。本発明の方法は、ステップ(C2)として、図7−10Aに示すように、極小値、極大値、変曲点を見いだし、テール、ヒップーマックス(距離極小値)、ハムの終了点(変曲点)、交差部(距離極小値)の深さ解析マップを計算する。最後に本発明の方法は、ステップ(C3)として、任意の深さポイントが重心近傍を通過するかどうか、分画画像内に含まれる深さポイントがy0か所定距離にあるかどうか、例えば|y−y0|<30か否かをチェックする。これが成り立つならば、深さ解析マップにより検出された解剖学的ポイントは正しいものとして受け入れられる。
実験例2:側面又は斜めの視点からの形状解析マップで検出された複数の解剖学的点
サーモ・カメラ、ヴィデオ・カメラ、ライダーは校正済みである。本発明の方法は、ステップ(A)サーモ・カメラにより画像を取得し、温度しきい値により1頭のブタを分画する。その後ステップ(B)回転ライダーにより極座標(ρ、φ)の複数の点までの距離を測定し、この極座標形式のライダー測定値を画像内の特定の画素位置(x、y)に関連付ける。本発明の方法は、ステップ(C1)として、テールの位置を見いだす為にハウ変換を計算して分画画像の重心を計算する。検出された円の中心が重心との所定の距離範囲内にある時は、図6に示す分画画像スケルトンを計算し分岐点と端部点を検出する。テールに近い分岐点はヒップ−マックスの解剖学的点の近似値である。重心又はヒップ−マックスと類似の高さで他側にある分岐点は肩部であり、この肩部は重心より下にありテールに近い。最低の端部点は重心より下の後足下足部であり、テールの反対側は、前足下足部であり、ブタが地面をスニッフィングする時には、頭から区別する肩部に最も近い。これにより図6Cに示す簡単なマップが作成される。より複雑なマップも計算される(図11−14にも示す)。本発明の方法は、ステップ(C2)として、極小値、極大値、変曲点を見いだし(図7−10Aに示す)、テール、ヒップーマックス(距離極小値)、ハムの終了点(変曲点)、交差部(距離極小値)の深さ解析マップを計算する。本発明の方法は、ステップ(C3)として、分画画像内のライダー測定値が、肩部に近い交差部と形状解析からのヒップ−マックスであるかをチェックする。更に両方のマップ内で共通の全ての解剖学点が近くにあるか予測位置にシフトしているかをチェックする。これらの条件が真ならば、深さ解析マップにより検出された解剖学的点は正しいものとして受け入れられる。
実験例3:斜めの視点からのサーモ・カメラとTOFカメラ
サーモ・カメラ、TOFカメラは校正済みである。本発明の方法は、ステップ(A)サーモ・カメラにより画像を取得し、温度しきい値により1頭のブタを分画する。ステップ(B)TOFカメラで、複数の点までの距離を測定し、実空間での位置(rx、ry、rz)を計算し、TOF測定値を画像内の特定の画素位置(x、y)に関連づける。本発明の方法は、その後、ステップ(C1)として、テールの位置を見いだす為に、ハウ変換を計算して分画画像の重心と方向を計算する。検出された円の中心が重心との所定距離の範囲内にある時は、図6に示す分画画像のスケルトンを計算し、分岐点と端部点を検出する。テールに近い分岐点は、ヒップ−マックスの解剖学的点の近似である。重心又はヒップ−マックスと類似の高さで他側にある分岐点は肩部であり、この肩部は重心より下にありテールに近い。最低の端部点は重心より下の後足下足部であり、テールの反対側は、前足下足部であり、ブタが地面をスニッフィングする時には、頭から区別する肩部に最も近い。これにより図6Cに示す簡単なマップが作成される。より複雑なマップが計算される(図11−14にも示す)。本発明の方法は、ステップ(C2)として、重心に近く形状解析に類似する方向を有するTOF画像のラインピッキングし、分画画像の表面内の深さプロファイルの2D解析を実行する。言い換えると、分画画像内に含まれる点(rx、ry、rz)を解析する。その後、本発明の方法は、極小値、極大値、変曲点を見いだし(図7−10Aに示す)、テール、ヒップーマックス(距離極小値)、ハムの終了点(変曲点)、交差部(距離極小値)の深さ解析マップを計算する。動物を表面テンプレートに適合し、様々な解剖学的点を見いだすこともできる。本発明の方法は、ステップ(C3)として、両方のマップ内で共通の全ての解剖学点が近くにあるか予測位置にシフトしているかをチェックする。これらの条件が真ならば、深さ解析マップにより検出された解剖学的点は正しいものとして受け入れられる。
実験例4:空中と斜めの視点からのサーモ・カメラとTOFカメラ
サーモ・カメラ、TOFカメラは校正済みである。本発明の方法は、ステップ(A)サーモ・カメラにより画像を取得し、温度しきい値により1頭のブタを分画する。ステップ(B)TOFカメラで、複数の点までの距離を測定し、実空間での位置(rx、ry、rz)を計算し、TOF測定値を画像内の特定の画素位置(x、y)に関連づける。本発明の方法は、その後、ステップ(C1)として、肩部とテールの位置を見いだす為に、ハウ変換を用いて形状解析を実行する。テールは多くの形状において肩部とは異なっている。例えば、肩部(頭部)超えた領域(頭部)は、テール(テールだけ)と比較すると遙かに大きい。別法として、輪郭解析によりテールの直接検出が可能となる。それは、テールの勾配は、頭部に比較すると遙かに大きいからである(図23に示す)。肩部の中心からテールの中心まで画像を走査すると、スパイン(spine)の決定が可能となる。形状解析マップは、例えば、肩部点、頭部点、スパイン点の位置により構築される(図23の方法1に示す)、更なる解剖学点が必要ならば、更に方法2に拡張できる。ステップ(C2)として、解剖学的点の高さを計算する。最後に、ステップ(C3)として、形状解析マップから全解剖学的点が正しい高さにあるか又はしき値より上にあるかチェックされる。
実験例5:空中からと斜めの視点からのTOFカメラ
TOFカメラは校正済みである。本発明の方法は、ステップ(A)TOFカメラにより画像を取得し、背景に比較した距離しきい値によりを分画する。その後、ステップ(B)TOFカメラで、複数の点までの距離を測定し、実空間での位置(rx、ry、rz)を計算し、TOF測定値を画像内の特定の画素位置(x、y)に関連づける。この場合のステップ(C1)は実験例4と同じである。ステップ(C2)として、深さ解析マップにより、全ての分画領域は、床面からの所定の高さ以上にあることが保証される。最後に、ステップ(C3)として、形状解析の全点が見いだされた場合は、全点は、正しい距離にあることを意味する(これは分画の事前の必要要件であるので)。別法として、他の計算法を含むことも可能である。その一例は、スパインの点(rx、ry、rz)の湾曲度を計算し、ある程度の許容値を各湾曲に与える方法である。
実験例6:(身体マップ用)追加的特徴を得る為にTOF画像と熱画像の組み合わせ
サーモ・カメラとTOFカメラが校正されている場合は、様々な身体部分の熱特徴の更なる計算が行われる(図24)。
生体標本の遠隔からの特徴つける装置も具備される。この装置は、主に、画像取得ユニット、分画化手段、遠隔距離測定ユニット、上記した様々な情報を処理し生体標本又は複雑な対象物の特徴付けを行う処理装置を有する。この装置は様々な情報又は処理された情報を記憶するメモリーも有する。
本発明の方法は、ハードウエア、ソフトウエア、ファームウエア、又は以上の組み合わせで実行できる。ソフトウエアで実行する場合には、その機能は、コンピュータで読み込み可能な媒体に記憶される、インストラクションとして符号化される、あるいはコードである。
コンピュータで読み取り可能な媒体とはコンピュータ記録媒体を含む。この記録媒体はコンピュータでアクセス可能な任意の信頼性の高い媒体である。一例は、これらに限定させるわけではないが、RAM,ROM,EEPROM,CD−ROM、その他の光学記憶装置、磁気ディスク、他の種類の磁気ディスク、所望のコードをインストラクションの形態又はデータ構造の形態として記憶できコンピュータでアクセス可能な他の種類の媒体を含む。本明細書で使用される用語「ディスク」とは、CD,レーザー・ディスク、DVD、フロッピー・ディスク、ブルーレイ・ディスクのことである。ディスクは、磁気的に又はレーザーで光学的にデータを再生する、上記の組みあわせも「コンピュータで読み取り可能な媒体」に含まれる。任意のプロセッサと記憶媒体はASICに搭載してもよい。ASICはユーザ端末内にある。別法として、プロセッサと記憶媒体はユーザ端末内の別置きのコンピュータ内にあってもよい。
本明細書に記載したように、コンピュータ・プログラム製品は、コンピュータで読み取り可能なあらゆる媒体を含むが、ただし、前記媒体が揮発性で一時的に伝搬する信号であると見なされるとされる場合は除く。
以上の説明は、本発明の一実施例に関するもので、この技術分野の当業者であれば、本発明の種々の変形例を考え得るが、それらはいずれも本発明の技術的範囲に包含される。特許請求の範囲の構成要素の後に記載した括弧内の番号は、図面の部品番号に対応し、発明の容易なる理解の為に付したものであり、発明を限定的に解釈するために用いてはならない。また、同一番号でも明細書と特許請求の範囲の部品名は必ずしも同一ではない。これは上記した理由による。「少なくとも1つ或いは複数」、「又は」は、それらの内の1つに限定されない。例えば「A,B,Cの内の少なくとも1つ」は「A」、「B」、「C」単独のみならず「A,B或いはB,C更には又A,B,C」のように複数のものを含んでもよい。「A又はB」は、A,B単独のみならず、A,Bの両方を含んでもよい。本明細書において「Aを含む」「Aを有する」は、A以外のものを含んでもよい。特に記載のない限り、装置又は手段の数は、単数か複数かを問わない。
図1、2
a:分画画像
b:距離の測定
c.1:形状解析、形状解析マップ、身体マップ、
c.2:深さプロファイル、プロファイル解析、プロファイル解析マップ、身体マップ、
c.3:比較、点数付け又は一致
図3
縦軸:深さ(cm)、横軸:実空間距離(cm)
図7
重心より上方のライダー・走査、重心上のライダー・走査、重心より下方のライダー・走査
縦軸:深さ、横軸:ライダー深さ、画像列
・・・ 分画された領域外の深さのプロファイル
●●● 分画された領域内の深さのプロファイル
図8
縦軸:深さ(cm)、横軸:水平方向画素(任意単位)
縦軸:深さ(cm)、横軸:実空間距離(cm)
図9
縦軸:深さ(cm)、横軸:実空間距離(cm)
図中:頭部、交差部(肩部)、テール、テール
図10A
縦軸:深さ(cm)、横軸:実空間距離(cm)
図中:プロフィル解析による交差部、形状解析による交差部、形状解析によるテール、プロフィル解析によるテール、プロフィル解析によるヒップ−マックス、テール
図15
前足、後足、交差部、腿部の開始点、テール
図16
上面図、正面図、動物 装置
図17D
縦軸:実空間深さ(cm)、横軸:実空間水平方向距離(cm)
図21B
縦軸:実空間深さ(cm)、横軸:実空間距離(cm)
図23
TOF画像、方法1,方法2,方法1,方法2

Claims (15)

  1. 遠隔から生体標本を特徴付ける方法において、
    (A)画像取得ユニットにより、生体標本の画像を取得し、この得られた画像を処理ユニットにより分画し、分画画像を提供するステップと、
    (B)遠隔測定装置により、前記得られた画像の複数の部分までの距離を測定し、複数の距離測定値を提供し、前記生体標本の分画画像に含まれる距離測定値のサブセットを選択するステップと、
    前記画像取得ユニットと前記遠隔測定装置とは校正されており、
    (C)処理ユニットにより、前記分画画像と前記分画画像に含まれる様々な位置に関連する前記複数の距離測定値とを、下記のステップ(C1)−(C3)により処理するステップと、
    (C1)前記生体標本の形状を、分画画像内の以下のいずれかの項目を計算するアルゴリズムを実行することにより、特徴付けるステップと、
    ・生体標本の重心
    ・基準点を参照して前記分画画像内の生体標本の方向
    ・前記分画画像内に前記生体標本の解剖学的基準点を見いだすことによる前記生体標本の特定の身体部分
    前記形状の特徴付けの結果は形状解析マップを提供し、
    (C2)前記生体標本の深さを、前記分画画像内に含まれる距離測定値内の以下の項目を計算するアルゴリズムを実行することにより、特徴付けるステップと、
    ・前記距離測定値内に、前記生体標本の解剖学的基準点を見いだすことによる前記生体標本の特定の身体部分
    前記深さの特徴付けの結果は深さプロファイル解析マップを提供し、
    (C3)前記形状解析マップと深さプロファイル解析マップとを比較するステップと、
    前記ステップ(C3)の結果が所定の範囲内にある場合は、本発明の方法は、
    (D1)以下のいずれか含む前記生体標本のパラメータを決定するステップと、
    ・姿勢パラメータ、前記解剖学的基準点の配置又は補正、前記生体標本の身体サイズ・パラメータ、
    (D2)前記生体標本の身体マップを表すステップと
    を有し、
    前記ステップ(C3)の結果が所定の範囲外にある場合は、本発明の方法は、
    (E)ステップ(A)−(C)を繰り返し、新たな深さプロファイル解析マップと新たな形状解析マップを得るステップ
    を有し、
    前記ステップ(A)と(B)は任意の時に実行される
    ことを特徴とする遠隔から生体標本を特徴付ける方法。
  2. 前記ステップ(A)は、前記生体標本の複数の画像を様々な時間で取得し、前記生体標本の様々な姿勢を取得し、前記取得した画像の各々に対し距離測定値のシーケンスを取得するステップを含む
    ことを特徴とする請求項1記載の方法。
  3. (F)前記画像取得ユニットと前記生体標本の相対位置三次元情報の一部を推定し、以下のパラメータ即ち、前記画像取得ユニットと前記生体標本との間の角度の平均値、前記生体標本の屈曲度又は平坦度、床面からの前記画像取得ユニットの高さ、前記生体標本の高さに対する前記画像取得ユニットの高さ、床面に対する前記画像取得ユニットの光軸の角度の内の少なくとっも2つのパラメータを得るステップ
    を更に有する
    ことを特徴とする請求項1又は2記載の方法。
  4. 前記生体標本の方向は、前記分画画像を楕円に適合させることにより、正方形フィッティング関数、ガウスモデル法、主成分解析法、最小面積矩形法、ハフ(Hough)変換法のいずれかを用いて、計算される
    ことを特徴とする請求項1記載の方法。
  5. 前記形状解析マップの身体部分は、以下のいずれかの方法により計算される
    ・前記分画画像のハム又は大腿部の半径を計算する円形ハフ(Hough)変換法
    ・前記重心と方向軸の周りに放物線を適合させることにより、前記分画画像内の生体標本のテールを検出する二次元多項式関数法
    ことを特徴とする請求項1記載の方法。
  6. 前記形状解析マップの身体部分は、以下のいずれかの方法により、計算される
    ・前記分画画像内の生体標本の輪郭を計算し、前記計算された輪郭を極座標で符号化し、フーリエ変換関数を前記極座標に適用し、複数のフーリエ係数を提供する法、その係数は回転不変であり、その引数は回転情報を含む、
    ・前記分画画像内の生体標本の輪郭を計算し、前記計算された輪郭内の距離を距離測定法に基づいて計算する法、この距離測定法は、ユークリッド、測地、シティ・ブロックを含む、
    ・前記分画画像の距離変換を計算する法
    ・前記分画画像内からスケルトン化関数を計算し、前記生体標本のスケルトンの画像を提供し、前記スケルトン内の分岐点と端部点とを計算し、様々な身体部分の解剖学的位置を推定し、前記生体標本の輪郭を計算する法、
    ・前記分画画像の画像モメントを計算する法
    ことを特徴とする請求項1又は5記載の方法。
  7. (F)前記深さプロファイル解析マップと形状解析マップの対のシーケンスを、
    ・各取得毎に得られた情報を組み合わせるステップと、
    ・各対のマップにスコアを割り当てるステップと、
    ・最高のスコアを持つマップの対を選択するステップと
    を実行することにより得る
    ことを特徴とする請求項2記載の方法。
  8. (F)前記深さプロファイル解析マップと形状解析マップの対のシーケンスを
    ・各取得毎に得られた情報を組み合わせるステップと、
    ・各対のマップにスコアを割り当てるステップと、
    ・全ての取得毎の解剖学的基準点をマッチングし、前記生体標本の三次元再構成を計算する為に、前記深さプロファイル解析マップと解剖学的基準点の様々な断片を蓄積するステップ、又は
    ・各取得毎に身体マップを計算し、各身体マップの全情報を蓄積し、スコアを付与して拡張身体マップに改良するステップ
    を実行することにより得る
    ことを特徴とする請求項2記載の方法。
  9. 前記生体標本の身体マップが表示されている場合は、この身体マップを用いて、画像取得ユニットにより得られた色と温度のいずれか或いはその両方を含む特徴に基づいて身体マップの特徴を計算する、又は予め校正されている追加の装置により測定された追加的特徴を計算する
    ことを特徴とする請求項1記載の方法。
  10. 前記ステップ(A)の取得した画像が複数の生体標本を含む場合、
    (G)前記画像に含まれる各生体標本について、前記形状解析マップと深さプロファイル解析マップを算出して比較することにより、同一時に取得した画像内ある複数の生体標本を評価するステップを更に有する
    ことを特徴とする請求項1記載の方法。
  11. 前記身体マップは、前記生体標本の3D表現である
    ことを特徴とする請求項1,8,9のいずれかに記載の方法。
  12. 前記生体標本は、ブタ、ブル、ウシ、ヒツジ、ブロイラー、アヒル、チッキンのいずれかを含む家畜動物である
    ことを特徴とする請求項1−11のいずれかに記載の方法。
  13. 遠隔から生体標本を特徴付ける装置において、
    (A1)生体標本の画像を取得する画像取得ユニットと、
    (A2)この得られた画像を分画しこの分画画像を提供する第1処理ユニットと、
    (B)前記得られた画像の複数の部分までの距離を測定し、複数の距離測定値を提供し、前記生体標本の分画画像に含まれる距離測定値のサブセットを選択する遠隔測定装置と、
    前記画像取得ユニットと前記遠隔測定装置とは校正されており、
    (C)前記分画画像と複数の距離測定値を、前記分画画像に含まれる様々な位置を参照して、処理する第2処理ユニットと
    を有し、
    前記第2処理装置は、請求項1のステップ(C)を実行する
    ことを特徴とする装置。
  14. 前記画像取得ユニットは、赤チャネル内に近赤外線を有するRGBカメラ、サーモ・カメラのいずれか又は両方を更に有する
    ことを特徴とする請求項13記載の装置。
  15. 前記遠隔測定装置は、回転ライダー(rotating Lidar)、走査型ライダー、複数のライダー、飛行時間、TOF、センサー、TOFカメラのいずれかである
    ことを特徴とする請求項13又は14記載の装置。
JP2020545266A 2018-02-26 2019-02-14 遠隔から生体標本を特徴付ける方法と装置 Active JP7336691B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
EP18382110.7 2018-02-26
EP18382110.7A EP3531373B1 (en) 2018-02-26 2018-02-26 A method and device for the characterization of living specimens from a distance
PCT/EP2019/053654 WO2019162180A1 (en) 2018-02-26 2019-02-14 A method and device for the characterization of living specimens from a distance

Publications (2)

Publication Number Publication Date
JP2021515323A true JP2021515323A (ja) 2021-06-17
JP7336691B2 JP7336691B2 (ja) 2023-09-01

Family

ID=61283149

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020545266A Active JP7336691B2 (ja) 2018-02-26 2019-02-14 遠隔から生体標本を特徴付ける方法と装置

Country Status (16)

Country Link
US (1) US11587350B2 (ja)
EP (1) EP3531373B1 (ja)
JP (1) JP7336691B2 (ja)
KR (1) KR20200127016A (ja)
CN (1) CN112262408A (ja)
AU (1) AU2019223705B2 (ja)
BR (1) BR112020017434A2 (ja)
CA (1) CA3092209A1 (ja)
DK (1) DK3531373T3 (ja)
ES (1) ES2921128T3 (ja)
HU (1) HUE059001T2 (ja)
MX (1) MX2020008861A (ja)
PH (1) PH12020551508A1 (ja)
PL (1) PL3531373T3 (ja)
PT (1) PT3531373T (ja)
WO (1) WO2019162180A1 (ja)

Families Citing this family (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110910393B (zh) * 2018-09-18 2023-03-24 北京市商汤科技开发有限公司 数据处理方法及装置、电子设备及存储介质
EP3756458A1 (en) * 2019-06-26 2020-12-30 Viking Genetics FmbA Weight determination of an animal based on 3d imaging
US20220395193A1 (en) * 2019-06-26 2022-12-15 Nec Corporation Height estimation apparatus, height estimation method, and non-transitory computer readable medium storing program
CN111145240A (zh) * 2019-11-18 2020-05-12 西宁市动物疫病预防控制中心(挂西宁市畜牧兽医站牌子) 一种基于3d相机的活体西门塔尔牛体尺在线测量方法
CN113316803A (zh) * 2019-12-20 2021-08-27 博医来股份公司 使用历史校正的统计分析来校正医学图像的分割
CN113915740B (zh) * 2020-07-08 2023-12-22 海信空调有限公司 一种空调器和控制方法
US11892574B2 (en) * 2020-07-31 2024-02-06 GM Global Technology Operations LLC Dynamic lidar to camera alignment
CN111986168B (zh) * 2020-08-07 2024-03-15 中国农业大学 T形分支的双耳根检测与最佳耳根测温帧检测方法及系统
CN112927282A (zh) * 2021-01-25 2021-06-08 华南农业大学 一种基于机器视觉的畜禽脚参数自动测量方法
CN113632749B (zh) * 2021-09-07 2022-11-22 华中农业大学 一种基于动物行为的猪身体状态监测方法
CN113808156B (zh) * 2021-09-18 2023-04-18 内蒙古大学 一种户外牛体体尺检测方法与装置
CN114243925B (zh) * 2021-12-21 2024-02-09 国网山东省电力公司淄博供电公司 基于智能融合终端的台区配变态势感知方法及系统
CN114838665B (zh) * 2022-07-04 2022-09-02 江西农业大学 一种基于黑皮鸡枞菌的尺寸原位测量方法
CN116363141B (zh) * 2023-06-02 2023-08-18 四川省畜牧科学研究院 一种妊娠母猪智能体型评价装置及系统
CN117746343B (zh) * 2024-02-20 2024-05-14 济南格林信息科技有限公司 基于等高轮廓图的人员流动检测方法及系统

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20040023612A1 (en) * 2002-08-02 2004-02-05 Kriesel Marshall S. Apparatus and methods for the volumetric and dimensional measurement of livestock
US20060126903A1 (en) * 2002-07-25 2006-06-15 David Sharony Imaging system and method for body condition evaluation
WO2009028930A1 (en) * 2007-08-27 2009-03-05 Maasland N.V. System for and method of managing a group of animals
WO2010063527A1 (en) * 2008-12-03 2010-06-10 Delaval Holding Ab Arrangement and method for determining a body condition score of an animal
US20100172567A1 (en) * 2007-04-17 2010-07-08 Prokoski Francine J System and method for using three dimensional infrared imaging to provide detailed anatomical structure maps
US20130064432A1 (en) * 2010-05-19 2013-03-14 Thomas Banhazi Image analysis for making animal measurements

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5412420A (en) 1992-10-26 1995-05-02 Pheno Imaging, Inc. Three-dimensional phenotypic measuring system for animals
US5474085A (en) 1994-02-24 1995-12-12 University Of Prince Edward Island Remote thermographic sensing of livestock
US9922242B2 (en) 2012-12-02 2018-03-20 Agricam Ab Systems and methods for predicting the outcome of a state of a subject
EP2957861A1 (en) * 2014-06-17 2015-12-23 Expert Ymaging, SL Device and method for automated parameters calculation of an object
US20170196196A1 (en) * 2016-01-08 2017-07-13 Leo Trottier Animal interaction devices, systems and methods
WO2019003015A1 (en) * 2017-06-29 2019-01-03 The Gsi Group Llc ANIMAL WEIGHT ESTIMATION BASED ON REGRESSION

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20060126903A1 (en) * 2002-07-25 2006-06-15 David Sharony Imaging system and method for body condition evaluation
US20040023612A1 (en) * 2002-08-02 2004-02-05 Kriesel Marshall S. Apparatus and methods for the volumetric and dimensional measurement of livestock
US20100172567A1 (en) * 2007-04-17 2010-07-08 Prokoski Francine J System and method for using three dimensional infrared imaging to provide detailed anatomical structure maps
WO2009028930A1 (en) * 2007-08-27 2009-03-05 Maasland N.V. System for and method of managing a group of animals
WO2010063527A1 (en) * 2008-12-03 2010-06-10 Delaval Holding Ab Arrangement and method for determining a body condition score of an animal
US20130064432A1 (en) * 2010-05-19 2013-03-14 Thomas Banhazi Image analysis for making animal measurements

Also Published As

Publication number Publication date
PH12020551508A1 (en) 2021-09-06
AU2019223705A1 (en) 2020-10-01
PL3531373T3 (pl) 2022-08-08
DK3531373T3 (da) 2022-07-11
EP3531373A1 (en) 2019-08-28
WO2019162180A1 (en) 2019-08-29
US11587350B2 (en) 2023-02-21
US20210004577A1 (en) 2021-01-07
BR112020017434A2 (pt) 2020-12-22
MX2020008861A (es) 2020-10-28
KR20200127016A (ko) 2020-11-09
EP3531373B1 (en) 2022-05-04
HUE059001T2 (hu) 2022-09-28
ES2921128T3 (es) 2022-08-18
PT3531373T (pt) 2022-08-16
RU2020131518A (ru) 2022-03-29
CN112262408A (zh) 2021-01-22
JP7336691B2 (ja) 2023-09-01
CA3092209A1 (en) 2019-08-29
AU2019223705B2 (en) 2024-06-13

Similar Documents

Publication Publication Date Title
JP2021515323A (ja) 遠隔から生体標本を特徴付ける方法と装置
Spoliansky et al. Development of automatic body condition scoring using a low-cost 3-dimensional Kinect camera
RU2543948C2 (ru) Устройство и способ определения количественного показателя состояния тела животного
US9311556B2 (en) Image analysis for making animal measurements including 3-D image analysis
Salau et al. Feasibility of automated body trait determination using the SR4K time-of-flight camera in cow barns
JP7057971B2 (ja) 動物体の体重推定装置及び体重推定方法
Clarkson et al. Assessing the suitability of the Microsoft Kinect for calculating person specific body segment parameters
WO2016023075A1 (en) 3d imaging
AU2016327051A1 (en) Image analysis for making animal measurements including 3-D image analysis
JP6972481B2 (ja) 食事の識別システムと識別方法及び識別プログラム
Lati et al. Plant growth parameter estimation from sparse 3D reconstruction based on highly-textured feature points
CN109068613A (zh) 健康状态推定装置
CN108670301B (zh) 一种基于超声影像的脊柱横突定位方法
CN107644679B (zh) 信息推送方法和装置
RU2785149C2 (ru) Способ и устройство для получения характеристик живых особей на расстоянии
JP7136344B2 (ja) カメラの較正方法、カメラ及びプログラム
US11341661B2 (en) Method and apparatus for registering live medical image with anatomical model
McFarlane et al. Shape measurements of live pigs using 3-D image capture
Shanmuganathan et al. Image registration for multi-view three-dimensional echocardiography sequences
Zhang et al. Reparation with moving least squares sampling and extraction of body sizes of beef cattle from unilateral point clouds
Kumar Novel 3D Back Reconstruction using Stereo Digital Cameras
KR20230162210A (ko) 어류 체적 측정 장치 및 이를 이용한 어류 체적 측정 방법
Mao Computer assisted methods to support the clinical assessment of human surface anatomy in 3D images

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220210

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221207

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221227

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230404

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230405

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230501

R155 Notification before disposition of declining of application

Free format text: JAPANESE INTERMEDIATE CODE: R155

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230802

R150 Certificate of patent or registration of utility model

Ref document number: 7336691

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150