JP7121781B2 - 情報処理方法、プログラムおよび情報処理装置 - Google Patents

情報処理方法、プログラムおよび情報処理装置 Download PDF

Info

Publication number
JP7121781B2
JP7121781B2 JP2020162573A JP2020162573A JP7121781B2 JP 7121781 B2 JP7121781 B2 JP 7121781B2 JP 2020162573 A JP2020162573 A JP 2020162573A JP 2020162573 A JP2020162573 A JP 2020162573A JP 7121781 B2 JP7121781 B2 JP 7121781B2
Authority
JP
Japan
Prior art keywords
individual
image
information
parameter information
simulation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020162573A
Other languages
English (en)
Other versions
JP2022055140A (ja
Inventor
裕子 石若
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
SoftBank Corp
Original Assignee
SoftBank Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by SoftBank Corp filed Critical SoftBank Corp
Priority to JP2020162573A priority Critical patent/JP7121781B2/ja
Priority to PCT/JP2021/032773 priority patent/WO2022065020A1/ja
Priority to CN202180061884.XA priority patent/CN116157835A/zh
Priority to EP21872151.2A priority patent/EP4220549A4/en
Publication of JP2022055140A publication Critical patent/JP2022055140A/ja
Priority to JP2022125232A priority patent/JP7265672B2/ja
Application granted granted Critical
Publication of JP7121781B2 publication Critical patent/JP7121781B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/70Denoising; Smoothing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/60Image enhancement or restoration using machine learning, e.g. neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • G06T7/251Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20036Morphological image processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30242Counting objects in image
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02ATECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE
    • Y02A40/00Adaptation technologies in agriculture, forestry, livestock or agroalimentary production
    • Y02A40/80Adaptation technologies in agriculture, forestry, livestock or agroalimentary production in fisheries management
    • Y02A40/81Aquaculture, e.g. of fish

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Analysis (AREA)

Description

本発明は、情報処理方法、プログラムおよび情報処理装置に関する。
ディープラーニングはコンピュータビジョンや音声認識の分野で素晴らしい結果を出している。例えば、養殖場では尾数の自動カウントが課題となっているが、ディープラーニングの手法を用いれば、このような問題が改善されると期待される。
国際公開第2019/045091号
ディープラーニングによる解析の精度はトレーニングデータに依存する。しかし、正確なトレーニングデータを作成することは容易ではない。また、魚の群れなどを対象とする場合には、重なり合って見えない個体が多数存在するため、ディープラーニングのみでは必要な情報を精度よく推定することは難しい。
そこで、本開示の目的の一つは、精度のよいトレーニングデータを容易に生成することが可能な情報処理方法、プログラムおよび情報処理装置を提案することにある。また、本開示の目的の一つは、実データに含まれる情報を精度よく推定することが可能な情報処理方法、プログラムおよび情報処理装置を提案することにある。
本開示の一側面によれば、入力データとなるシミュレーション画像をコンピュータグラフィックスにより生成し、シミュレーションに用いたパラメータ情報に基づいてラベル情報を生成し、前記シミュレーション画像と前記ラベル情報とを含む正解データを生成する、ことを有する、コンピュータに実行される情報処理方法が提供される。また、本開示によれば、前記情報処理方法をコンピュータに実行させるプログラム、および、上記情報処理方法を実行する情報処理装置が提供される。
本開示によれば、精度のよいトレーニングデータが容易に生成される。
図1は、情報処理の概要を説明する図である。 図2は、画像要素のバリエーションを示す図である。 図3は、画像要素のバリエーションを示す図である。 図4は、画像要素のバリエーションを示す図である。 図5は、反射像に起因するノイズを除去する機械学習を説明する図である。 図6は、影に起因するノイズを除去する機械学習を説明する図である。 図7は、群れモデル23の一例を示す図である。 図8は、非給餌時の群れのシミュレーション画像である。 図9は、給餌時の群れのシミュレーション画像である。 図10は、非給餌時の群れの撮影画像である。 図11は、給餌時の群れの撮影画像である。 図12は、個体モデルの一例を示す図である。 図13は、個体の動作シミュレーションを示す図である。 図14は、生け簀で飼育されるチョウザメを示す図である。 図15は、情報処理装置の一例を示す図である。 図16は、群れの個体数の推定処理の一例を示す図である。 図17は、個体のトラッキングの一例を示す図である。 図18は、個体の識別方法および異常行動の検出方法の一例を示す図である。 図19は、情報処理方法の一例を示すフローチャートである。 図20は、情報処理装置のハードウェア構成の一例を示す図である。
以下に、本開示の実施形態について図面に基づいて詳細に説明する。以下の各実施形態において、同一の部位には同一の符号を付することにより重複する説明を省略する。
[1.情報処理の概要]
図1は、本開示の情報処理の概要を説明する図である。
本開示は、CG(Computer Graphics)を用いた新規なトレーニングデータの生成手法、および、CG画像と実データ(撮影画像)との差を埋めるData Drivenの手法を提案するものである。トレーニングデータをCG画像で生成することで、精度のよいトレーニングデータを大量に生成することができる。また、実データに近似したCG画像を生成することで、必要な情報をCGのパラメータに基づいて精度よく推定することができる。以下、本開示の詳細を説明する。
本開示では、ターゲットTGの撮影画像CIに基づいて、画像分析の手法により、ターゲットTGの分析が行われる。本開示の情報処理の手法は、水産業、農業、林業および工業などの広範な分野に適用可能である。分析対象は、技術分野および分析の目的などに応じて適切に設定される。例えば、水産業の分野では、養殖魚の尾数、生育状況、補食動作および異常行動などが分析対象となる。農業分野では、農作物の生育状況および収穫数などが分析対象となる。林業の分野では、樹木の生育状況および木材量などが分析対象となる。工業の分野では、製品の数量、不良品の有無などが分析対象となる。
以下では、本開示の情報処理の手法が養殖魚のトラッキング、異常行動検出および尾数カウントなどに適用される例を説明する。
[2.トレーニングデータの生成]
本開示では、コンピュータシミュレーションを用いて、群れFLKおよび個体OBの3次元CG画像が生成される。生成されたCG画像は、ディープラーニングのトレーニングデータとして用いられる。
トレーニングデータは、多数のデータセットを含む。各データセットは、入力データTIDと正解データTODとを含む。本開示では、入力データTIDとなるシミュレーション画像SIがコンピュータグラフィックスにより生成される。正解データTODは、入力データTIDにラベル情報を付加して生成される。ラベル情報は、正解(Ground Truth)を示す情報である。ラベル情報は、シミュレーションに用いたパラメータ情報に基づいて自動的に生成される。
シミュレーショの対象は学習の目的に応じて決定される。例えば、養殖魚の尾数をカウントする場合には、群れFLKのシミュレーションが行われる。養殖魚を個別にトラッキングする場合には、個体OBのシミュレーションが行われる。
図1の例は、養殖魚のトラッキングを目的として、個体OBのシミュレーション画像SIが生成される例である。ラベル情報は、個体OBを分類するための分類情報と、個体OBの位置情報と、を含む。分類情報は、例えば、個体OBの種類(魚種など)および形態的特徴(ヒレの変形、欠損、体の色、模様など)などの情報を含む。位置情報は、例えば、個体OBの中心位置および個体OBの存在範囲を示す情報を含む。位置情報は、例えば、3次元座標情報を用いて生成される。図1の例では、個体OBの中心の座標(b、b、b)、および、個体OBを内包する最小限の大きさの直方体(boundary cube)の奥行b、幅bおよび高さbに関する情報が位置情報として示されている。個体OBの位置情報(存在範囲を示す情報)に基づいて、個体OBの大きさの情報が抽出される。
正解データTODは、個体OBを識別するための画像要素IEを含むことができる。画像要素IEは、例えば、boundary cubeを示すフレーム要素である。画像要素IEは、シミュレーションに用いられた個体OBの位置情報に基づいて自動的に生成される。図1の例では、画像要素IEがboundary cubeで示されたが、画像要素IEはこれに限られない。画像要素IEは、例えば、個体OBを囲むフレーム要素、または、個体OBを色で識別するための色要素を含むものとすることができる。
図2ないし図4は、画像要素IEのバリエーションを示す図である。
図2の例は、図1に示したboundary cubeを再掲したものである。図3の例は、個体OBをシルエットで置換した例、または、個体OBの輪郭を太線で縁取った例である。図4の例は、複数の個体OBを色分けした例である。図2のboundary cubeおよび図3の輪郭線は、個体OBを囲むフレーム要素に相当する。図4の色分けは、色要素の付与に相当する。複数の個体OBが存在する場合には、フレーム要素の色は、個体OBごとに異ならせてもよく、個体OBの分類情報に応じて異ならせてもよい。
[3.ディープラーニング]
図1に戻って、本開示では、入力データTIDおよび正解データTODをトレーニングデータとする機械学習(教師あり学習)がDNN(Deep Neural Network)において行われる。学習済みのDNNに入力データRIDが入力されると、入力データRIDにラベル情報および画像要素IEを付加した出力データRODが生成される。
例えば、撮影画像CIがDNNに入力されると、DNNは撮影画像CIから個々の個体OBを抽出する。DNNは、個々の個体OBの特徴に基づいて、個々の個体OBの分類情報および位置情報を生成する。DNNは、個体OBごとに、分類情報および位置情報を含むラベル情報を生成する。DNNは、個々の個体OBの位置情報に基づいて、個体OBごとに画像要素IEを生成する。DNNは、撮影画像CIに各個体OBの画像要素IEを付加した補正画像CCIを生成する。DNNは、補正画像CCIに各個体OBのラベル情報を付加して出力データRODを生成する。
[4.ノイズの除去]
図5および図6は、ノイズを除去する機械学習を説明する図である。
DNNによる画像解析の精度を高めるために、撮影画像CIに含まれるノイズを除去する機械学習を行うことができる。例えば、生け簀の中にカメラをおいて撮影を行うと、水面WSや壁面WLの近くを移動する個体OBの反射像MIRが水面WSや壁面WLに映し出される。生け簀の底には個体OBの影SHが投影される。このような反射像MIRおよび影SHはノイズとなり、画像解析の精度を低下させる可能性がある。そのため、本開示では、例えば、反射像MIRおよび影SHのシミュレーション画像SIが生成され、シミュレーション画像SIを用いたトレーニングデータが生成される。
図5の例では、入力データTIDとして、個体OBおよび反射像MIRを含むシミュレーション画像SIが生成される。正解データTODは、入力データTIDから反射像MIRが除去されたシミュレーション画像SIである。この入力データTIDおよび正解データTODをトレーニングデータとして用いると、撮影画像CIから反射像MIRを除去するDNNが得られる。図5の例では、入力データTIDおよび正解データTODに個体OBが含まれたが、これらのデータには必ずしも個体OBは含まれる必要はない。例えば、上述の入力データTIDおよび正解データTODから個体OBが削除されたトレーニングデータを用いても、反射像MIRを除去するDNNが生成される。
図6の例では、入力データTIDとして、個体OBおよび影SHを含むシミュレーション画像SIが生成される。正解データTODは、入力データTIDから影SHが除去されたシミュレーション画像SIである。この入力データTIDおよび正解データTODをトレーニングデータとして用いると、撮影画像CIから影SHを除去するDNNが得られる。図6の例では、入力データTIDおよび正解データTODに個体OBが含まれたが、これらのデータには必ずしも個体OBは含まれる必要はない。例えば、上述の入力データTIDおよび正解データTODから個体OBが削除されたトレーニングデータを用いても、影SHを除去するDNNが生成される。
[5.シミュレーションモデル]
群れFLKおよび個体OBのシミュレーション画像SIは、群れモデル23(図15参照)および個体モデル24(図15参照)を用いて生成することができる。群れモデル23は、群れFLKの統計的性質に基づくシミュレーションモデルである。個体モデル24は、個体OBの形態的特徴に基づくシミュレーションモデルである。以下、シミュレーションモデルの概要を説明する。
[5-1.群れモデル]
図7は、群れモデル23の一例を示す図である。
群れモデル23は、例えば、分類、整列および結合の3つの動作規則を規定したBoidsモデルに、給餌時の捕食動作を示す捕食者モデルを組み合わせて生成される。捕食者モデルでは、分離の動作規則が適用される混雑領域CAの外側に、密集方向とは反対方向への移動を促す反発領域RAが設定される。捕食者モデルは、個体OBの視界に映る餌を個体OBがどのように獲得するかをシミュレーションすることにより生成される(Fish Vision Simulation)。捕食者モデルは、個体OBの種類およびケージ内の密度に応じた餌の最適化を図るために用いることもできる。
群れモデル23では、例えば、個体OBの整列度、群れ形成度、視野角、トップスピード、餌認識速度、餌への執着度、餌を食べ続ける時間(満腹になる給餌量)、一回に餌をついばむ時間、餌を食べているときの移動速度、混雑領域CAの大きさ、および、反発領域RAの大きさなどが、群れFLKのパラメータとして設定される。これらのパラメータは、個体OBの種類や大きさによって変化する。
図8は、非給餌時の群れFLKのシミュレーション画像SIである。図9は、給餌時の群れFLKのシミュレーション画像SIである。図10は、非給餌時の群れFLKの撮影画像CIである。図11は、給餌時の群れFLKの撮影画像CIである。
図8および図10に示すように、非給餌時には、群れFLKは概ね、分離、整列および結合の3つの動作規則にしたがって動作する。そのため、狭い範囲に多数の個体OBが密集する。図9および図11に示すように、給餌時には、群れFLKは、分離、整列、結合および反発の4つの動作規則にしたがって動作する。反発の動作規則によって群れFLKが広がるため、群れFLKの密度は低下する。
図10に示すように、密集した群れFLKでは、重なり合って見えない個体OBが多いため、正確な個体数を計数することは難しい。そのため、図8に示すようなシミュレーション画像SIに基づいて個体数の推定が行われる。群れFLKの形状や大きさなどはシミュレーションのパラメータを調整することで変更される。そのため、シミュレーション画像SIが実データと近似するまでパラメータ情報を調整することで、精度のよい個体数の推定が可能となる。
図11に示すように、給餌時には群れFLKの密度は低下する。そのため、給餌時の撮影画像に基づいて個体数の推定が行われてもよい。この場合、重なり合って見えない個体OBの数が少なくなるので、計数が容易となる。図9に示すシミュレーション画像SIと比較する際にも、群れFLKが密集していないので、比較が容易である。
[5-2.個体モデル]
図12は、個体モデル24の一例を示す図である。
個体モデル24は、個体OBの体の構造に基づいて生成される。個体モデル24としては、例えば、筋骨格モデルが用いられる。筋骨格SBMは、標準的な形状および大きさを有する個体OBを解剖し、個体OBの骨格と、骨格に対する筋肉の付き方と、を分析することによって得られる。図12では、チョウザメの筋骨格SBMが示されている。筋骨格SBMからは個体OBの基準モデルRMが再現される。基準モデルRMからは、1以上の変異モデルMM1~MMn(nは1以上の整数)が派生して生成される。基準モデルRMおよび変異モデルMM1~MMnがそれぞれ個体モデル24となる。個体モデル24は、個体OBの分類情報として用いられる。
変異モデルは、形態に異常がある個体OBの3次元モデルである。養殖により生まれた個体OBのほとんどが、身体的異常(例えば、ヒレが曲がっている、ヒレの形状が変異している、内臓疾患を有する)を有することが知られている。そのため、個体OBの変異モデルとしては、例えば、胸ヒレの異常(例えば、胸ヒレが曲がっている)、背ヒレの異常(例えば、背ヒレが曲がっている)、尾ヒレの異常(例えば、尾ヒレが曲がっている)、および、輪郭変異(例えば、通常個体と比較して頭部の輪郭が変異している)に関するモデルなどが生成される。なお、変異モデルは上記のものに限られない。どのような変異モデルを生成するかは、個体OBの種類や個体OBが置かれた環境などに応じて個別に決定される。
図13は、個体OBの動作シミュレーションを示す図である。
個体モデル24には、動作シミュレーションによって得られた動作特徴量が紐づけられる。チョウザメの例では、流体シミュレーションによって、個体モデル24ごとに、泳法の特徴量(動作特徴量)が抽出される。個体OBの泳法は、個体OBが持つ形態的特徴によって変わる。例えば、身体的異常を有する個体OBは、異常を補うように泳ぐ。そのため、個体モデル24ごとに、泳法の特徴量は異なる。泳法の特徴量は、個体OBを識別するパラメータ情報として用いることができる。個体OBの動作特徴量を示すパラメータ情報は、個体モデル24に紐づけられ、分類情報として用いられる。
図14は、生け簀で飼育されるチョウザメを示す図である。
養殖場のチョウザメのほとんどは何らかの身体的異常を有する。例えば、個体OB1~と個体OB4は、胸ヒレ、背ヒレおよび尾ヒレの形状が一様ではなく、輪郭も微妙に異なる。そのため、チョウザメごとに、身体的異常に応じた変異モデルを割り当てることができる。同じ変異モデルが割り当てられたチョウザメどうしでも、身体的異常の度合いは様々である。そのため、個体OBの動作特徴量を示すパラメータ情報もチョウザメごとに異なる。よって、動作シミュレーションによって個々の個体OBのパラメータ情報が検出されれば、検出されたパラメータ情報に基づいて個々の個体OBを識別することができる。
[6.情報処理装置の構成]
図15は、本開示の情報処理が適用される情報処理装置1の一例を示す図である。
情報処理装置1は、サーバなどの専用または汎用のコンピュータシステムである。前述した画像解析用のDNNは分析モデル21に含まれる。情報処理装置1は、処理装置10と記憶装置20とを有する。処理装置10は、例えば、入力データ生成部11と、正解データ生成部12と、画像解析部13と、シミュレーション部14と、推定部15と、を有する。
シミュレーション部14は、モデル情報22に規定されたシミュレーションモデルを用いて、3次元のシミュレーション画像SIを生成する。シミュレーション画像SIは、シミュレーション結果を、CG技術を用いて、あるカメラアングルから見た画像として再現したものである。モデル情報22には、例えば、群れモデル23、個体モデル24および異常行動モデル25などが規定されている。異常行動モデル25は、個体OBの異常行動を示すシミュレーションモデルである。シミュレーション部14は、これらのシミュレーションモデルに基づいて、群れFLKおよび個体OBのシミュレーション画像SIを生成する。
入力データ生成部11は、シミュレーションに必要なパラメータ情報を生成し、シミュレーション部14に出力する。入力データ生成部11は、シミュレーション部14を用いて、入力データTIDとなるシミュレーション画像SIをコンピュータグラフィックスにより生成する。
正解データ生成部12は、シミュレーションに用いたパラメータ情報に基づいてラベル情報を生成する。正解データ生成部12は、シミュレーション画像SIとラベル情報とを含む正解データTODを生成する。正解データ生成部12は、シミュレーションに用いられた個体OBの位置情報に基づいて、個体OBを識別する画像要素IEを生成することができる。この場合、正解データ生成部12は、シミュレーション画像SIに画像要素IEを付加した補正画像CSIを生成し、補正画像CSIにラベル情報を付加して正解データTODを生成する。
入力データ生成部11および正解データ生成部12によって多数のトレーニングデータが生成される。上述した入力データTIDおよび正解データTODをトレーニングデータとする機械学習に基づいて分析モデル21が生成される。分析モデル21は、例えば、個体OBの分類情報および位置情報を解析するためのDNN,群れFLKのパラメータ情報を解析するためのDNN、個体OBのパラメータ情報を解析するためのDNN、反射像MIRを除去するためのDNN、および、影SHを除去するためのDNNなどを含む。これらのDNNは、要求される機能に応じた適切な学習が行われる。機械学習の手法は様々であり、RNN(Recurrent Neural Network)、Deep Reinforcement LearningおよびTransformerなどを用いることができる。
画像解析部13は、分析モデル21を用いて撮影画像CIの画像解析を行う。画像解析部13は、画像解析によって撮影画像CIからラベル情報を抽出する。画像解析部13は、抽出されたラベル情報から必要なパラメータ情報を抽出する。
推定部15は、画像解析部13で抽出されたパラメータ情報をシミュレーション部14に出力する。推定部15は、シミュレーション部14を用いて、抽出されたパラメータ情報に基づくシミュレーション画像SIを生成する。推定部15は、シミュレーション画像SIと撮影画像CIとの差分を算出する。差分が予め設定された条件を満たさない場合には、推定部15は、パラメータ情報を補正してシミュレーション画像SIを生成する。推定部15は、差分が上記条件を満たすまでパラメータ情報の補正とシミュレーション画像SIの生成とを繰り返す。推定部15は、上記条件を満たすまで補正されたパラメータ情報に基づいて、必要な情報を推定する。
記憶装置20は、例えば、処理装置10が実行するプログラム29と、分析モデル21と、モデル情報22と、を記憶する。プログラム29は、本開示の情報処理をコンピュータに実行させるプログラムである。処理装置10は、記憶装置20に記憶されているプログラム29にしたがって各種の処理を行う。記憶装置20は、処理装置10の処理結果を一時的に記憶する作業領域として利用されてもよい。記憶装置20は、例えば、半導体記憶媒体および磁気記憶媒体などの任意の非一過的な記憶媒体を含む。記憶装置20は、例えば、光ディスク、光磁気ディスクまたはフラッシュメモリを含んで構成される。プログラム29は、例えば、コンピュータにより読み取り可能な非一過的な記憶媒体に記憶されている。
処理装置10は、例えば、プロセッサとメモリとで構成されるコンピュータである。処理装置10のメモリには、RAM(Random Access Memory)およびROM(Read Only Memory)が含まれる。処理装置10は、プログラム29を実行することにより、入力データ生成部11、正解データ生成部12、画像解析部13、シミュレーション部14および推定部15として機能する。
[7.個体数の推定処理]
図16は、群れFLKの個体数の推定処理の一例を示す図である。
分析モデル21は、DNNA、DNNB、DNNCおよびDNNDを有する。DNNAは、反射像MIRを除去するためのDNNである。DNNBは、影SHを除去するためのDNNである。DNNCは、個体OBの位置情報および分類情報を抽出するためのDNNである。DNNDは、群れFLKのパラメータ情報を抽出するためのDNNである。
DNNDのトレーニング用のシミュレーション画像SIは、群れモデル23を用いて生成された群れFLKのシミュレーション画像である。DNNDのトレーニングデータのラベル情報は、群れモデル23に適用される群れFLKのパラメータ情報に基づいて生成される。DNNDに群れFLKの撮影画像CIを入力すると、群れFLKのパラメータ情報が抽出される。DNNCは、撮影画像CIから、個々の個体OBの種類、位置および大きさなどの情報を抽出する。DNNAおよびDNNBは、撮影画像CIに含まれるノイズ成分(反射像MIR、影SH)を分離する。
画像解析部13は、分析モデル21を用いて、群れFLKの撮影画像CIからラベル情報を抽出する。画像解析部13は、抽出されたラベル情報に基づいて群れFLKのパラメータ情報を抽出する。推定部15は、群れFLKのパラメータ情報に基づいて、群れFLKに含まれる個体OBの数を推定する。
上述の推定ステップでは、まず、推定部15は、群れFLKのパラメータ情報、個体OBの種類、位置および大きさに関する情報に基づいて群れFLKのシミュレーション画像SIを生成する。推定部15は、群れFLKのシミュレーション画像SIと撮影画像CIとの差分diffが予め設定された条件を満たすまで群れFLKのパラメータ情報を補正する。差分diffは、撮影画像CIの特徴量とシミュレーション画像SIの特徴量との差に基づいて算出される。推定部15は、上記条件を満たすまで補正された群れFLKのパラメータ情報に基づいて個体OBの数を推定する。
推定ステップで生成されるシミュレーション画像SIには、個体OBの反射像MIRおよび影SHが含まれる。反射像MIRの数や影SHの濃さは、カメラの死角になる位置の群れFLKの情報を得るための手掛かりとなる可能性がある。よって、差分diffには、シミュレーション画像SIに含まれる反射像MIRおよび影SHと、撮影画像CIに含まれる反射像MIRおよび影SHと、の差分も含まれる。反射像MIRや影SHについての差分情報も考慮することで精度の高い個体数の推定が可能となる。
図16の例では、撮影画像CIおよびシミュレーション画像SIとして、非給餌時の画像が用いられている。しかし、撮影画像CIおよびシミュレーション画像SIは、給餌時の群れFLKの画像とすることもできる。捕食者モデルが適用される給餌時では、捕食者モデルが適用されない非給餌時に比べて、群れFLKの密度は低い。そのため、重なり合って見えない個体OBが少なくなる。よって、シミュレーション画像SIと撮影画像CIとの差分が精度よく検出されるようになり、個体数の推定精度も高まる。
なお、DNNCは個体OBの種類や大きさを検出する。そのため、情報処理装置1は、計数の対象となる種類やサイズを入力するための入力手段を備えてもよい。これにより、ユーザは特定の種類または特定の大きさの個体OBのみを計数することができる。
[8.個体のトラッキング]
図17は、個体のトラッキングの一例を示す図である。
分析モデル21は、DNNA、DNNB、DNNCおよびDNNEを有する。DNNEは、DNNCによって抽出された個々の個体OBの位置情報および分類情報に基づいて、個々の個体OBに画像要素IEを付加するDNNである。
画像解析部13は、分析モデル21に撮影画像CIを適用して、撮影画像CIに写る個々の個体OBに画像要素IEを付加する。図17の例では、画像要素IEとして、個体OBごとに異なる色要素が付されている。個体OBの色は、個体OBの大きさおよび形状などに応じて異なる。個体OBの大きさは、個体OBの位置情報から抽出される。個体OBの形状は、個体OBの分類情報(形態的特徴)から抽出される。画像解析部13は、個体OBに付された画像要素IEに基づいて、複数の個体OBを検出し、個々の個体OBを個別にトラッキングする。
[9.個体の識別および異常行動の認識]
図18は、個体の識別方法および異常行動の検出方法の一例を示す図である。
分析モデル21は、DNNA、DNNB、DNNCおよびDNNFを有する。DNNFは、個体OBのパラメータ情報を抽出するためのDNNである。
DNNFのトレーニング用のシミュレーション画像SIは、個体モデル24を用いて生成された個体OBのシミュレーション画像である。DNNFのトレーニングデータのラベル情報は、個体モデル24に適用される個体OBのパラメータ情報に基づいて生成される。DNNFに個体OBの撮影画像CIを入力すると、個体OBの形態的特徴(個体モデル24)に対応したパラメータ情報が抽出される。
画像解析部13は、分析モデル21を用いて、撮影画像CIから個々の個体OBのラベル情報を抽出する。画像解析部13は、個体OBごとに、個体OBのラベル情報に基づいて個体OBのパラメータ情報を抽出する。抽出される個体OBのパラメータ情報には、例えば、個体OBの筋骨格モデルに適用されるマッスルパラメータのパラメータ情報、および、個体モデル24に紐づけられた、個体OBの動作特徴量を示すパラメータ情報が含まれる。推定部15は、個々の個体OBのパラメータ情報に基づいて個々の個体OBを識別する。
上述の識別ステップでは、まず、推定部15は、個体OBのパラメータ情報に基づいて個体OBのシミュレーション画像SIを生成する。推定部15は、個体OBのシミュレーション画像と撮影画像CIとの差分が予め設定された条件を満たすまで個体OBのパラメータ情報を補正する。差分diffは、撮影画像CIの特徴量とシミュレーション画像SIの特徴量との差に基づいて算出される。推定部15は、上記条件を満たすまで補正された個体OBのパラメータ情報に基づいて個体OBを識別する。
個体OBの網膜パラメータを用いたシミュレーションによって異常行動を認識することができる。網膜パラメータは、例えば、個体OBから見た事象の発生方向と個体OBの移動方向との関係を示すパラメータである。例えば、個体OBの前方に餌が落ちてきたときに、個体OBが餌のある方向と全く関係ない方向に移動した場合には、個体OBに異常があると推定することができる。また、内臓疾患のあるチョウザメは、餌に興味を示さずに、水面近くを不自然に漂うような異常行動をとる場合ある。そのような場合に、撮影画像CIを異常行動モデル25に当てはめて網膜パラメータを抽出し、網膜パラメータを予め設定された基準値と比較することで、個体OBの異常を検出することができる。
異常行動の検出は、餌のやりすぎによる体調不良の検出にも役立つ。そのため、異常行動の検出結果に基づいて、給餌量の調整または最適化を図ることもできる。
[10.情報処理方法]
図19は、本開示の情報処理方法の一例を示すフローチャートである。
ステップS1において、入力データ生成部11は、CGによって入力データTIDとなるシミュレーション画像SIを生成する。
ステップS2において、正解データ生成部12は、シミュレーションに用いたパラメータ情報に基づいてラベル情報を生成する。
ステップS3において、正解データ生成部12は、シミュレーション画像SIとラベル情報とを含む正解データTODを生成する。
ステップS4において、処理装置10は、入力データTIDおよび正解データTODをトレーニングデータとする機械学習に基づいて分析モデル21を生成する。
ステップS5において、画像解析部13は、分析モデル21を用いて、撮影画像CIからラベル情報を抽出する。
ステップS6において、画像解析部13は、抽出されたラベル情報から、必要なパラメータ情報を抽出する。
ステップS7において、画像解析部13で抽出されたパラメータ情報をシミュレーション部14に出力する。推定部15は、シミュレーション部14を用いて、抽出されたパラメータ情報に基づくシミュレーション画像SIを生成する。
ステップS8において、推定部15は、シミュレーション画像SIと撮影画像CIとの差分を算出し、差分が予め設定された条件を満たさない場合には、パラメータ情報を補正してシミュレーション画像SIを生成する。推定部15は、差分が上記条件を満たすまでパラメータ情報の補正とシミュレーション画像SIの生成とを繰り返す。
ステップS9において、推定部15は、上記条件を満たすまで補正されたパラメータ情報に基づいて、必要な情報を推定する。
[11.ハードウェア構成]
図20は、情報処理装置1のハードウェア構成の一例を示す図である。
情報処理装置1は、例えば、図20に示すようなコンピュータシステム1000によって実現される。コンピュータシステム1000は、CPU1100、RAM1200、ROM1300、HDD1400、通信インターフェイス(I/F)1500、入出力インターフェイス(I/F)1600、及びメディアインターフェイス(I/F)1700を有する。
CPU1100は、ROM1300又はHDD1400に格納されたプログラムに基づいて動作し、各部の制御を行う。ROM1300は、コンピュータシステム1000の起動時にCPU1100によって実行されるブートプログラムや、コンピュータシステム1000のハードウェアに依存するプログラム等を格納する。
HDD1400は、CPU1100によって実行されるプログラム、および、係るプログラムによって使用されるデータ等を格納する。通信インターフェイス1500は、通信網NWを介して他の機器からデータを受信してCPU1100へ送り、CPU1100が生成したデータを、通信網NWを介して他の機器へ送信する。
CPU1100は、入出力インターフェイス1600を介して、ディスプレイやプリンタ等の出力装置、及び、キーボードやマウス等の入力装置を制御する。CPU1100は、入出力インターフェイス1600を介して、入力装置からデータを取得する。また、CPU1100は、生成したデータを、入出力インターフェイス1600を介して出力装置へ出力する。
メディアインターフェイス1700は、記録媒体1800に格納されたプログラム又はデータを読み取り、RAM1200を介してCPU1100に提供する。CPU1100は、係るプログラムを、メディアインターフェイス1700を介して記録媒体1800からRAM1200上にロードし、ロードしたプログラムを実行する。記録媒体1800は、例えばDVD(Digital Versatile Disc)、PD(Phase change rewritable Disk)等の光学記録媒体、MO(Magneto-Optical disk)等の光磁気記録媒体、テープ媒体、磁気記録媒体、または半導体メモリ等である。
例えば、コンピュータシステム1000が本開示の情報処理装置1として機能する場合、コンピュータシステム1000のCPU1100は、RAM1200上にロードされたプログラムを実行することにより、処理装置10の機能を実現する。HDD1400には、記憶装置20内のデータが格納される。コンピュータシステム1000のCPU1100は、これらのプログラムを、記録媒体1800から読み取って実行するが、他の例として、他の装置から、通信網NWを介してこれらのプログラムを取得してもよい。
[12.効果]
上述したように、本開示の情報処理方法は、入力データ生成ステップと正解データ生成ステップとを有する。入力データ生成ステップは、入力データTIDとなるシミュレーション画像SIをコンピュータグラフィックスにより生成する。正解データ生成ステップは、シミュレーションに用いたパラメータ情報に基づいてラベル情報を生成し、シミュレーション画像とラベル情報とを含む正解データTODを生成する。本開示のプログラム29は、上述の情報処理をコンピュータに実現させる。本開示の情報処理装置1は、上述の情報処理を実施する。
この構成によれば、シミュレーションに用いたパラメータ情報に基づいて正解データTODのラベル情報が生成される。そのため、ラベル情報の精度が高い。よって、精度のよいトレーニングデータが容易に生成される。
本開示の情報処理方法は、分析モデル生成ステップを有する。分析モデル生成ステップは、入力データTIDおよび正解データTODをトレーニングデータとする機械学習に基づいて分析モデル21を生成する。
この構成によれば、入力データTIDの生成に用いたCGの座標情報などは、ラベル情報に反映される。そのため、トレーニングによって得られた分析モデル21によって、撮影画像CIに写る個体OBの位置、形状および大きさ、および、群れFLKのパラメータ情報などが精度よく抽出される。
本開示の情報処理方法は、ラベル情報抽出ステップと、パラメータ情報抽出ステップと、シミュレーション画像生成ステップと、パラメータ情報補正ステップと、推定ステップと、を有する。ラベル情報抽出ステップは、分析モデル21を用いて撮影画像CIからラベル情報を抽出する。パラメータ情報抽出ステップは、ラベル情報に基づいてパラメータ情報を抽出する。シミュレーション画像生成ステップは、パラメータ情報に基づいてシミュレーション画像SIを生成する。パラメータ情報補正ステップは、シミュレーション画像と撮影画像CIとの差分が予め設定された条件を満たすまでパラメータ情報を補正する。推定ステップは、上記条件を満たすまで補正されたパラメータ情報に基づいて情報を推定する。
この構成によれば、分析モデル21を用いて抽出されたパラメータ情報は、シミュレーション画像SIと撮影画像CIとの差分の情報に基づいて補正される。そのため、実データ(撮影画像CI)と良好に整合するパラメータ情報が得られる。そして、補正されたパラメータ情報に基づいて必要な情報が推定されるため、情報の推定精度が高まる。
シミュレーション画像SIは、群れFLKの統計的性質に基づく群れモデル23を用いて生成された群れFLKのシミュレーション画像である。ラベル情報は、群れモデル23に適用される群れFLKのパラメータ情報に基づいて生成される。
この構成によれば、群れFLKの撮影画像CIから群れFLKのパラメータ情報が精度よく抽出される。
本開示の情報処理方法は、ラベル情報抽出ステップと、パラメータ情報抽出ステップと、推定ステップと、を有する。ラベル情報抽出ステップは、分析モデル21を用いて、群れFLKの撮影画像CIからラベル情報を抽出する。パラメータ情報抽出ステップは、抽出されたラベル情報に基づいて群れFLKのパラメータ情報を抽出する。推定ステップは、群れFLKのパラメータ情報に基づいて、群れFLKに含まれる個体OBの数を推定する。
この構成によれば、群れFLKの個体数が精度よく推定される。
推定ステップは、シミュレーション画像生成ステップと、パラメータ情報補正ステップと、固定数推定ステップと、を有する。シミュレーション画像生成ステップは、群れFLKのパラメータ情報に基づいて群れFLKのシミュレーション画像SIを生成する。パラメータ情報補正ステップは、群れFLKのシミュレーション画像SI撮影画像CIとの差分が予め設定された条件を満たすまで群れFLKのパラメータ情報を補正する。固定数推定ステップは、上記条件を満たすまで補正された群れFLKのパラメータ情報に基づいて個体OBの数を推定する。
この構成によれば、分析モデル21を用いて抽出されたパラメータ情報は、シミュレーション画像SIと撮影画像CIとの差分の情報に基づいて補正される。そのため、実データ(撮影画像CI)と良好に整合するパラメータ情報が得られる。そして、補正されたパラメータ情報に基づいて個体数が推定されるため、個体数が精度よく推定される。
群れFLKのシミュレーション画像SIは給餌時の群れFLKのシミュレーション画像である。
この構成によれば、捕食者モデルが適用される給餌時では、捕食者モデルが適用されない非給餌時に比べて、群れFLKの密度は低い。そのため、重なり合って見えない個体OBが少なくなる。よって、シミュレーション画像SIと撮影画像CIとの差分が精度よく検出されるようになり、個体数の推定精度も高まる。
シミュレーション画像SIは、個体OBの形態的特徴に基づく個体モデル24を用いて生成された個体OBのシミュレーション画像である。ラベル情報は、個体モデル24に適用される個体OBのパラメータ情報に基づいて生成される。
この構成によれば、個体OBの撮影画像CIから個体OBのパラメータ情報が精度よく抽出される。
本開示の情報処理方法は、ラベル情報抽出ステップと、パラメータ情報抽出ステップと、個体識別ステップと、を有する。ラベル情報抽出ステップは、分析モデル21を用いて、撮影画像CIから個々の個体OBのラベル情報を抽出する。パラメータ情報抽出ステップは、個体OBごとに、個体OBのラベル情報に基づいて個体OBのパラメータ情報を抽出する。個体識別ステップは、個々の個体OBのパラメータ情報に基づいて個々の個体OBを識別する。
この構成によれば、個体OBが精度よく識別される。
識別ステップは、シミュレーション画像生成ステップと、パラメータ情報補正ステップと、個体識別ステップと、を有する。シミュレーション画像生成ステップは、個体OBのパラメータ情報に基づいて個体OBのシミュレーション画像SIを生成する。パラメータ情報補正ステップは、個体OBのシミュレーション画像SIと撮影画像CIとの差分が予め設定された条件を満たすまで個体OBのパラメータ情報を補正する。個体識別ステップは、上記条件を満たすまで補正された個体OBのパラメータ情報に基づいて個体OBを識別する。
この構成によれば、分析モデル21を用いて抽出されたパラメータ情報は、シミュレーション画像SIと撮影画像CIとの差分の情報に基づいて補正される。そのため、実データ(撮影画像CI)と良好に整合するパラメータ情報が得られる。そして、補正されたパラメータ情報に基づいて個体OBが識別されるため、個体OBの識別精度が高い。
個体OBのパラメータ情報は、個体OBの筋骨格モデルに適用されるマッスルパラメータのパラメータ情報、および、個体OBの動作特徴量を示すパラメータ情報を含む。
この構成によれば、個体OBの識別が個体OBの形態的特徴および動作の特徴の双方に基づいて精度よく行われる。
本開示の情報処理方法は、異常検出ステップを有する。異常検出ステップは、個体OBの撮影画像CIを異常行動モデル25に当てはめて個体OBの異常を検出する。
この構成によれば、識別された個体OBの健康状態を把握することができる。
正解データ生成ステップは、画像要素生成ステップと、補正画像生成ステップと、データ生成ステップと、を有する。画像要素生成ステップは、シミュレーションに用いられた個体OBの位置情報に基づいて、個体OBを識別するための画像要素IEを生成する。補正画像生成ステップは、シミュレーション画像SIに画像要素IEを付加した補正画像CSIを生成する。データ生成ステップは、補正画像CSIにラベル情報を付加して正解データTODを生成する。
この構成によれば、シミュレーション画像SIの適切な位置に精度よく画像要素IEが付加される。また、画像要素IEの付加作業が自動化されるため、正解データTODの生成作業が容易になる。
画像要素は、個体OBを囲むフレーム要素、または、個体OBを色で識別するための色要素を含む。
この構成によれば、個体OBが他の画像領域から明確に区別される。
本開示の情報処理方法は、画像要素付加ステップと、トラッキングステップと、を有する。画像要素付加ステップは、分析モデル21に撮影画像CIを適用して、撮影画像CIに写る個々の個体OBに画像要素IEを付加する。トラッキングステップは、各個体OBに付された画像要素IEに基づいて個々の個体OBを個別にトラッキングする。
この構成によれば、画像要素IEを手掛かりとしてトラッキングを行いやすくなる。
[13.その他]
図示した各装置の各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各装置の分散・統合の具体的形態は図示のものに限られず、その全部または一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散・統合して構成することができる。
以上、本願の実施形態をいくつかの図面に基づいて詳細に説明したが、これらは例示であり、発明の開示の欄に記載の態様を始めとして、当業者の知識に基づいて種々の変形、改良を施した他の形態で本発明を実施することが可能である。
上記実施形態では、CGを用いたトレーニングデータの生成手法を説明したが、この手法は、上述した例に限らず、ありとあらゆるコンピュータビジョンの認識率の向上に寄与する。CGを用いた精巧な筋骨格シミュレーションの手法は、チョウザメに限らず、人および馬などにも適用できる。これにより、AI(Artificial Intelligence)を用いた上記手法を様々な分野へ広く適用することができる。
1 情報処理装置
21 分析モデル
23 群れモデル
24 個体モデル
25 異常行動モデル
29 プログラム
CI 撮影画像
CSI 補正画像
FLK 群れ
IE 画像要素
OB 個体
SI シミュレーション画像
TID 入力データ
TOD 正解データ

Claims (15)

  1. 入力データとなるシミュレーション画像をコンピュータグラフィックスにより生成し、
    シミュレーションに用いたパラメータ情報に基づいてラベル情報を生成し、
    前記シミュレーション画像と前記ラベル情報とを含む正解データを生成
    前記入力データおよび前記正解データをトレーニングデータとする機械学習に基づいて分析モデルを生成し、
    前記分析モデルを用いて撮影画像から前記ラベル情報を抽出し、
    前記ラベル情報に基づいて前記パラメータ情報を抽出し、
    前記パラメータ情報に基づいて前記シミュレーション画像を生成し、
    前記シミュレーション画像と前記撮影画像との差分が予め設定された条件を満たすまで前記パラメータ情報を補正し、
    前記条件を満たすまで補正された前記パラメータ情報に基づいて情報を推定する、
    ことを有する、コンピュータに実行される情報処理方法。
  2. 前記シミュレーション画像は、群れの統計的性質に基づく群れモデルを用いて生成された前記群れのシミュレーション画像であり、
    前記ラベル情報は、前記群れモデルに適用される前記群れのパラメータ情報に基づいて生成される、
    請求項に記載の情報処理方法。
  3. 前記分析モデルを用いて、前記群れの撮影画像から前記ラベル情報を抽出し、
    前記ラベル情報に基づいて前記群れのパラメータ情報を抽出し、
    前記群れのパラメータ情報に基づいて、前記群れに含まれる個体の数を推定する、
    ことを有する、請求項に記載の情報処理方法。
  4. 前記推定ステップは、
    前記群れのパラメータ情報に基づいて前記群れのシミュレーション画像を生成し、
    前記群れのシミュレーション画像と前記撮影画像との差分が予め設定された条件を満たすまで前記群れのパラメータ情報を補正し、
    前記条件を満たすまで補正された前記群れのパラメータ情報に基づいて前記個体の数を推定する、
    ことを有する、請求項に記載の情報処理方法。
  5. 前記群れのシミュレーション画像は給餌時の前記群れのシミュレーション画像である、
    請求項またはに記載の情報処理方法。
  6. 前記シミュレーション画像は、個体の形態的特徴に基づく個体モデルを用いて生成された前記個体のシミュレーション画像であり、
    前記ラベル情報は、前記個体モデルに適用される前記個体のパラメータ情報に基づいて生成される、
    請求項に記載の情報処理方法。
  7. 前記分析モデルを用いて、撮影画像から個々の前記個体のラベル情報を抽出し、
    個体ごとに、前記個体のラベル情報に基づいて前記個体のパラメータ情報を抽出し、
    個々の前記個体のパラメータ情報に基づいて個々の前記個体を識別する、
    ことを有する、請求項に記載の情報処理方法。
  8. 前記識別ステップは、
    前記個体のパラメータ情報に基づいて前記個体のシミュレーション画像を生成し、
    前記個体のシミュレーション画像と前記撮影画像との差分が予め設定された条件を満たすまで前記個体のパラメータ情報を補正し、
    前記条件を満たすまで補正された前記個体のパラメータ情報に基づいて前記個体を識別する、
    ことを有する、請求項に記載の情報処理方法。
  9. 前記個体のパラメータ情報は、前記個体の筋骨格モデルに適用されるマッスルパラメータのパラメータ情報、および、前記個体の動作特徴量を示すパラメータ情報を含む、
    請求項に記載の情報処理方法。
  10. 前記個体の撮影画像を異常行動モデルに当てはめて前記個体の異常を検出する、
    ことを有する請求項ないしのいずれか1項に記載の情報処理方法。
  11. 前記正解データの生成ステップは、
    前記シミュレーションに用いられた前記個体の位置情報に基づいて、前記個体を識別するための画像要素を生成し、
    前記シミュレーション画像に前記画像要素を付加した補正画像を生成し、
    前記補正画像に前記ラベル情報を付加して前記正解データを生成する、
    ことを有する、請求項ないし10のいずれか1項に記載の情報処理方法。
  12. 前記画像要素は、前記個体を囲むフレーム要素、または、前記個体を色で識別するための色要素を含む、
    請求項11に記載の情報処理方法。
  13. 前記分析モデルに撮影画像を適用して、前記撮影画像に写る個々の前記個体に前記画像要素を付加し、
    各個体に付された前記画像要素に基づいて個々の前記個体を個別にトラッキングする、
    ことを有する、請求項11または12に記載の情報処理方法。
  14. 入力データとなるシミュレーション画像をコンピュータグラフィックスにより生成し、
    シミュレーションに用いたパラメータ情報に基づいてラベル情報を生成し、
    前記シミュレーション画像と前記ラベル情報とを含む正解データを生成
    前記入力データおよび前記正解データをトレーニングデータとする機械学習に基づいて分析モデルを生成し、
    前記分析モデルを用いて撮影画像から前記ラベル情報を抽出し、
    前記ラベル情報に基づいて前記パラメータ情報を抽出し、
    前記パラメータ情報に基づいて前記シミュレーション画像を生成し、
    前記シミュレーション画像と前記撮影画像との差分が予め設定された条件を満たすまで前記パラメータ情報を補正し、
    前記条件を満たすまで補正された前記パラメータ情報に基づいて情報を推定する、
    ことをコンピュータに実現させるプログラム。
  15. 入力データとなるシミュレーション画像をコンピュータグラフィックスにより生成する入力データ生成部と、
    シミュレーションに用いたパラメータ情報に基づいてラベル情報を生成し、前記シミュレーション画像と前記ラベル情報とを含む正解データを生成する正解データ生成部と、
    前記入力データおよび前記正解データをトレーニングデータとする機械学習に基づいて生成された分析モデルを用いて撮影画像から前記ラベル情報を抽出し、前記ラベル情報に基づいて前記パラメータ情報を抽出する画像解析部と、
    前記パラメータ情報に基づいて前記シミュレーション画像を生成し、前記シミュレーション画像と前記撮影画像との差分が予め設定された条件を満たすまで前記パラメータ情報を補正し、前記条件を満たすまで補正された前記パラメータ情報に基づいて情報を推定する推定部と、
    を有する情報処理装置。
JP2020162573A 2020-09-28 2020-09-28 情報処理方法、プログラムおよび情報処理装置 Active JP7121781B2 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2020162573A JP7121781B2 (ja) 2020-09-28 2020-09-28 情報処理方法、プログラムおよび情報処理装置
PCT/JP2021/032773 WO2022065020A1 (ja) 2020-09-28 2021-09-07 情報処理方法、プログラムおよび情報処理装置
CN202180061884.XA CN116157835A (zh) 2020-09-28 2021-09-07 信息处理方法、程序以及信息处理装置
EP21872151.2A EP4220549A4 (en) 2020-09-28 2021-09-07 INFORMATION PROCESSING METHOD, PROGRAM AND INFORMATION PROCESSING DEVICE
JP2022125232A JP7265672B2 (ja) 2020-09-28 2022-08-05 情報処理方法、プログラムおよび情報処理装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020162573A JP7121781B2 (ja) 2020-09-28 2020-09-28 情報処理方法、プログラムおよび情報処理装置

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2022125232A Division JP7265672B2 (ja) 2020-09-28 2022-08-05 情報処理方法、プログラムおよび情報処理装置

Publications (2)

Publication Number Publication Date
JP2022055140A JP2022055140A (ja) 2022-04-07
JP7121781B2 true JP7121781B2 (ja) 2022-08-18

Family

ID=80845179

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020162573A Active JP7121781B2 (ja) 2020-09-28 2020-09-28 情報処理方法、プログラムおよび情報処理装置

Country Status (4)

Country Link
EP (1) EP4220549A4 (ja)
JP (1) JP7121781B2 (ja)
CN (1) CN116157835A (ja)
WO (1) WO2022065020A1 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20240037917A1 (en) * 2022-07-28 2024-02-01 Softbank Corp. Information processing method, non-transitory computer-readable storage medium, and information processing device
JP7470175B1 (ja) 2022-12-22 2024-04-17 ソフトバンク株式会社 情報処理プログラム、情報処理装置および情報処理方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003208561A (ja) 2002-01-15 2003-07-25 Digial Media Factory Inc 行動シミュレーションシステム、シミュレート方法及びプログラム
JP2015528614A (ja) 2012-09-12 2015-09-28 アビギロン フォートレス コーポレイションAvigilon Fortress Corporation ビデオ内の対象物を検出するための方法、装置及びシステム
WO2017122258A1 (ja) 2016-01-12 2017-07-20 株式会社日立国際電気 混雑状況監視システム
WO2020105146A1 (ja) 2018-11-21 2020-05-28 日本電気株式会社 情報処理装置、制御方法、及びプログラム

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019045091A1 (ja) 2017-09-04 2019-03-07 日本電気株式会社 情報処理装置、計数システム、計数方法およびプログラム記憶媒体

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003208561A (ja) 2002-01-15 2003-07-25 Digial Media Factory Inc 行動シミュレーションシステム、シミュレート方法及びプログラム
JP2015528614A (ja) 2012-09-12 2015-09-28 アビギロン フォートレス コーポレイションAvigilon Fortress Corporation ビデオ内の対象物を検出するための方法、装置及びシステム
WO2017122258A1 (ja) 2016-01-12 2017-07-20 株式会社日立国際電気 混雑状況監視システム
WO2020105146A1 (ja) 2018-11-21 2020-05-28 日本電気株式会社 情報処理装置、制御方法、及びプログラム

Also Published As

Publication number Publication date
JP2022055140A (ja) 2022-04-07
EP4220549A1 (en) 2023-08-02
WO2022065020A1 (ja) 2022-03-31
CN116157835A (zh) 2023-05-23
EP4220549A4 (en) 2024-10-09

Similar Documents

Publication Publication Date Title
US11594058B2 (en) Entity identification using machine learning
Wang et al. ASAS-NANP SYMPOSIUM: Applications of machine learning for livestock body weight prediction from digital images
WO2022065020A1 (ja) 情報処理方法、プログラムおよび情報処理装置
Wongsriworaphon et al. An approach based on digital image analysis to estimate the live weights of pigs in farm environments
Pinkiewicz et al. A computer vision system to analyse the swimming behaviour of farmed fish in commercial aquaculture facilities: a case study using cage-held Atlantic salmon
Gjergji et al. Deep learning techniques for beef cattle body weight prediction
CN109068613B (zh) 健康状态推定装置
JP2024091683A (ja) 水産養殖における分析及び選別
JP7265672B2 (ja) 情報処理方法、プログラムおよび情報処理装置
Shortis et al. Progress in the automated identification, measurement, and counting of fish in underwater image sequences
Lantsova et al. Using low-quality video sequences for fish detection and tracking
JP7481550B2 (ja) 体重推定装置、体重推定方法及びプログラム
Lu et al. Extracting body surface dimensions from top-view images of pigs
Amraei et al. Development of a transfer function for weight prediction of live broiler chicken using machine vision
Zhang et al. Fully automatic system for fish biomass estimation based on deep neural network
Fang et al. MCP: Multi-Chicken Pose Estimation Based on Transfer Learning
Barry et al. Virtual photography using multi-objective particle swarm optimization
Lapico et al. Using image processing to automatically measure pearl oyster size for selective breeding
US20230048582A1 (en) Non-transitory computer readable storage, estimation method, and information processing device
EP4305958A1 (en) Information processing program, information processing method, and information processing device
WO2022154050A1 (ja) 情報処理プログラム及び情報処理装置
Pistocchi et al. Kernelized Structural Classification for 3D dogs body parts detection
Zin et al. Body condition score assessment of depth image using artificial neural network
Mazhar et al. Precision Pig Farming Image Analysis Using Random Forest and Boruta Predictive Big Data Analysis Using Neural Network and K-Nearest Neighbor
Wongsriworaphon et al. Image analysis for pig recognition based on size and weight

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210218

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211124

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220114

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220607

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20220701

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220805

R150 Certificate of patent or registration of utility model

Ref document number: 7121781

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150