JP7265672B2 - Information processing method, program and information processing device - Google Patents

Information processing method, program and information processing device Download PDF

Info

Publication number
JP7265672B2
JP7265672B2 JP2022125232A JP2022125232A JP7265672B2 JP 7265672 B2 JP7265672 B2 JP 7265672B2 JP 2022125232 A JP2022125232 A JP 2022125232A JP 2022125232 A JP2022125232 A JP 2022125232A JP 7265672 B2 JP7265672 B2 JP 7265672B2
Authority
JP
Japan
Prior art keywords
image
fish
simulation
school
parameter information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2022125232A
Other languages
Japanese (ja)
Other versions
JP2022140776A (en
Inventor
裕子 石若
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
SoftBank Corp
Original Assignee
SoftBank Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from JP2020162573A external-priority patent/JP7121781B2/en
Application filed by SoftBank Corp filed Critical SoftBank Corp
Priority to JP2022125232A priority Critical patent/JP7265672B2/en
Publication of JP2022140776A publication Critical patent/JP2022140776A/en
Application granted granted Critical
Publication of JP7265672B2 publication Critical patent/JP7265672B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02ATECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE
    • Y02A40/00Adaptation technologies in agriculture, forestry, livestock or agroalimentary production
    • Y02A40/80Adaptation technologies in agriculture, forestry, livestock or agroalimentary production in fisheries management
    • Y02A40/81Aquaculture, e.g. of fish

Description

本発明は、情報処理方法、プログラムおよび情報処理装置に関する。 The present invention relates to an information processing method, a program, and an information processing apparatus.

ディープラーニングはコンピュータビジョンや音声認識の分野で素晴らしい結果を出している。例えば、養殖場では尾数の自動カウントが課題となっているが、ディープラーニングの手法を用いれば、このような問題が改善されると期待される。 Deep learning has produced impressive results in the areas of computer vision and speech recognition. For example, in aquaculture farms, automatic counting of the number of fish is a problem, but it is expected that such a problem can be improved by using a deep learning method.

国際公開第2019/045091号WO2019/045091

ディープラーニングによる解析の精度はトレーニングデータに依存する。しかし、正確なトレーニングデータを作成することは容易ではない。また、魚の群れなどを対象とする場合には、重なり合って見えない個体が多数存在するため、ディープラーニングのみでは必要な情報を精度よく推定することは難しい。 The accuracy of deep learning analysis depends on the training data. However, creating accurate training data is not easy. In addition, when targeting a school of fish, etc., there are many individuals that overlap and cannot be seen, so it is difficult to accurately estimate the necessary information using only deep learning.

そこで、本開示の目的の一つは、精度のよいトレーニングデータを容易に生成することが可能な情報処理方法、プログラムおよび情報処理装置を提案することにある。また、本開示の目的の一つは、実データに含まれる情報を精度よく推定することが可能な情報処理方法、プログラムおよび情報処理装置を提案することにある。 Accordingly, one object of the present disclosure is to propose an information processing method, a program, and an information processing apparatus that can easily generate accurate training data. Another object of the present disclosure is to propose an information processing method, a program, and an information processing apparatus capable of accurately estimating information included in actual data.

本開示の一側面によれば、入力データとなるシミュレーション画像をコンピュータグラフィックスにより生成し、シミュレーションに用いたパラメータ情報に基づいてラベル情報を生成し、前記シミュレーション画像と前記ラベル情報とを含む正解データを生成する、ことを有する、コンピュータに実行される情報処理方法が提供される。また、本開示によれば、前記情報処理方法をコンピュータに実行させるプログラム、および、上記情報処理方法を実行する情報処理装置が提供される。 According to one aspect of the present disclosure, a simulation image as input data is generated by computer graphics, label information is generated based on parameter information used in the simulation, and correct data including the simulation image and the label information is generated. A computer-implemented information processing method is provided comprising: generating a Further, according to the present disclosure, there are provided a program that causes a computer to execute the information processing method, and an information processing apparatus that executes the information processing method.

本開示によれば、精度のよいトレーニングデータが容易に生成される。 According to the present disclosure, accurate training data is easily generated.

図1は、情報処理の概要を説明する図である。FIG. 1 is a diagram for explaining an outline of information processing. 図2は、画像要素のバリエーションを示す図である。FIG. 2 is a diagram showing variations of image elements. 図3は、画像要素のバリエーションを示す図である。FIG. 3 is a diagram showing variations of image elements. 図4は、画像要素のバリエーションを示す図である。FIG. 4 is a diagram showing variations of image elements. 図5は、反射像に起因するノイズを除去する機械学習を説明する図である。FIG. 5 is a diagram explaining machine learning for removing noise caused by a reflected image. 図6は、影に起因するノイズを除去する機械学習を説明する図である。FIG. 6 is a diagram illustrating machine learning for removing noise caused by shadows. 図7は、群れモデル23の一例を示す図である。FIG. 7 is a diagram showing an example of the flock model 23. As shown in FIG. 図8は、非給餌時の群れのシミュレーション画像である。FIG. 8 is a simulation image of a flock without feeding. 図9は、給餌時の群れのシミュレーション画像である。FIG. 9 is a simulation image of a flock during feeding. 図10は、非給餌時の群れの撮影画像である。FIG. 10 is a photographed image of a flock during non-feeding. 図11は、給餌時の群れの撮影画像である。FIG. 11 is a photographed image of a flock during feeding. 図12は、個体モデルの一例を示す図である。FIG. 12 is a diagram showing an example of an individual model. 図13は、個体の動作シミュレーションを示す図である。FIG. 13 is a diagram showing a motion simulation of an individual. 図14は、生け簀で飼育されるチョウザメを示す図である。FIG. 14 is a diagram showing a sturgeon reared in a cage. 図15は、情報処理装置の一例を示す図である。FIG. 15 is a diagram illustrating an example of an information processing apparatus; 図16は、群れの個体数の推定処理の一例を示す図である。FIG. 16 is a diagram illustrating an example of the process of estimating the number of individuals in a herd. 図17は、個体のトラッキングの一例を示す図である。FIG. 17 is a diagram showing an example of individual tracking. 図18は、個体の識別方法および異常行動の検出方法の一例を示す図である。FIG. 18 is a diagram showing an example of an individual identification method and an abnormal behavior detection method. 図19は、情報処理方法の一例を示すフローチャートである。FIG. 19 is a flow chart showing an example of an information processing method. 図20は、情報処理装置のハードウェア構成の一例を示す図である。FIG. 20 is a diagram illustrating an example of a hardware configuration of an information processing apparatus;

以下に、本開示の実施形態について図面に基づいて詳細に説明する。以下の各実施形態において、同一の部位には同一の符号を付することにより重複する説明を省略する。 Embodiments of the present disclosure will be described in detail below with reference to the drawings. In each of the following embodiments, the same parts are denoted by the same reference numerals, and overlapping descriptions are omitted.

[1.情報処理の概要]
図1は、本開示の情報処理の概要を説明する図である。
[1. Overview of information processing]
FIG. 1 is a diagram illustrating an overview of information processing according to the present disclosure.

本開示は、CG(Computer Graphics)を用いた新規なトレーニングデータの生成手法、および、CG画像と実データ(撮影画像)との差を埋めるData Drivenの手法を提案するものである。トレーニングデータをCG画像で生成することで、精度のよいトレーニングデータを大量に生成することができる。また、実データに近似したCG画像を生成することで、必要な情報をCGのパラメータに基づいて精度よく推定することができる。以下、本開示の詳細を説明する。 The present disclosure proposes a new method of generating training data using CG (Computer Graphics) and a Data Driven method that fills in the gap between CG images and actual data (captured images). By generating training data from CG images, it is possible to generate a large amount of highly accurate training data. Further, by generating a CG image that approximates actual data, necessary information can be accurately estimated based on CG parameters. Details of the present disclosure are described below.

本開示では、ターゲットTGの撮影画像CIに基づいて、画像分析の手法により、ターゲットTGの分析が行われる。本開示の情報処理の手法は、水産業、農業、林業および工業などの広範な分野に適用可能である。分析対象は、技術分野および分析の目的などに応じて適切に設定される。例えば、水産業の分野では、養殖魚の尾数、生育状況、補食動作および異常行動などが分析対象となる。農業分野では、農作物の生育状況および収穫数などが分析対象となる。林業の分野では、樹木の生育状況および木材量などが分析対象となる。工業の分野では、製品の数量、不良品の有無などが分析対象となる。 In the present disclosure, the target TG is analyzed by an image analysis method based on the captured image CI of the target TG. The information processing techniques of the present disclosure are applicable to a wide range of fields such as fisheries, agriculture, forestry and industry. The subject of analysis is appropriately set according to the technical field, purpose of analysis, and the like. For example, in the fisheries industry, the number of farmed fish, growth conditions, feeding behavior, abnormal behavior, and the like are subject to analysis. In the field of agriculture, the growth conditions and harvest numbers of crops are analyzed. In the field of forestry, the growth status of trees, the amount of wood, and the like are analyzed. In the field of industry, the quantity of products, the presence or absence of defective products, etc. are subject to analysis.

以下では、本開示の情報処理の手法が養殖魚のトラッキング、異常行動検出および尾数カウントなどに適用される例を説明する。 Examples in which the information processing method of the present disclosure is applied to farmed fish tracking, abnormal behavior detection, fish number counting, and the like will be described below.

[2.トレーニングデータの生成]
本開示では、コンピュータシミュレーションを用いて、群れFLKおよび個体OBの3次元CG画像が生成される。生成されたCG画像は、ディープラーニングのトレーニングデータとして用いられる。
[2. Generate training data]
In the present disclosure, computer simulation is used to generate three-dimensional CG images of a flock FLK and an individual OB. The generated CG images are used as training data for deep learning.

トレーニングデータは、多数のデータセットを含む。各データセットは、入力データTIDと正解データTODとを含む。本開示では、入力データTIDとなるシミュレーション画像SIがコンピュータグラフィックスにより生成される。正解データTODは、入力データTIDにラベル情報を付加して生成される。ラベル情報は、正解(Ground Truth)を示す情報である。ラベル情報は、シミュレーションに用いたパラメータ情報に基づいて自動的に生成される。 Training data includes multiple datasets. Each data set includes input data TID and correct answer data TOD. In the present disclosure, a simulation image SI as input data TID is generated by computer graphics. The correct data TOD is generated by adding label information to the input data TID. The label information is information indicating the correct answer (Ground Truth). Label information is automatically generated based on parameter information used in the simulation.

シミュレーショの対象は学習の目的に応じて決定される。例えば、養殖魚の尾数をカウントする場合には、群れFLKのシミュレーションが行われる。養殖魚を個別にトラッキングする場合には、個体OBのシミュレーションが行われる。 The object of simulation is determined according to the purpose of learning. For example, when counting the number of farmed fish, a flock FLK simulation is performed. Individual OB simulations are performed when individual farmed fish are tracked.

図1の例は、養殖魚のトラッキングを目的として、個体OBのシミュレーション画像SIが生成される例である。ラベル情報は、個体OBを分類するための分類情報と、個体OBの位置情報と、を含む。分類情報は、例えば、個体OBの種類(魚種など)および形態的特徴(ヒレの変形、欠損、体の色、模様など)などの情報を含む。位置情報は、例えば、個体OBの中心位置および個体OBの存在範囲を示す情報を含む。位置情報は、例えば、3次元座標情報を用いて生成される。図1の例では、個体OBの中心の座標(b、b、b)、および、個体OBを内包する最小限の大きさの直方体(boundary cube)の奥行b、幅bおよび高さbに関する情報が位置情報として示されている。個体OBの位置情報(存在範囲を示す情報)に基づいて、個体OBの大きさの情報が抽出される。 The example in FIG. 1 is an example in which a simulation image SI of an individual OB is generated for the purpose of tracking farmed fish. The label information includes classification information for classifying the individual OB and position information of the individual OB. The classification information includes, for example, information such as the type of individual OB (fish species, etc.) and morphological characteristics (fin deformation, loss, body color, pattern, etc.). The position information includes, for example, information indicating the center position of the individual OB and the existence range of the individual OB. Position information is generated using, for example, three-dimensional coordinate information. In the example of FIG. 1, the coordinates (b x , b y , b z ) of the center of the individual OB, and the depth b d , width b w and Information about the height b h is shown as position information. Information on the size of the individual OB is extracted based on the position information (information indicating the existence range) of the individual OB.

正解データTODは、個体OBを識別するための画像要素IEを含むことができる。画像要素IEは、例えば、boundary cubeを示すフレーム要素である。画像要素IEは、シミュレーションに用いられた個体OBの位置情報に基づいて自動的に生成される。図1の例では、画像要素IEがboundary cubeで示されたが、画像要素IEはこれに限られない。画像要素IEは、例えば、個体OBを囲むフレーム要素、または、個体OBを色で識別するための色要素を含むものとすることができる。 The correct answer data TOD can include an image element IE for identifying the individual OB. The image element IE is, for example, a frame element representing a boundary cube. The image element IE is automatically generated based on the position information of the individual OB used in the simulation. In the example of FIG. 1, the image element IE is indicated by the boundary cube, but the image element IE is not limited to this. The image element IE can include, for example, a frame element surrounding the individual OB or a color element for identifying the individual OB by color.

図2ないし図4は、画像要素IEのバリエーションを示す図である。 2 to 4 are diagrams showing variations of the image element IE.

図2の例は、図1に示したboundary cubeを再掲したものである。図3の例は、個体OBをシルエットで置換した例、または、個体OBの輪郭を太線で縁取った例である。図4の例は、複数の個体OBを色分けした例である。図2のboundary cubeおよび図3の輪郭線は、個体OBを囲むフレーム要素に相当する。図4の色分けは、色要素の付与に相当する。複数の個体OBが存在する場合には、フレーム要素の色は、個体OBごとに異ならせてもよく、個体OBの分類情報に応じて異ならせてもよい。 The example in FIG. 2 is a reproduction of the boundary cube shown in FIG. The example in FIG. 3 is an example in which the individual OB is replaced with a silhouette, or an example in which the outline of the individual OB is outlined with a thick line. The example in FIG. 4 is an example in which a plurality of individuals OB are color-coded. The boundary cube in FIG. 2 and the outline in FIG. 3 correspond to frame elements surrounding the individual OB. The color coding in FIG. 4 corresponds to the addition of color elements. When there are a plurality of individual OBs, the color of the frame element may be different for each individual OB, or may be different according to the classification information of the individual OB.

[3.ディープラーニング]
図1に戻って、本開示では、入力データTIDおよび正解データTODをトレーニングデータとする機械学習(教師あり学習)がDNN(Deep Neural Network)において行われる。学習済みのDNNに入力データRIDが入力されると、入力データRIDにラベル情報および画像要素IEを付加した出力データRODが生成される。
[3. deep learning]
Returning to FIG. 1, in the present disclosure, machine learning (supervised learning) using input data TID and correct answer data TOD as training data is performed in a DNN (Deep Neural Network). When the input data RID is input to the learned DNN, the output data ROD is generated by adding the label information and the image element IE to the input data RID.

例えば、撮影画像CIがDNNに入力されると、DNNは撮影画像CIから個々の個体OBを抽出する。DNNは、個々の個体OBの特徴に基づいて、個々の個体OBの分類情報および位置情報を生成する。DNNは、個体OBごとに、分類情報および位置情報を含むラベル情報を生成する。DNNは、個々の個体OBの位置情報に基づいて、個体OBごとに画像要素IEを生成する。DNNは、撮影画像CIに各個体OBの画像要素IEを付加した補正画像CCIを生成する。DNNは、補正画像CCIに各個体OBのラベル情報を付加して出力データRODを生成する。 For example, when a captured image CI is input to the DNN, the DNN extracts individual individuals OB from the captured image CI. The DNN generates classification information and location information for each individual OB based on the characteristics of each individual OB. The DNN generates label information including classification information and location information for each individual OB. The DNN generates an image element IE for each individual OB based on the positional information of each individual OB. The DNN generates a corrected image CCI by adding the image element IE of each individual OB to the photographed image CI. The DNN adds label information of each individual OB to the corrected image CCI to generate output data ROD.

[4.ノイズの除去]
図5および図6は、ノイズを除去する機械学習を説明する図である。
[4. [Remove noise]
5 and 6 are diagrams for explaining machine learning for removing noise.

DNNによる画像解析の精度を高めるために、撮影画像CIに含まれるノイズを除去する機械学習を行うことができる。例えば、生け簀の中にカメラをおいて撮影を行うと、水面WSや壁面WLの近くを移動する個体OBの反射像MIRが水面WSや壁面WLに映し出される。生け簀の底には個体OBの影SHが投影される。このような反射像MIRおよび影SHはノイズとなり、画像解析の精度を低下させる可能性がある。そのため、本開示では、例えば、反射像MIRおよび影SHのシミュレーション画像SIが生成され、シミュレーション画像SIを用いたトレーニングデータが生成される。 In order to improve the accuracy of image analysis by DNN, machine learning can be performed to remove noise contained in the captured image CI. For example, when a camera is placed in a fish tank and a photograph is taken, a reflected image MIR of an individual OB moving near the water surface WS and the wall surface WL is projected on the water surface WS and the wall surface WL. The shadow SH of the individual OB is projected on the bottom of the fish tank. Such reflected images MIR and shadows SH become noise and may reduce the accuracy of image analysis. Therefore, in the present disclosure, for example, a simulation image SI of the reflection image MIR and the shadow SH is generated, and training data using the simulation image SI is generated.

図5の例では、入力データTIDとして、個体OBおよび反射像MIRを含むシミュレーション画像SIが生成される。正解データTODは、入力データTIDから反射像MIRが除去されたシミュレーション画像SIである。この入力データTIDおよび正解データTODをトレーニングデータとして用いると、撮影画像CIから反射像MIRを除去するDNNが得られる。図5の例では、入力データTIDおよび正解データTODに個体OBが含まれたが、これらのデータには必ずしも個体OBは含まれる必要はない。例えば、上述の入力データTIDおよび正解データTODから個体OBが削除されたトレーニングデータを用いても、反射像MIRを除去するDNNが生成される。 In the example of FIG. 5, a simulation image SI including the individual OB and the reflected image MIR is generated as the input data TID. The correct data TOD is a simulation image SI obtained by removing the reflected image MIR from the input data TID. By using the input data TID and the correct data TOD as training data, a DNN that removes the reflected image MIR from the captured image CI is obtained. In the example of FIG. 5, the individual OB is included in the input data TID and the correct data TOD, but these data do not necessarily include the individual OB. For example, even if training data in which individuals OB are deleted from the input data TID and correct data TOD described above is used, a DNN that removes the reflected image MIR is generated.

図6の例では、入力データTIDとして、個体OBおよび影SHを含むシミュレーション画像SIが生成される。正解データTODは、入力データTIDから影SHが除去されたシミュレーション画像SIである。この入力データTIDおよび正解データTODをトレーニングデータとして用いると、撮影画像CIから影SHを除去するDNNが得られる。図6の例では、入力データTIDおよび正解データTODに個体OBが含まれたが、これらのデータには必ずしも個体OBは含まれる必要はない。例えば、上述の入力データTIDおよび正解データTODから個体OBが削除されたトレーニングデータを用いても、影SHを除去するDNNが生成される。 In the example of FIG. 6, a simulation image SI including an individual OB and a shadow SH is generated as the input data TID. The correct data TOD is a simulation image SI obtained by removing the shadow SH from the input data TID. By using the input data TID and the correct data TOD as training data, a DNN that removes the shadow SH from the captured image CI is obtained. In the example of FIG. 6, the individual OB is included in the input data TID and the correct data TOD, but these data do not necessarily include the individual OB. For example, a DNN that removes the shadow SH is generated using training data in which the individuals OB are deleted from the input data TID and correct data TOD described above.

[5.シミュレーションモデル]
群れFLKおよび個体OBのシミュレーション画像SIは、群れモデル23(図15参照)および個体モデル24(図15参照)を用いて生成することができる。群れモデル23は、群れFLKの統計的性質に基づくシミュレーションモデルである。個体モデル24は、個体OBの形態的特徴に基づくシミュレーションモデルである。以下、シミュレーションモデルの概要を説明する。
[5. simulation model]
A flock FLK and an individual OB simulation image SI can be generated using a flock model 23 (see FIG. 15) and an individual model 24 (see FIG. 15). The herd model 23 is a simulation model based on the statistical properties of the herd FLK. The individual model 24 is a simulation model based on the morphological features of the individual OB. An outline of the simulation model will be described below.

[5-1.群れモデル]
図7は、群れモデル23の一例を示す図である。
[5-1. Herd model]
FIG. 7 is a diagram showing an example of the flock model 23. As shown in FIG.

群れモデル23は、例えば、分類、整列および結合の3つの動作規則を規定したBoidsモデルに、給餌時の捕食動作を示す捕食者モデルを組み合わせて生成される。捕食者モデルでは、分離の動作規則が適用される混雑領域CAの外側に、密集方向とは反対方向への移動を促す反発領域RAが設定される。捕食者モデルは、個体OBの視界に映る餌を個体OBがどのように獲得するかをシミュレーションすることにより生成される(Fish Vision Simulation)。捕食者モデルは、個体OBの種類およびケージ内の密度に応じた餌の最適化を図るために用いることもできる。 The flock model 23 is generated, for example, by combining a Boids model, which defines three rules of behavior for classification, alignment, and association, with a predator model that indicates predatory behavior during feeding. In the predator model, a repulsive area RA is set outside the congested area CA to which the segregation operation rule is applied to encourage movement in the direction opposite to the dense direction. A predator model is generated by simulating how an individual OB obtains food reflected in the field of view of the individual OB (Fish Vision Simulation). The predator model can also be used to optimize feeding according to individual OB type and cage density.

群れモデル23では、例えば、個体OBの整列度、群れ形成度、視野角、トップスピード、餌認識速度、餌への執着度、餌を食べ続ける時間(満腹になる給餌量)、一回に餌をついばむ時間、餌を食べているときの移動速度、混雑領域CAの大きさ、および、反発領域RAの大きさなどが、群れFLKのパラメータとして設定される。これらのパラメータは、個体OBの種類や大きさによって変化する。 In the flock model 23, for example, the degree of alignment of individuals OB, the degree of flock formation, the viewing angle, the top speed, the food recognition speed, the degree of attachment to food, the time to continue eating food (the amount of food that satisfies), and the amount of food to feed at one time. The time of picking, the speed of movement while eating, the size of the congestion area CA, the size of the repulsion area RA, and the like are set as parameters of the flock FLK. These parameters change depending on the type and size of the individual OB.

図8は、非給餌時の群れFLKのシミュレーション画像SIである。図9は、給餌時の群れFLKのシミュレーション画像SIである。図10は、非給餌時の群れFLKの撮影画像CIである。図11は、給餌時の群れFLKの撮影画像CIである。 FIG. 8 is a simulation image SI of the flock FLK during non-feeding. FIG. 9 is a simulation image SI of a flock FLK during feeding. FIG. 10 is a photographed image CI of the flock FLK during non-feeding. FIG. 11 is a photographed image CI of the flock FLK during feeding.

図8および図10に示すように、非給餌時には、群れFLKは概ね、分離、整列および結合の3つの動作規則にしたがって動作する。そのため、狭い範囲に多数の個体OBが密集する。図9および図11に示すように、給餌時には、群れFLKは、分離、整列、結合および反発の4つの動作規則にしたがって動作する。反発の動作規則によって群れFLKが広がるため、群れFLKの密度は低下する。 As shown in FIGS. 8 and 10, when not feeding, the flock FLK generally operates according to three rules of operation: separation, alignment and union. Therefore, a large number of individuals OB are concentrated in a narrow range. As shown in FIGS. 9 and 11, during feeding, the flock FLK operates according to four rules of operation: separation, alignment, association and repulsion. The density of the flock FLK decreases because the flock FLK spreads due to the rules of action of repulsion.

図10に示すように、密集した群れFLKでは、重なり合って見えない個体OBが多いため、正確な個体数を計数することは難しい。そのため、図8に示すようなシミュレーション画像SIに基づいて個体数の推定が行われる。群れFLKの形状や大きさなどはシミュレーションのパラメータを調整することで変更される。そのため、シミュレーション画像SIが実データと近似するまでパラメータ情報を調整することで、精度のよい個体数の推定が可能となる。 As shown in FIG. 10, in a dense flock FLK, many individuals OB overlap and cannot be seen, so it is difficult to accurately count the number of individuals. Therefore, the number of individuals is estimated based on the simulation image SI as shown in FIG. The shape and size of the flock FLK can be changed by adjusting simulation parameters. Therefore, by adjusting the parameter information until the simulation image SI approximates the actual data, it is possible to estimate the number of individuals with high accuracy.

図11に示すように、給餌時には群れFLKの密度は低下する。そのため、給餌時の撮影画像に基づいて個体数の推定が行われてもよい。この場合、重なり合って見えない個体OBの数が少なくなるので、計数が容易となる。図9に示すシミュレーション画像SIと比較する際にも、群れFLKが密集していないので、比較が容易である。 As shown in Figure 11, the density of flock FLK decreases during feeding. Therefore, the number of individuals may be estimated based on the images captured during feeding. In this case, the number of overlapping individuals OB that cannot be seen is reduced, which facilitates counting. Also when comparing with the simulation image SI shown in FIG. 9, the flock FLK is not dense, so the comparison is easy.

[5-2.個体モデル]
図12は、個体モデル24の一例を示す図である。
[5-2. individual model]
FIG. 12 is a diagram showing an example of the individual model 24. As shown in FIG.

個体モデル24は、個体OBの体の構造に基づいて生成される。個体モデル24としては、例えば、筋骨格モデルが用いられる。筋骨格SBMは、標準的な形状および大きさを有する個体OBを解剖し、個体OBの骨格と、骨格に対する筋肉の付き方と、を分析することによって得られる。図12では、チョウザメの筋骨格SBMが示されている。筋骨格SBMからは個体OBの基準モデルRMが再現される。基準モデルRMからは、1以上の変異モデルMM1~MMn(nは1以上の整数)が派生して生成される。基準モデルRMおよび変異モデルMM1~MMnがそれぞれ個体モデル24となる。個体モデル24は、個体OBの分類情報として用いられる。 The individual model 24 is generated based on the body structure of the individual OB. As the individual model 24, for example, a musculoskeletal model is used. A musculoskeletal SBM is obtained by dissecting an individual OB of standard shape and size and analyzing the skeleton of the individual OB and the attachment of muscles to the skeleton. In FIG. 12 the sturgeon musculoskeletal SBM is shown. A reference model RM of the individual OB is reproduced from the musculoskeletal SBM. One or more mutation models MM1 to MMn (n is an integer of 1 or more) are derived and generated from the reference model RM. The reference model RM and the mutant models MM1 to MMn are individual models 24, respectively. The individual model 24 is used as classification information for the individual OB.

変異モデルは、形態に異常がある個体OBの3次元モデルである。養殖により生まれた個体OBのほとんどが、身体的異常(例えば、ヒレが曲がっている、ヒレの形状が変異している、内臓疾患を有する)を有することが知られている。そのため、個体OBの変異モデルとしては、例えば、胸ヒレの異常(例えば、胸ヒレが曲がっている)、背ヒレの異常(例えば、背ヒレが曲がっている)、尾ヒレの異常(例えば、尾ヒレが曲がっている)、および、輪郭変異(例えば、通常個体と比較して頭部の輪郭が変異している)に関するモデルなどが生成される。なお、変異モデルは上記のものに限られない。どのような変異モデルを生成するかは、個体OBの種類や個体OBが置かれた環境などに応じて個別に決定される。 A mutation model is a three-dimensional model of an individual OB with morphological abnormalities. It is known that most of the farm-born OB individuals have physical abnormalities (eg, curved fins, altered fin shape, visceral disease). Therefore, mutation models of individual OB include, for example, pectoral fin abnormalities (e.g., pectoral fins are bent), dorsal fin abnormalities (e.g., dorsal fins are bent), and tail fin abnormalities (e.g., tail fins are bent). curved), and contour variation (eg, the contour of the head is mutated compared to a normal individual). Note that the mutation model is not limited to the above. What kind of mutation model is to be generated is determined individually according to the type of individual OB and the environment in which the individual OB is placed.

図13は、個体OBの動作シミュレーションを示す図である。 FIG. 13 is a diagram showing a motion simulation of an individual OB.

個体モデル24には、動作シミュレーションによって得られた動作特徴量が紐づけられる。チョウザメの例では、流体シミュレーションによって、個体モデル24ごとに、泳法の特徴量(動作特徴量)が抽出される。個体OBの泳法は、個体OBが持つ形態的特徴によって変わる。例えば、身体的異常を有する個体OBは、異常を補うように泳ぐ。そのため、個体モデル24ごとに、泳法の特徴量は異なる。泳法の特徴量は、個体OBを識別するパラメータ情報として用いることができる。個体OBの動作特徴量を示すパラメータ情報は、個体モデル24に紐づけられ、分類情報として用いられる。 The individual model 24 is associated with motion feature amounts obtained by motion simulation. In the example of sturgeon, a swimming feature amount (movement feature amount) is extracted for each individual model 24 by fluid simulation. The swimming style of the individual OB changes depending on the morphological characteristics of the individual OB. For example, an individual OB with a physical abnormality swims to compensate for the abnormality. Therefore, the feature amount of the swimming style differs for each individual model 24 . The swimming style feature amount can be used as parameter information for identifying the individual OB. The parameter information indicating the behavior feature amount of the individual OB is linked to the individual model 24 and used as classification information.

図14は、生け簀で飼育されるチョウザメを示す図である。 FIG. 14 is a diagram showing a sturgeon reared in a cage.

養殖場のチョウザメのほとんどは何らかの身体的異常を有する。例えば、個体OB1~と個体OB4は、胸ヒレ、背ヒレおよび尾ヒレの形状が一様ではなく、輪郭も微妙に異なる。そのため、チョウザメごとに、身体的異常に応じた変異モデルを割り当てることができる。同じ変異モデルが割り当てられたチョウザメどうしでも、身体的異常の度合いは様々である。そのため、個体OBの動作特徴量を示すパラメータ情報もチョウザメごとに異なる。よって、動作シミュレーションによって個々の個体OBのパラメータ情報が検出されれば、検出されたパラメータ情報に基づいて個々の個体OBを識別することができる。 Most sturgeons on farms have some physical abnormalities. For example, individuals OB1 to OB4 do not have uniform pectoral fins, dorsal fins, and tail fins, and have slightly different contours. Therefore, each sturgeon can be assigned a mutation model according to its physical abnormalities. Sturgeons assigned the same mutation model show varying degrees of physical abnormalities. Therefore, the parameter information indicating the motion feature amount of the individual OB also differs for each sturgeon. Therefore, if the parameter information of each individual OB is detected by motion simulation, each individual OB can be identified based on the detected parameter information.

[6.情報処理装置の構成]
図15は、本開示の情報処理が適用される情報処理装置1の一例を示す図である。
[6. Configuration of information processing device]
FIG. 15 is a diagram showing an example of the information processing device 1 to which the information processing of the present disclosure is applied.

情報処理装置1は、サーバなどの専用または汎用のコンピュータシステムである。前述した画像解析用のDNNは分析モデル21に含まれる。情報処理装置1は、処理装置10と記憶装置20とを有する。処理装置10は、例えば、入力データ生成部11と、正解データ生成部12と、画像解析部13と、シミュレーション部14と、推定部15と、を有する。 The information processing device 1 is a dedicated or general-purpose computer system such as a server. The DNN for image analysis described above is included in the analysis model 21 . The information processing device 1 has a processing device 10 and a storage device 20 . The processing device 10 includes, for example, an input data generation unit 11, a correct data generation unit 12, an image analysis unit 13, a simulation unit 14, and an estimation unit 15.

シミュレーション部14は、モデル情報22に規定されたシミュレーションモデルを用いて、3次元のシミュレーション画像SIを生成する。シミュレーション画像SIは、シミュレーション結果を、CG技術を用いて、あるカメラアングルから見た画像として再現したものである。モデル情報22には、例えば、群れモデル23、個体モデル24および異常行動モデル25などが規定されている。異常行動モデル25は、個体OBの異常行動を示すシミュレーションモデルである。シミュレーション部14は、これらのシミュレーションモデルに基づいて、群れFLKおよび個体OBのシミュレーション画像SIを生成する。 The simulation unit 14 uses the simulation model defined in the model information 22 to generate a three-dimensional simulation image SI. The simulation image SI is obtained by reproducing the simulation result as an image viewed from a certain camera angle using CG technology. The model information 22 defines, for example, a group model 23, an individual model 24, an abnormal behavior model 25, and the like. The abnormal behavior model 25 is a simulation model that indicates abnormal behavior of the individual OB. The simulation unit 14 generates a simulation image SI of the herd FLK and the individual OB based on these simulation models.

入力データ生成部11は、シミュレーションに必要なパラメータ情報を生成し、シミュレーション部14に出力する。入力データ生成部11は、シミュレーション部14を用いて、入力データTIDとなるシミュレーション画像SIをコンピュータグラフィックスにより生成する。 The input data generation unit 11 generates parameter information necessary for simulation and outputs it to the simulation unit 14 . The input data generation unit 11 uses the simulation unit 14 to generate a simulation image SI as the input data TID by computer graphics.

正解データ生成部12は、シミュレーションに用いたパラメータ情報に基づいてラベル情報を生成する。正解データ生成部12は、シミュレーション画像SIとラベル情報とを含む正解データTODを生成する。正解データ生成部12は、シミュレーションに用いられた個体OBの位置情報に基づいて、個体OBを識別する画像要素IEを生成することができる。この場合、正解データ生成部12は、シミュレーション画像SIに画像要素IEを付加した補正画像CSIを生成し、補正画像CSIにラベル情報を付加して正解データTODを生成する。 The correct data generation unit 12 generates label information based on the parameter information used in the simulation. The correct data generation unit 12 generates correct data TOD including the simulation image SI and label information. The correct data generation unit 12 can generate an image element IE for identifying an individual OB based on the position information of the individual OB used in the simulation. In this case, the correct data generation unit 12 generates a corrected image CSI by adding the image element IE to the simulation image SI, and adds label information to the corrected image CSI to generate correct data TOD.

入力データ生成部11および正解データ生成部12によって多数のトレーニングデータが生成される。上述した入力データTIDおよび正解データTODをトレーニングデータとする機械学習に基づいて分析モデル21が生成される。分析モデル21は、例えば、個体OBの分類情報および位置情報を解析するためのDNN,群れFLKのパラメータ情報を解析するためのDNN、個体OBのパラメータ情報を解析するためのDNN、反射像MIRを除去するためのDNN、および、影SHを除去するためのDNNなどを含む。これらのDNNは、要求される機能に応じた適切な学習が行われる。機械学習の手法は様々であり、RNN(Recurrent Neural Network)、Deep Reinforcement LearningおよびTransformerなどを用いることができる。 A lot of training data is generated by the input data generator 11 and the correct data generator 12 . The analysis model 21 is generated based on machine learning using the above-described input data TID and correct data TOD as training data. The analysis model 21 includes, for example, a DNN for analyzing classification information and position information of an individual OB, a DNN for analyzing parameter information for a flock FLK, a DNN for analyzing parameter information for an individual OB, and a reflection image MIR. DNN for removing and DNN for removing shadow SH. These DNNs are trained appropriately according to the required functions. There are various machine learning methods, and RNN (Recurrent Neural Network), Deep Reinforcement Learning, Transformer, and the like can be used.

画像解析部13は、分析モデル21を用いて撮影画像CIの画像解析を行う。画像解析部13は、画像解析によって撮影画像CIからラベル情報を抽出する。画像解析部13は、抽出されたラベル情報から必要なパラメータ情報を抽出する。 The image analysis unit 13 performs image analysis of the captured image CI using the analysis model 21 . The image analysis unit 13 extracts label information from the captured image CI by image analysis. The image analysis unit 13 extracts necessary parameter information from the extracted label information.

推定部15は、画像解析部13で抽出されたパラメータ情報をシミュレーション部14に出力する。推定部15は、シミュレーション部14を用いて、抽出されたパラメータ情報に基づくシミュレーション画像SIを生成する。推定部15は、シミュレーション画像SIと撮影画像CIとの差分を算出する。差分が予め設定された条件を満たさない場合には、推定部15は、パラメータ情報を補正してシミュレーション画像SIを生成する。推定部15は、差分が上記条件を満たすまでパラメータ情報の補正とシミュレーション画像SIの生成とを繰り返す。推定部15は、上記条件を満たすまで補正されたパラメータ情報に基づいて、必要な情報を推定する。 The estimation unit 15 outputs parameter information extracted by the image analysis unit 13 to the simulation unit 14 . The estimation unit 15 uses the simulation unit 14 to generate a simulation image SI based on the extracted parameter information. The estimation unit 15 calculates the difference between the simulation image SI and the captured image CI. If the difference does not satisfy the preset condition, the estimation unit 15 corrects the parameter information and generates the simulation image SI. The estimation unit 15 repeats the correction of the parameter information and the generation of the simulation image SI until the difference satisfies the above conditions. The estimation unit 15 estimates necessary information based on the parameter information corrected until the above conditions are satisfied.

記憶装置20は、例えば、処理装置10が実行するプログラム29と、分析モデル21と、モデル情報22と、を記憶する。プログラム29は、本開示の情報処理をコンピュータに実行させるプログラムである。処理装置10は、記憶装置20に記憶されているプログラム29にしたがって各種の処理を行う。記憶装置20は、処理装置10の処理結果を一時的に記憶する作業領域として利用されてもよい。記憶装置20は、例えば、半導体記憶媒体および磁気記憶媒体などの任意の非一過的な記憶媒体を含む。記憶装置20は、例えば、光ディスク、光磁気ディスクまたはフラッシュメモリを含んで構成される。プログラム29は、例えば、コンピュータにより読み取り可能な非一過的な記憶媒体に記憶されている。 The storage device 20 stores, for example, a program 29 executed by the processing device 10, an analysis model 21, and model information 22. FIG. The program 29 is a program that causes a computer to execute the information processing of the present disclosure. The processing device 10 performs various processes according to programs 29 stored in the storage device 20 . The storage device 20 may be used as a work area that temporarily stores the processing results of the processing device 10 . Storage device 20 includes, for example, any non-transitory storage media such as semiconductor storage media and magnetic storage media. The storage device 20 includes, for example, an optical disc, a magneto-optical disc, or a flash memory. The program 29 is stored, for example, in a non-transitory computer-readable storage medium.

処理装置10は、例えば、プロセッサとメモリとで構成されるコンピュータである。処理装置10のメモリには、RAM(Random Access Memory)およびROM(Read Only Memory)が含まれる。処理装置10は、プログラム29を実行することにより、入力データ生成部11、正解データ生成部12、画像解析部13、シミュレーション部14および推定部15として機能する。 The processing device 10 is, for example, a computer configured with a processor and memory. The memory of the processing device 10 includes RAM (Random Access Memory) and ROM (Read Only Memory). The processing device 10 functions as an input data generation unit 11 , a correct data generation unit 12 , an image analysis unit 13 , a simulation unit 14 and an estimation unit 15 by executing the program 29 .

[7.個体数の推定処理]
図16は、群れFLKの個体数の推定処理の一例を示す図である。
[7. Estimation process of the number of individuals]
FIG. 16 is a diagram showing an example of the process of estimating the number of individuals in a flock FLK.

分析モデル21は、DNNA、DNNB、DNNCおよびDNNDを有する。DNNAは、反射像MIRを除去するためのDNNである。DNNBは、影SHを除去するためのDNNである。DNNCは、個体OBの位置情報および分類情報を抽出するためのDNNである。DNNDは、群れFLKのパラメータ情報を抽出するためのDNNである。 The analytical model 21 has DNNA, DNNB, DNNC and DNND. DNN is a DNN for removing reflected image MIR. DNNB is a DNN for removing shadow SH. DNNC is a DNN for extracting location information and classification information of an individual OB. DNND is a DNN for extracting parameter information of the flock FLK.

DNNDのトレーニング用のシミュレーション画像SIは、群れモデル23を用いて生成された群れFLKのシミュレーション画像である。DNNDのトレーニングデータのラベル情報は、群れモデル23に適用される群れFLKのパラメータ情報に基づいて生成される。DNNDに群れFLKの撮影画像CIを入力すると、群れFLKのパラメータ情報が抽出される。DNNCは、撮影画像CIから、個々の個体OBの種類、位置および大きさなどの情報を抽出する。DNNAおよびDNNBは、撮影画像CIに含まれるノイズ成分(反射像MIR、影SH)を分離する。 A simulation image SI for DNND training is a simulation image of the flock FLK generated using the flock model 23 . The label information of the DNND training data is generated based on the parameter information of the flock FLK applied to the flock model 23 . When the photographed image CI of the flock FLK is input to the DNND, the parameter information of the flock FLK is extracted. The DNNC extracts information such as the type, position and size of each individual OB from the captured image CI. DNNA and DNNB separate noise components (reflection image MIR, shadow SH) included in the captured image CI.

画像解析部13は、分析モデル21を用いて、群れFLKの撮影画像CIからラベル情報を抽出する。画像解析部13は、抽出されたラベル情報に基づいて群れFLKのパラメータ情報を抽出する。推定部15は、群れFLKのパラメータ情報に基づいて、群れFLKに含まれる個体OBの数を推定する。 The image analysis unit 13 uses the analysis model 21 to extract label information from the photographed image CI of the flock FLK. The image analysis unit 13 extracts the parameter information of the flock FLK based on the extracted label information. The estimation unit 15 estimates the number of individuals OB included in the flock FLK based on the parameter information of the flock FLK.

上述の推定ステップでは、まず、推定部15は、群れFLKのパラメータ情報、個体OBの種類、位置および大きさに関する情報に基づいて群れFLKのシミュレーション画像SIを生成する。推定部15は、群れFLKのシミュレーション画像SIと撮影画像CIとの差分diffが予め設定された条件を満たすまで群れFLKのパラメータ情報を補正する。差分diffは、撮影画像CIの特徴量とシミュレーション画像SIの特徴量との差に基づいて算出される。推定部15は、上記条件を満たすまで補正された群れFLKのパラメータ情報に基づいて個体OBの数を推定する。 In the estimation step described above, the estimation unit 15 first generates a simulation image SI of the flock FLK based on the parameter information of the flock FLK and the information on the type, position and size of the individual OB. The estimation unit 15 corrects the parameter information of the flock FLK until the difference diff between the simulation image SI and the captured image CI of the flock FLK satisfies a preset condition. The difference diff is calculated based on the difference between the feature amount of the captured image CI and the feature amount of the simulation image SI. The estimation unit 15 estimates the number of individuals OB based on the corrected parameter information of the flock FLK until the above condition is satisfied.

推定ステップで生成されるシミュレーション画像SIには、個体OBの反射像MIRおよび影SHが含まれる。反射像MIRの数や影SHの濃さは、カメラの死角になる位置の群れFLKの情報を得るための手掛かりとなる可能性がある。よって、差分diffには、シミュレーション画像SIに含まれる反射像MIRおよび影SHと、撮影画像CIに含まれる反射像MIRおよび影SHと、の差分も含まれる。反射像MIRや影SHについての差分情報も考慮することで精度の高い個体数の推定が可能となる。 The simulation image SI generated in the estimation step includes the reflected image MIR and shadow SH of the individual OB. The number of reflected images MIR and the density of shadows SH may be clues for obtaining information about the flock FLK in the blind spots of the camera. Therefore, the difference diff also includes the difference between the reflected image MIR and shadow SH included in the simulation image SI and the reflected image MIR and shadow SH included in the captured image CI. It is possible to estimate the number of individuals with high accuracy by also considering the difference information about the reflected image MIR and the shadow SH.

図16の例では、撮影画像CIおよびシミュレーション画像SIとして、非給餌時の画像が用いられている。しかし、撮影画像CIおよびシミュレーション画像SIは、給餌時の群れFLKの画像とすることもできる。捕食者モデルが適用される給餌時では、捕食者モデルが適用されない非給餌時に比べて、群れFLKの密度は低い。そのため、重なり合って見えない個体OBが少なくなる。よって、シミュレーション画像SIと撮影画像CIとの差分が精度よく検出されるようになり、個体数の推定精度も高まる。 In the example of FIG. 16, the images during non-feeding are used as the photographed image CI and the simulation image SI. However, the photographed image CI and the simulated image SI can also be images of the flock FLK during feeding. During feeding when the predator model is applied, the flock FLK density is lower than during non-feeding when the predator model is not applied. As a result, the number of individuals OB that overlap and cannot be seen is reduced. Therefore, the difference between the simulation image SI and the photographed image CI can be detected with high accuracy, and the estimation accuracy of the number of individuals also increases.

なお、DNNCは個体OBの種類や大きさを検出する。そのため、情報処理装置1は、計数の対象となる種類やサイズを入力するための入力手段を備えてもよい。これにより、ユーザは特定の種類または特定の大きさの個体OBのみを計数することができる。 Note that the DNNC detects the type and size of the individual OB. Therefore, the information processing apparatus 1 may include input means for inputting the types and sizes to be counted. This allows the user to count only individuals OB of a specific type or size.

[8.個体のトラッキング]
図17は、個体のトラッキングの一例を示す図である。
[8. individual tracking]
FIG. 17 is a diagram showing an example of individual tracking.

分析モデル21は、DNNA、DNNB、DNNCおよびDNNEを有する。DNNEは、DNNCによって抽出された個々の個体OBの位置情報および分類情報に基づいて、個々の個体OBに画像要素IEを付加するDNNである。 The analytical model 21 has DNNA, DNNB, DNNC and DNNE. A DNNE is a DNN that adds an image element IE to each individual OB based on the location information and classification information of each individual OB extracted by the DNNC.

画像解析部13は、分析モデル21に撮影画像CIを適用して、撮影画像CIに写る個々の個体OBに画像要素IEを付加する。図17の例では、画像要素IEとして、個体OBごとに異なる色要素が付されている。個体OBの色は、個体OBの大きさおよび形状などに応じて異なる。個体OBの大きさは、個体OBの位置情報から抽出される。個体OBの形状は、個体OBの分類情報(形態的特徴)から抽出される。画像解析部13は、個体OBに付された画像要素IEに基づいて、複数の個体OBを検出し、個々の個体OBを個別にトラッキングする。 The image analysis unit 13 applies the photographed image CI to the analysis model 21 and adds an image element IE to each individual OB appearing in the photographed image CI. In the example of FIG. 17, a different color element is attached to each individual OB as the image element IE. The color of the individual OB differs depending on the size, shape, etc. of the individual OB. The size of the individual OB is extracted from the position information of the individual OB. The shape of the individual OB is extracted from the classification information (morphological features) of the individual OB. The image analysis unit 13 detects a plurality of individuals OB based on the image elements IE attached to the individuals OB, and individually tracks each individual OB.

[9.個体の識別および異常行動の認識]
図18は、個体の識別方法および異常行動の検出方法の一例を示す図である。
[9. Identification of Individuals and Recognition of Abnormal Behavior]
FIG. 18 is a diagram showing an example of an individual identification method and an abnormal behavior detection method.

分析モデル21は、DNNA、DNNB、DNNCおよびDNNFを有する。DNNFは、個体OBのパラメータ情報を抽出するためのDNNである。 The analytical model 21 has DNNA, DNNB, DNNC and DNNF. DNNF is a DNN for extracting parameter information of an individual OB.

DNNFのトレーニング用のシミュレーション画像SIは、個体モデル24を用いて生成された個体OBのシミュレーション画像である。DNNFのトレーニングデータのラベル情報は、個体モデル24に適用される個体OBのパラメータ情報に基づいて生成される。DNNFに個体OBの撮影画像CIを入力すると、個体OBの形態的特徴(個体モデル24)に対応したパラメータ情報が抽出される。 A simulation image SI for DNNF training is a simulation image of an individual OB generated using the individual model 24 . The label information of the DNNF training data is generated based on the parameter information of the individual OB applied to the individual model 24 . When the captured image CI of the individual OB is input to the DNNF, parameter information corresponding to the morphological features (individual model 24) of the individual OB is extracted.

画像解析部13は、分析モデル21を用いて、撮影画像CIから個々の個体OBのラベル情報を抽出する。画像解析部13は、個体OBごとに、個体OBのラベル情報に基づいて個体OBのパラメータ情報を抽出する。抽出される個体OBのパラメータ情報には、例えば、個体OBの筋骨格モデルに適用されるマッスルパラメータのパラメータ情報、および、個体モデル24に紐づけられた、個体OBの動作特徴量を示すパラメータ情報が含まれる。推定部15は、個々の個体OBのパラメータ情報に基づいて個々の個体OBを識別する。 The image analysis unit 13 uses the analysis model 21 to extract the label information of each individual OB from the captured image CI. The image analysis unit 13 extracts the parameter information of each individual OB based on the label information of the individual OB. The extracted parameter information of the individual OB includes, for example, parameter information of muscle parameters applied to the musculoskeletal model of the individual OB, and parameter information linked to the individual model 24 and indicating the motion feature amount of the individual OB. is included. The estimation unit 15 identifies each individual OB based on the parameter information of each individual OB.

上述の識別ステップでは、まず、推定部15は、個体OBのパラメータ情報に基づいて個体OBのシミュレーション画像SIを生成する。推定部15は、個体OBのシミュレーション画像と撮影画像CIとの差分が予め設定された条件を満たすまで個体OBのパラメータ情報を補正する。差分diffは、撮影画像CIの特徴量とシミュレーション画像SIの特徴量との差に基づいて算出される。推定部15は、上記条件を満たすまで補正された個体OBのパラメータ情報に基づいて個体OBを識別する。 In the identification step described above, the estimation unit 15 first generates a simulation image SI of the individual OB based on the parameter information of the individual OB. The estimation unit 15 corrects the parameter information of the individual OB until the difference between the simulation image and the captured image CI of the individual OB satisfies a preset condition. The difference diff is calculated based on the difference between the feature amount of the captured image CI and the feature amount of the simulation image SI. The estimation unit 15 identifies the individual OB based on the parameter information of the individual OB that has been corrected until the above conditions are satisfied.

個体OBの網膜パラメータを用いたシミュレーションによって異常行動を認識することができる。網膜パラメータは、例えば、個体OBから見た事象の発生方向と個体OBの移動方向との関係を示すパラメータである。例えば、個体OBの前方に餌が落ちてきたときに、個体OBが餌のある方向と全く関係ない方向に移動した場合には、個体OBに異常があると推定することができる。また、内臓疾患のあるチョウザメは、餌に興味を示さずに、水面近くを不自然に漂うような異常行動をとる場合ある。そのような場合に、撮影画像CIを異常行動モデル25に当てはめて網膜パラメータを抽出し、網膜パラメータを予め設定された基準値と比較することで、個体OBの異常を検出することができる。 Abnormal behavior can be recognized by simulation using the retinal parameters of the individual OB. The retina parameter is, for example, a parameter that indicates the relationship between the direction of occurrence of an event seen from the individual OB and the direction of movement of the individual OB. For example, when food falls in front of an individual OB, if the individual OB moves in a direction completely unrelated to the direction in which the food is present, it can be estimated that the individual OB has an abnormality. In addition, sturgeon with visceral disease may exhibit abnormal behavior such as unnaturally drifting near the surface of the water without showing interest in food. In such a case, by applying the photographed image CI to the abnormal behavior model 25, extracting the retinal parameters, and comparing the retinal parameters with preset reference values, the abnormality of the individual OB can be detected.

異常行動の検出は、餌のやりすぎによる体調不良の検出にも役立つ。そのため、異常行動の検出結果に基づいて、給餌量の調整または最適化を図ることもできる。 Detecting abnormal behavior is also useful for detecting poor physical condition due to overfeeding. Therefore, it is possible to adjust or optimize the feeding amount based on the abnormal behavior detection result.

[10.情報処理方法]
図19は、本開示の情報処理方法の一例を示すフローチャートである。
[10. Information processing method]
FIG. 19 is a flow chart showing an example of the information processing method of the present disclosure.

ステップS1において、入力データ生成部11は、CGによって入力データTIDとなるシミュレーション画像SIを生成する。 In step S1, the input data generation unit 11 generates a simulation image SI as input data TID by CG.

ステップS2において、正解データ生成部12は、シミュレーションに用いたパラメータ情報に基づいてラベル情報を生成する。 In step S2, the correct data generation unit 12 generates label information based on the parameter information used in the simulation.

ステップS3において、正解データ生成部12は、シミュレーション画像SIとラベル情報とを含む正解データTODを生成する。 In step S3, the correct data generation unit 12 generates correct data TOD including the simulation image SI and label information.

ステップS4において、処理装置10は、入力データTIDおよび正解データTODをトレーニングデータとする機械学習に基づいて分析モデル21を生成する。 In step S4, the processing device 10 generates the analysis model 21 based on machine learning using the input data TID and the correct data TOD as training data.

ステップS5において、画像解析部13は、分析モデル21を用いて、撮影画像CIからラベル情報を抽出する。 In step S5, the image analysis unit 13 uses the analysis model 21 to extract label information from the captured image CI.

ステップS6において、画像解析部13は、抽出されたラベル情報から、必要なパラメータ情報を抽出する。 In step S6, the image analysis unit 13 extracts necessary parameter information from the extracted label information.

ステップS7において、画像解析部13で抽出されたパラメータ情報をシミュレーション部14に出力する。推定部15は、シミュレーション部14を用いて、抽出されたパラメータ情報に基づくシミュレーション画像SIを生成する。 In step S<b>7 , the parameter information extracted by the image analysis unit 13 is output to the simulation unit 14 . The estimation unit 15 uses the simulation unit 14 to generate a simulation image SI based on the extracted parameter information.

ステップS8において、推定部15は、シミュレーション画像SIと撮影画像CIとの差分を算出し、差分が予め設定された条件を満たさない場合には、パラメータ情報を補正してシミュレーション画像SIを生成する。推定部15は、差分が上記条件を満たすまでパラメータ情報の補正とシミュレーション画像SIの生成とを繰り返す。 In step S8, the estimation unit 15 calculates the difference between the simulation image SI and the captured image CI, and if the difference does not satisfy a preset condition, corrects the parameter information and generates the simulation image SI. The estimation unit 15 repeats the correction of the parameter information and the generation of the simulation image SI until the difference satisfies the above conditions.

ステップS9において、推定部15は、上記条件を満たすまで補正されたパラメータ情報に基づいて、必要な情報を推定する。 In step S9, the estimation unit 15 estimates necessary information based on the corrected parameter information until the above conditions are satisfied.

[11.ハードウェア構成]
図20は、情報処理装置1のハードウェア構成の一例を示す図である。
[11. Hardware configuration]
FIG. 20 is a diagram showing an example of the hardware configuration of the information processing device 1. As shown in FIG.

情報処理装置1は、例えば、図20に示すようなコンピュータシステム1000によって実現される。コンピュータシステム1000は、CPU1100、RAM1200、ROM1300、HDD1400、通信インターフェイス(I/F)1500、入出力インターフェイス(I/F)1600、及びメディアインターフェイス(I/F)1700を有する。 The information processing apparatus 1 is implemented by, for example, a computer system 1000 as shown in FIG. Computer system 1000 has CPU 1100 , RAM 1200 , ROM 1300 , HDD 1400 , communication interface (I/F) 1500 , input/output interface (I/F) 1600 and media interface (I/F) 1700 .

CPU1100は、ROM1300又はHDD1400に格納されたプログラムに基づいて動作し、各部の制御を行う。ROM1300は、コンピュータシステム1000の起動時にCPU1100によって実行されるブートプログラムや、コンピュータシステム1000のハードウェアに依存するプログラム等を格納する。 The CPU 1100 operates based on programs stored in the ROM 1300 or HDD 1400 and controls each section. The ROM 1300 stores a boot program executed by the CPU 1100 when the computer system 1000 is started, a program depending on the hardware of the computer system 1000, and the like.

HDD1400は、CPU1100によって実行されるプログラム、および、係るプログラムによって使用されるデータ等を格納する。通信インターフェイス1500は、通信網NWを介して他の機器からデータを受信してCPU1100へ送り、CPU1100が生成したデータを、通信網NWを介して他の機器へ送信する。 HDD 1400 stores programs executed by CPU 1100 and data used by such programs. Communication interface 1500 receives data from other devices via communication network NW, sends the data to CPU 1100, and transmits data generated by CPU 1100 to other devices via communication network NW.

CPU1100は、入出力インターフェイス1600を介して、ディスプレイやプリンタ等の出力装置、及び、キーボードやマウス等の入力装置を制御する。CPU1100は、入出力インターフェイス1600を介して、入力装置からデータを取得する。また、CPU1100は、生成したデータを、入出力インターフェイス1600を介して出力装置へ出力する。 The CPU 1100 controls output devices such as displays and printers, and input devices such as keyboards and mice, through an input/output interface 1600 . CPU 1100 acquires data from an input device via input/output interface 1600 . CPU 1100 also outputs the generated data to an output device via input/output interface 1600 .

メディアインターフェイス1700は、記録媒体1800に格納されたプログラム又はデータを読み取り、RAM1200を介してCPU1100に提供する。CPU1100は、係るプログラムを、メディアインターフェイス1700を介して記録媒体1800からRAM1200上にロードし、ロードしたプログラムを実行する。記録媒体1800は、例えばDVD(Digital Versatile Disc)、PD(Phase change rewritable Disk)等の光学記録媒体、MO(Magneto-Optical disk)等の光磁気記録媒体、テープ媒体、磁気記録媒体、または半導体メモリ等である。 Media interface 1700 reads programs or data stored in recording medium 1800 and provides them to CPU 1100 via RAM 1200 . CPU 1100 loads such a program from recording medium 1800 onto RAM 1200 via media interface 1700, and executes the loaded program. The recording medium 1800 is, for example, an optical recording medium such as a DVD (Digital Versatile Disc) or a PD (Phase change rewritable disk), a magneto-optical recording medium such as an MO (Magneto-Optical disk), a tape medium, a magnetic recording medium, or a semiconductor memory. etc.

例えば、コンピュータシステム1000が本開示の情報処理装置1として機能する場合、コンピュータシステム1000のCPU1100は、RAM1200上にロードされたプログラムを実行することにより、処理装置10の機能を実現する。HDD1400には、記憶装置20内のデータが格納される。コンピュータシステム1000のCPU1100は、これらのプログラムを、記録媒体1800から読み取って実行するが、他の例として、他の装置から、通信網NWを介してこれらのプログラムを取得してもよい。 For example, when the computer system 1000 functions as the information processing device 1 of the present disclosure, the CPU 1100 of the computer system 1000 implements the functions of the processing device 10 by executing programs loaded onto the RAM 1200 . Data in the storage device 20 is stored in the HDD 1400 . CPU 1100 of computer system 1000 reads and executes these programs from recording medium 1800, but as another example, these programs may be obtained from another device via communication network NW.

[12.効果]
上述したように、本開示の情報処理方法は、入力データ生成ステップと正解データ生成ステップとを有する。入力データ生成ステップは、入力データTIDとなるシミュレーション画像SIをコンピュータグラフィックスにより生成する。正解データ生成ステップは、シミュレーションに用いたパラメータ情報に基づいてラベル情報を生成し、シミュレーション画像とラベル情報とを含む正解データTODを生成する。本開示のプログラム29は、上述の情報処理をコンピュータに実現させる。本開示の情報処理装置1は、上述の情報処理を実施する。
[12. effect]
As described above, the information processing method of the present disclosure has an input data generation step and a correct data generation step. The input data generation step generates a simulation image SI as input data TID by computer graphics. The correct data generation step generates label information based on the parameter information used in the simulation, and generates correct data TOD including the simulation image and the label information. The program 29 of the present disclosure causes the computer to implement the information processing described above. The information processing device 1 of the present disclosure performs the information processing described above.

この構成によれば、シミュレーションに用いたパラメータ情報に基づいて正解データTODのラベル情報が生成される。そのため、ラベル情報の精度が高い。よって、精度のよいトレーニングデータが容易に生成される。 According to this configuration, the label information of the correct data TOD is generated based on the parameter information used in the simulation. Therefore, the accuracy of label information is high. Therefore, highly accurate training data can be easily generated.

本開示の情報処理方法は、分析モデル生成ステップを有する。分析モデル生成ステップは、入力データTIDおよび正解データTODをトレーニングデータとする機械学習に基づいて分析モデル21を生成する。 The information processing method of the present disclosure has an analysis model generation step. The analysis model generation step generates the analysis model 21 based on machine learning using the input data TID and the correct data TOD as training data.

この構成によれば、入力データTIDの生成に用いたCGの座標情報などは、ラベル情報に反映される。そのため、トレーニングによって得られた分析モデル21によって、撮影画像CIに写る個体OBの位置、形状および大きさ、および、群れFLKのパラメータ情報などが精度よく抽出される。 According to this configuration, CG coordinate information and the like used to generate the input data TID are reflected in the label information. Therefore, the analysis model 21 obtained by training accurately extracts the position, shape and size of the individual OB captured in the photographed image CI, parameter information of the flock FLK, and the like.

本開示の情報処理方法は、ラベル情報抽出ステップと、パラメータ情報抽出ステップと、シミュレーション画像生成ステップと、パラメータ情報補正ステップと、推定ステップと、を有する。ラベル情報抽出ステップは、分析モデル21を用いて撮影画像CIからラベル情報を抽出する。パラメータ情報抽出ステップは、ラベル情報に基づいてパラメータ情報を抽出する。シミュレーション画像生成ステップは、パラメータ情報に基づいてシミュレーション画像SIを生成する。パラメータ情報補正ステップは、シミュレーション画像と撮影画像CIとの差分が予め設定された条件を満たすまでパラメータ情報を補正する。推定ステップは、上記条件を満たすまで補正されたパラメータ情報に基づいて情報を推定する。 The information processing method of the present disclosure includes a label information extraction step, a parameter information extraction step, a simulation image generation step, a parameter information correction step, and an estimation step. The label information extraction step uses the analysis model 21 to extract label information from the captured image CI. The parameter information extraction step extracts parameter information based on the label information. The simulation image generation step generates a simulation image SI based on the parameter information. The parameter information correcting step corrects the parameter information until the difference between the simulation image and the captured image CI satisfies a preset condition. The estimation step estimates information based on the corrected parameter information until the above conditions are satisfied.

この構成によれば、分析モデル21を用いて抽出されたパラメータ情報は、シミュレーション画像SIと撮影画像CIとの差分の情報に基づいて補正される。そのため、実データ(撮影画像CI)と良好に整合するパラメータ情報が得られる。そして、補正されたパラメータ情報に基づいて必要な情報が推定されるため、情報の推定精度が高まる。 According to this configuration, the parameter information extracted using the analysis model 21 is corrected based on the difference information between the simulation image SI and the captured image CI. Therefore, parameter information that matches well with the actual data (captured image CI) can be obtained. Then, since the necessary information is estimated based on the corrected parameter information, the information estimation accuracy is enhanced.

シミュレーション画像SIは、群れFLKの統計的性質に基づく群れモデル23を用いて生成された群れFLKのシミュレーション画像である。ラベル情報は、群れモデル23に適用される群れFLKのパラメータ情報に基づいて生成される。 The simulation image SI is a simulation image of the flock FLK generated using the flock model 23 based on the statistical properties of the flock FLK. The label information is generated based on the flock FLK parameter information applied to the flock model 23 .

この構成によれば、群れFLKの撮影画像CIから群れFLKのパラメータ情報が精度よく抽出される。 According to this configuration, the parameter information of the flock FLK is accurately extracted from the photographed image CI of the flock FLK.

本開示の情報処理方法は、ラベル情報抽出ステップと、パラメータ情報抽出ステップと、推定ステップと、を有する。ラベル情報抽出ステップは、分析モデル21を用いて、群れFLKの撮影画像CIからラベル情報を抽出する。パラメータ情報抽出ステップは、抽出されたラベル情報に基づいて群れFLKのパラメータ情報を抽出する。推定ステップは、群れFLKのパラメータ情報に基づいて、群れFLKに含まれる個体OBの数を推定する。 The information processing method of the present disclosure has a label information extraction step, a parameter information extraction step, and an estimation step. The label information extraction step uses the analysis model 21 to extract label information from the photographed image CI of the flock FLK. The parameter information extraction step extracts parameter information of the flock FLK based on the extracted label information. The estimation step estimates the number of individuals OB included in the flock FLK based on the parameter information of the flock FLK.

この構成によれば、群れFLKの個体数が精度よく推定される。 According to this configuration, the population of the flock FLK can be estimated with high accuracy.

推定ステップは、シミュレーション画像生成ステップと、パラメータ情報補正ステップと、固定数推定ステップと、を有する。シミュレーション画像生成ステップは、群れFLKのパラメータ情報に基づいて群れFLKのシミュレーション画像SIを生成する。パラメータ情報補正ステップは、群れFLKのシミュレーション画像SI撮影画像CIとの差分が予め設定された条件を満たすまで群れFLKのパラメータ情報を補正する。固定数推定ステップは、上記条件を満たすまで補正された群れFLKのパラメータ情報に基づいて個体OBの数を推定する。 The estimation step has a simulation image generation step, a parameter information correction step, and a fixed number estimation step. The simulation image generation step generates a simulation image SI of the flock FLK based on the parameter information of the flock FLK. The parameter information correcting step corrects the parameter information of the flock FLK until the difference between the flock FLK and the simulation image SI photographed image CI satisfies a preset condition. The fixed number estimation step estimates the number of individuals OB based on the corrected parameter information of the flock FLK until the above conditions are satisfied.

この構成によれば、分析モデル21を用いて抽出されたパラメータ情報は、シミュレーション画像SIと撮影画像CIとの差分の情報に基づいて補正される。そのため、実データ(撮影画像CI)と良好に整合するパラメータ情報が得られる。そして、補正されたパラメータ情報に基づいて個体数が推定されるため、個体数が精度よく推定される。 According to this configuration, the parameter information extracted using the analysis model 21 is corrected based on the difference information between the simulation image SI and the captured image CI. Therefore, parameter information that matches well with the actual data (captured image CI) can be obtained. Since the number of individuals is estimated based on the corrected parameter information, the number of individuals can be estimated with high accuracy.

群れFLKのシミュレーション画像SIは給餌時の群れFLKのシミュレーション画像である。 A simulation image SI of the flock FLK is a simulation image of the flock FLK during feeding.

この構成によれば、捕食者モデルが適用される給餌時では、捕食者モデルが適用されない非給餌時に比べて、群れFLKの密度は低い。そのため、重なり合って見えない個体OBが少なくなる。よって、シミュレーション画像SIと撮影画像CIとの差分が精度よく検出されるようになり、個体数の推定精度も高まる。 According to this configuration, the density of the flock FLK is lower during feeding when the predator model is applied than during non-feeding when the predator model is not applied. As a result, the number of individuals OB that overlap and cannot be seen is reduced. Therefore, the difference between the simulation image SI and the photographed image CI can be detected with high accuracy, and the estimation accuracy of the number of individuals also increases.

シミュレーション画像SIは、個体OBの形態的特徴に基づく個体モデル24を用いて生成された個体OBのシミュレーション画像である。ラベル情報は、個体モデル24に適用される個体OBのパラメータ情報に基づいて生成される。 The simulation image SI is a simulation image of the individual OB generated using the individual model 24 based on the morphological features of the individual OB. Label information is generated based on parameter information of the individual OB applied to the individual model 24 .

この構成によれば、個体OBの撮影画像CIから個体OBのパラメータ情報が精度よく抽出される。 According to this configuration, the parameter information of the individual OB is accurately extracted from the photographed image CI of the individual OB.

本開示の情報処理方法は、ラベル情報抽出ステップと、パラメータ情報抽出ステップと、個体識別ステップと、を有する。ラベル情報抽出ステップは、分析モデル21を用いて、撮影画像CIから個々の個体OBのラベル情報を抽出する。パラメータ情報抽出ステップは、個体OBごとに、個体OBのラベル情報に基づいて個体OBのパラメータ情報を抽出する。個体識別ステップは、個々の個体OBのパラメータ情報に基づいて個々の個体OBを識別する。 The information processing method of the present disclosure has a label information extraction step, a parameter information extraction step, and an individual identification step. The label information extraction step uses the analysis model 21 to extract the label information of each individual OB from the photographed image CI. The parameter information extraction step extracts the parameter information of each individual OB based on the label information of the individual OB. The individual identification step identifies each individual OB based on the parameter information of each individual OB.

この構成によれば、個体OBが精度よく識別される。 According to this configuration, the individual OB is accurately identified.

識別ステップは、シミュレーション画像生成ステップと、パラメータ情報補正ステップと、個体識別ステップと、を有する。シミュレーション画像生成ステップは、個体OBのパラメータ情報に基づいて個体OBのシミュレーション画像SIを生成する。パラメータ情報補正ステップは、個体OBのシミュレーション画像SIと撮影画像CIとの差分が予め設定された条件を満たすまで個体OBのパラメータ情報を補正する。個体識別ステップは、上記条件を満たすまで補正された個体OBのパラメータ情報に基づいて個体OBを識別する。 The identification step has a simulation image generation step, a parameter information correction step, and an individual identification step. The simulation image generation step generates a simulation image SI of the individual OB based on the parameter information of the individual OB. The parameter information correcting step corrects the parameter information of the individual OB until the difference between the simulation image SI and the photographed image CI of the individual OB satisfies a preset condition. The individual identification step identifies the individual OB based on the corrected parameter information of the individual OB until the above conditions are satisfied.

この構成によれば、分析モデル21を用いて抽出されたパラメータ情報は、シミュレーション画像SIと撮影画像CIとの差分の情報に基づいて補正される。そのため、実データ(撮影画像CI)と良好に整合するパラメータ情報が得られる。そして、補正されたパラメータ情報に基づいて個体OBが識別されるため、個体OBの識別精度が高い。 According to this configuration, the parameter information extracted using the analysis model 21 is corrected based on the difference information between the simulation image SI and the captured image CI. Therefore, parameter information that matches well with the actual data (captured image CI) can be obtained. Since the individual OB is identified based on the corrected parameter information, the identification accuracy of the individual OB is high.

個体OBのパラメータ情報は、個体OBの筋骨格モデルに適用されるマッスルパラメータのパラメータ情報、および、個体OBの動作特徴量を示すパラメータ情報を含む。 The parameter information of the individual OB includes parameter information of muscle parameters applied to the musculoskeletal model of the individual OB and parameter information indicating the motion feature amount of the individual OB.

この構成によれば、個体OBの識別が個体OBの形態的特徴および動作の特徴の双方に基づいて精度よく行われる。 According to this configuration, individual OB can be identified with high accuracy based on both the morphological features and movement features of individual OB.

本開示の情報処理方法は、異常検出ステップを有する。異常検出ステップは、個体OBの撮影画像CIを異常行動モデル25に当てはめて個体OBの異常を検出する。 The information processing method of the present disclosure has an anomaly detection step. In the anomaly detection step, the photographed image CI of the individual OB is applied to the abnormal behavior model 25 to detect an anomaly of the individual OB.

この構成によれば、識別された個体OBの健康状態を把握することができる。 According to this configuration, it is possible to grasp the health condition of the identified individual OB.

正解データ生成ステップは、画像要素生成ステップと、補正画像生成ステップと、データ生成ステップと、を有する。画像要素生成ステップは、シミュレーションに用いられた個体OBの位置情報に基づいて、個体OBを識別するための画像要素IEを生成する。補正画像生成ステップは、シミュレーション画像SIに画像要素IEを付加した補正画像CSIを生成する。データ生成ステップは、補正画像CSIにラベル情報を付加して正解データTODを生成する。 The correct data generation step has an image element generation step, a corrected image generation step, and a data generation step. The image element generation step generates an image element IE for identifying the individual OB based on the positional information of the individual OB used in the simulation. The corrected image generation step generates a corrected image CSI by adding the image element IE to the simulation image SI. The data generation step adds label information to the corrected image CSI to generate correct data TOD.

この構成によれば、シミュレーション画像SIの適切な位置に精度よく画像要素IEが付加される。また、画像要素IEの付加作業が自動化されるため、正解データTODの生成作業が容易になる。 According to this configuration, the image element IE is accurately added to an appropriate position of the simulation image SI. In addition, since the work of adding the image element IE is automated, the work of generating the correct data TOD becomes easier.

画像要素は、個体OBを囲むフレーム要素、または、個体OBを色で識別するための色要素を含む。 The image element includes a frame element surrounding the individual OB or a color element for identifying the individual OB by color.

この構成によれば、個体OBが他の画像領域から明確に区別される。 With this configuration, the individual OB is clearly distinguished from other image regions.

本開示の情報処理方法は、画像要素付加ステップと、トラッキングステップと、を有する。画像要素付加ステップは、分析モデル21に撮影画像CIを適用して、撮影画像CIに写る個々の個体OBに画像要素IEを付加する。トラッキングステップは、各個体OBに付された画像要素IEに基づいて個々の個体OBを個別にトラッキングする。 The information processing method of the present disclosure has an image element adding step and a tracking step. The image element addition step applies the photographed image CI to the analysis model 21 and adds image elements IE to individual individuals OB captured in the photographed image CI. The tracking step individually tracks each individual OB based on the image element IE attached to each individual OB.

この構成によれば、画像要素IEを手掛かりとしてトラッキングを行いやすくなる。 This configuration facilitates tracking using the image element IE as a clue.

[13.その他]
図示した各装置の各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各装置の分散・統合の具体的形態は図示のものに限られず、その全部または一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散・統合して構成することができる。
[13. others]
Each component of each device illustrated is functionally conceptual, and does not necessarily need to be physically configured as illustrated. In other words, the specific form of distribution and integration of each device is not limited to the one shown in the figure, and all or part of them can be functionally or physically distributed and integrated in arbitrary units according to various loads and usage conditions. Can be integrated and configured.

以上、本願の実施形態をいくつかの図面に基づいて詳細に説明したが、これらは例示であり、発明の開示の欄に記載の態様を始めとして、当業者の知識に基づいて種々の変形、改良を施した他の形態で本発明を実施することが可能である。 As described above, the embodiments of the present application have been described in detail based on several drawings, but these are examples, and various modifications and It is possible to carry out the invention in other forms with modifications.

上記実施形態では、CGを用いたトレーニングデータの生成手法を説明したが、この手法は、上述した例に限らず、ありとあらゆるコンピュータビジョンの認識率の向上に寄与する。CGを用いた精巧な筋骨格シミュレーションの手法は、チョウザメに限らず、人および馬などにも適用できる。これにより、AI(Artificial Intelligence)を用いた上記手法を様々な分野へ広く適用することができる。 Although the method of generating training data using CG has been described in the above embodiment, this method contributes to improving the recognition rate of all types of computer vision, not limited to the examples described above. The elaborate musculoskeletal simulation method using CG can be applied not only to sturgeon but also to humans and horses. As a result, the above technique using AI (Artificial Intelligence) can be widely applied to various fields.

1 情報処理装置
21 分析モデル
23 群れモデル
24 個体モデル
25 異常行動モデル
29 プログラム
CI 撮影画像
CSI 補正画像
FLK 群れ
IE 画像要素
OB 個体
SI シミュレーション画像
TID 入力データ
TOD 正解データ
1 Information processing device 21 Analysis model 23 Group model 24 Individual model 25 Abnormal behavior model 29 Program CI Photographed image CSI Corrected image FLK Group IE Image element OB Individual SI Simulation image TID Input data TOD Correct data

Claims (9)

分析対象となる群れの性質を示すパラメータ情報を入力として前記群れのシミュレーションを行うことにより、前記群れをカメラアングルから見たシミュレーション画像を生成し、
前記シミュレーション画像に紐づくラベル情報を、当該シミュレーション画像が生成された際に入力された前記パラメータ情報に基づいて生成し、
前記シミュレーション画像と前記ラベル情報とに基づいて生成された正解データの束をトレーニングデータとする機械学習に基づいて分析モデルを生成し、
前記群れを撮影した撮影画像前記分析モデルとに基づいて前記撮影画像からパラメータ情報を抽出し、
前記撮影画像から抽出された前記パラメータ情報に基づいて前記シミュレーションを行うことにより、前記撮影画像と比較するための比較用シミュレーション画像を生成し、
前記比較用シミュレーション画像と前記撮影画像との差分が所定の条件を満たすまで、前記撮影画像から抽出された前記パラメータ情報を補正し、
補正された前記パラメータ情報に基づいて、前記撮影画像に写る前記群れに含まれる個体数を推定する、
コンピュータにより実行される情報処理方法。
generating a simulation image of the flock viewed from a camera angle by simulating the flock with input of parameter information indicating properties of the flock to be analyzed;
generating label information associated with the simulation image based on the parameter information input when the simulation image was generated;
generating an analysis model based on machine learning using a bundle of correct data generated based on the simulation image and the label information as training data;
extracting parameter information from the photographed image based on the photographed image of the flock and the analysis model;
performing the simulation based on the parameter information extracted from the captured image to generate a comparison simulation image for comparison with the captured image;
correcting the parameter information extracted from the captured image until the difference between the comparison simulation image and the captured image satisfies a predetermined condition;
estimating the number of individuals included in the herd in the captured image based on the corrected parameter information;
A computer-implemented information processing method.
魚群の性質を示すパラメータ情報を入力として前記魚群のシミュレーションを行うことにより、前記魚群をカメラアングルから見たシミュレーション画像を生成し、 generating a simulation image of the school of fish viewed from a camera angle by simulating the school of fish with input of parameter information indicating properties of the school of fish;
前記シミュレーション画像に紐づくラベル情報を、当該シミュレーション画像が生成された際に入力された前記パラメータ情報に基づいて生成し、 generating label information associated with the simulation image based on the parameter information input when the simulation image was generated;
前記シミュレーション画像と前記ラベル情報とに基づいて生成された正解データの束をトレーニングデータとする機械学習に基づいて分析モデルを生成し、 generating an analysis model based on machine learning using a bundle of correct data generated based on the simulation image and the label information as training data;
前記魚群を撮影した撮影画像と前記分析モデルとに基づいて前記撮影画像からラベル情報を抽出し、 extracting label information from the captured image based on the captured image of the fish school and the analysis model;
前記撮影画像から抽出されたラベル情報に基づいて、前記魚群に含まれる個体数を推定する推定ステップを実行し、 performing an estimation step of estimating the number of individuals included in the fish school based on the label information extracted from the captured image;
前記シミュレーションは、前記魚群を構成する魚が餌にどのように反応するかの観点を少なくとも含む、 The simulation includes at least the perspective of how the fish that make up the fish school react to food,
コンピュータにより実行される情報処理方法。 A computer-implemented information processing method.
魚群の性質を示すパラメータ情報を入力として前記魚群のシミュレーションを行うことにより、前記魚群をカメラアングルから見たシミュレーション画像を生成し、 generating a simulation image of the school of fish viewed from a camera angle by simulating the school of fish with input of parameter information indicating properties of the school of fish;
前記シミュレーション画像に紐づくラベル情報を、当該シミュレーション画像が生成された際に入力された前記パラメータ情報に基づいて生成し、 generating label information associated with the simulation image based on the parameter information input when the simulation image was generated;
前記シミュレーション画像と前記ラベル情報とに基づいて生成された正解データの束をトレーニングデータとする機械学習に基づいて分析モデルを生成し、 generating an analysis model based on machine learning using a bundle of correct data generated based on the simulation image and the label information as training data;
前記魚群を撮影した撮影画像と前記分析モデルとに基づいて前記撮影画像からラベル情報を抽出し、 extracting label information from the captured image based on the captured image of the fish school and the analysis model;
前記撮影画像から抽出されたラベル情報に基づいて、前記魚群に含まれる個体数を推定する推定ステップを実行し、 performing an estimation step of estimating the number of individuals included in the fish school based on the label information extracted from the captured image;
前記シミュレーションは、前記魚群を構成する魚の視野角の観点を少なくとも含む、 The simulation includes at least the viewpoint of the viewing angle of the fish that make up the school of fish,
コンピュータにより実行される情報処理方法。 A computer-implemented information processing method.
魚群の性質を示すパラメータ情報を入力として前記魚群のシミュレーションを行うことにより、前記魚群をカメラアングルから見たシミュレーション画像を生成し、 generating a simulation image of the school of fish viewed from a camera angle by simulating the school of fish with input of parameter information indicating properties of the school of fish;
前記シミュレーション画像に紐づくラベル情報を、当該シミュレーション画像が生成された際に入力された前記パラメータ情報に基づいて生成し、 generating label information associated with the simulation image based on the parameter information input when the simulation image was generated;
前記シミュレーション画像と前記ラベル情報とに基づいて生成された正解データの束をトレーニングデータとする機械学習に基づいて分析モデルを生成し、 generating an analysis model based on machine learning using a bundle of correct data generated based on the simulation image and the label information as training data;
前記魚群を撮影した撮影画像と前記分析モデルとに基づいて前記撮影画像からパラメータ情報を抽出し、 extracting parameter information from the captured image based on the captured image of the fish school and the analysis model;
前記撮影画像から抽出されたパラメータ情報に基づいて、前記魚群に含まれる個体数を推定する推定ステップを実行し、 performing an estimation step of estimating the number of individuals included in the fish school based on the parameter information extracted from the captured image;
前記パラメータ情報は、少なくとも、前記魚群における混雑領域の大きさを含み、前記混雑領域の大きさは魚群を構成する魚種によって異なるパラメータである、 The parameter information includes at least the size of the crowded area in the school of fish, and the size of the crowded area is a parameter that varies depending on the species of fish that make up the school of fish.
コンピュータにより実行される情報処理方法。 A computer-implemented information processing method.
コンピュータに請求項1ないし4のいずれか1項に記載の情報処理方法を実行させるプログラム。 A program that causes a computer to execute the information processing method according to any one of claims 1 to 4. 分析対象となる群れの性質を示すパラメータ情報を入力として前記群れのシミュレーションを行うことにより、前記群れをカメラアングルから見たシミュレーション画像を生成するシミュレーション部と、
前記シミュレーション画像に紐づくラベル情報を、当該シミュレーション画像が生成された際に入力された前記パラメータ情報に基づいて生成する正解データ生成部と、
前記シミュレーション画像と前記ラベル情報とに基づいて生成された正解データの束をトレーニングデータとする機械学習に基づいて生成された分析モデル、前記群れを撮影した撮影画像と、に基づいて、前記撮影画像からパラメータ情報を抽出する画像解析部と、
前記撮影画像から抽出されたパラメータ情報に基づいて、前記撮影画像に写る前記群れに含まれる個体数を推定する推定部と、
を有
前記推定部は、
前記撮影画像から抽出された前記パラメータ情報に基づいて前記シミュレーションを行うことにより、前記撮影画像と比較するための比較用シミュレーション画像を生成し、
前記比較用シミュレーション画像と前記撮影画像との差分が所定の条件を満たすまで、前記撮影画像から抽出された前記パラメータ情報を補正し、
補正された前記パラメータ情報に基づいて、前記撮影画像に写る前記群れに含まれる個体数を推定する、
情報処理装置。
a simulation unit that generates a simulation image of the flock viewed from a camera angle by simulating the flock with input of parameter information indicating properties of the flock to be analyzed;
a correct data generation unit that generates label information associated with the simulation image based on the parameter information that was input when the simulation image was generated;
Based on an analysis model generated based on machine learning using a bundle of correct data generated based on the simulation image and the label information as training data , and a photographed image of the flock, the photographed an image analysis unit that extracts parameter information from an image;
an estimating unit that estimates the number of individuals included in the herd in the captured image based on the parameter information extracted from the captured image;
has
The estimation unit
performing the simulation based on the parameter information extracted from the captured image to generate a comparison simulation image for comparison with the captured image;
correcting the parameter information extracted from the captured image until the difference between the comparison simulation image and the captured image satisfies a predetermined condition;
estimating the number of individuals included in the herd in the captured image based on the corrected parameter information;
Information processing equipment.
魚群の性質を示すパラメータ情報を入力として前記魚群のシミュレーションを行うことにより、前記魚群をカメラアングルから見たシミュレーション画像を生成するシミュレーション部と、 a simulation unit that generates a simulation image of the school of fish viewed from a camera angle by simulating the school of fish with input of parameter information indicating the properties of the school of fish;
前記シミュレーション画像に紐づくラベル情報を、当該シミュレーション画像が生成された際に入力された前記パラメータ情報に基づいて生成する正解データ生成部と、 a correct data generation unit that generates label information associated with the simulation image based on the parameter information that was input when the simulation image was generated;
前記シミュレーション画像と前記ラベル情報とに基づいて生成された正解データの束をトレーニングデータとする機械学習に基づいて生成された分析モデルと、前記魚群を撮影した撮影画像と、に基づいて、前記撮影画像からラベル情報を抽出する画像解析部と、 Based on an analysis model generated based on machine learning using a bundle of correct data generated based on the simulation image and the label information as training data, and a captured image of the school of fish, an image analysis unit that extracts label information from an image;
前記撮影画像から抽出されたラベル情報に基づいて、前記魚群に含まれる個体数を推定する推定部と、 an estimation unit that estimates the number of individuals included in the fish school based on the label information extracted from the captured image;
を有し、 has
前記シミュレーションは、前記魚群を構成する魚が餌にどのように反応するかの観点を少なくとも含む、 The simulation includes at least the perspective of how the fish that make up the fish school react to food,
情報処理装置。 Information processing equipment.
魚群の性質を示すパラメータ情報を入力として前記魚群のシミュレーションを行うことにより、前記魚群をカメラアングルから見たシミュレーション画像を生成するシミュレーション部と、 a simulation unit that generates a simulation image of the school of fish viewed from a camera angle by simulating the school of fish with input of parameter information indicating the properties of the school of fish;
前記シミュレーション画像に紐づくラベル情報を、当該シミュレーション画像が生成された際に入力された前記パラメータ情報に基づいて生成する正解データ生成部と、 a correct data generation unit that generates label information associated with the simulation image based on the parameter information that was input when the simulation image was generated;
前記シミュレーション画像と前記ラベル情報とに基づいて生成された正解データの束をトレーニングデータとする機械学習に基づいて生成された分析モデルと、前記魚群を撮影した撮影画像と、に基づいて、前記撮影画像からラベル情報を抽出する画像解析部と、 Based on an analysis model generated based on machine learning using a bundle of correct data generated based on the simulation image and the label information as training data, and a captured image of the school of fish, an image analysis unit that extracts label information from an image;
前記撮影画像から抽出されたラベル情報に基づいて、前記魚群に含まれる個体数を推定する推定部と、 an estimation unit that estimates the number of individuals included in the fish school based on the label information extracted from the captured image;
を有し、 has
前記シミュレーションは、前記魚群を構成する魚の視野角の観点を少なくとも含む、 The simulation includes at least the viewpoint of the viewing angle of the fish that make up the school of fish,
情報処理装置。 Information processing equipment.
魚群の性質を示すパラメータ情報を入力として前記魚群のシミュレーションを行うことにより、前記魚群をカメラアングルから見たシミュレーション画像を生成するシミュレーション部と、 a simulation unit that generates a simulation image of the school of fish viewed from a camera angle by simulating the school of fish with input of parameter information indicating the properties of the school of fish;
前記シミュレーション画像に紐づくラベル情報を、当該シミュレーション画像が生成された際に入力された前記パラメータ情報に基づいて生成する正解データ生成部と、 a correct data generation unit that generates label information associated with the simulation image based on the parameter information that was input when the simulation image was generated;
前記シミュレーション画像と前記ラベル情報とに基づいて生成された正解データの束をトレーニングデータとする機械学習に基づいて生成された分析モデルと、前記魚群を撮影した撮影画像と、に基づいて、前記撮影画像からパラメータ情報を抽出する画像解析部と、 Based on an analysis model generated based on machine learning using a bundle of correct data generated based on the simulation image and the label information as training data, and a captured image of the school of fish, an image analysis unit that extracts parameter information from an image;
前記撮影画像から抽出されたパラメータ情報に基づいて、前記魚群に含まれる個体数を推定する推定部と、 an estimation unit that estimates the number of individuals included in the fish school based on the parameter information extracted from the captured image;
を有し、 has
前記パラメータ情報は、少なくとも、前記魚群における混雑領域の大きさを含み、前記混雑領域の大きさは魚群を構成する魚種によって異なるパラメータである、 The parameter information includes at least the size of the crowded area in the school of fish, and the size of the crowded area is a parameter that varies depending on the species of fish that make up the school of fish.
情報処理装置。 Information processing equipment.
JP2022125232A 2020-09-28 2022-08-05 Information processing method, program and information processing device Active JP7265672B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2022125232A JP7265672B2 (en) 2020-09-28 2022-08-05 Information processing method, program and information processing device

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2020162573A JP7121781B2 (en) 2020-09-28 2020-09-28 Information processing method, program and information processing device
JP2022125232A JP7265672B2 (en) 2020-09-28 2022-08-05 Information processing method, program and information processing device

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2020162573A Division JP7121781B2 (en) 2020-09-28 2020-09-28 Information processing method, program and information processing device

Publications (2)

Publication Number Publication Date
JP2022140776A JP2022140776A (en) 2022-09-27
JP7265672B2 true JP7265672B2 (en) 2023-04-26

Family

ID=87852903

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022125232A Active JP7265672B2 (en) 2020-09-28 2022-08-05 Information processing method, program and information processing device

Country Status (1)

Country Link
JP (1) JP7265672B2 (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003208561A (en) 2002-01-15 2003-07-25 Digial Media Factory Inc Behavior simulation system, simulation method and program
WO2014207991A1 (en) 2013-06-28 2014-12-31 日本電気株式会社 Teaching data generating device, method, and program, and crowd state recognition device, method, and program
JP2015528614A (en) 2012-09-12 2015-09-28 アビギロン フォートレス コーポレイションAvigilon Fortress Corporation Method, apparatus and system for detecting an object in a video
WO2017122258A1 (en) 2016-01-12 2017-07-20 株式会社日立国際電気 Congestion-state-monitoring system
WO2020105146A1 (en) 2018-11-21 2020-05-28 日本電気株式会社 Information processing device, control method, and program

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003208561A (en) 2002-01-15 2003-07-25 Digial Media Factory Inc Behavior simulation system, simulation method and program
JP2015528614A (en) 2012-09-12 2015-09-28 アビギロン フォートレス コーポレイションAvigilon Fortress Corporation Method, apparatus and system for detecting an object in a video
WO2014207991A1 (en) 2013-06-28 2014-12-31 日本電気株式会社 Teaching data generating device, method, and program, and crowd state recognition device, method, and program
WO2017122258A1 (en) 2016-01-12 2017-07-20 株式会社日立国際電気 Congestion-state-monitoring system
WO2020105146A1 (en) 2018-11-21 2020-05-28 日本電気株式会社 Information processing device, control method, and program

Also Published As

Publication number Publication date
JP2022140776A (en) 2022-09-27

Similar Documents

Publication Publication Date Title
US11594058B2 (en) Entity identification using machine learning
WO2022065020A1 (en) Information processing method, program, and information processing device
Wongsriworaphon et al. An approach based on digital image analysis to estimate the live weights of pigs in farm environments
Wang et al. ASAS-NANP SYMPOSIUM: Applications of machine learning for livestock body weight prediction from digital images
Pinkiewicz et al. A computer vision system to analyse the swimming behaviour of farmed fish in commercial aquaculture facilities: a case study using cage-held Atlantic salmon
JP6065427B2 (en) Object tracking method and object tracking apparatus
CN105022982B (en) Hand motion recognition method and apparatus
JP7470203B2 (en) Analysis and selection in aquaculture
CN109068613B (en) Health state estimation device
US20220358265A1 (en) Realistic plant growth modeling
Lantsova et al. Using low-quality video sequences for fish detection and tracking
Gan et al. Fast and accurate detection of lactating sow nursing behavior with CNN-based optical flow and features
Amraei et al. Development of a transfer function for weight prediction of live broiler chicken using machine vision
Lu et al. Extracting body surface dimensions from top-view images of pigs
Li et al. hSMAL: Detailed horse shape and pose reconstruction for motion pattern recognition
JP7265672B2 (en) Information processing method, program and information processing device
CN114155377A (en) Poultry self-adaptive feeding method based on artificial intelligence and growth cycle analysis
Barry et al. Virtual photography using multi-objective particle swarm optimization
JP2020106422A (en) Weight estimation device, weight estimation method, and program
US20230048582A1 (en) Non-transitory computer readable storage, estimation method, and information processing device
Lapico et al. Using image processing to automatically measure pearl oyster size for selective breeding
Joo et al. Birds' Eye View: Measuring Behavior and Posture of Chickens as a Metric for Their Well-Being
WO2022154050A1 (en) Information processing program and information processing device
EP4305958A1 (en) Information processing program, information processing method, and information processing device
WO2022171267A1 (en) System, method, and computer executable code for organism quantification

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220902

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220902

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20220902

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221122

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20230118

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230201

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230328

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230414

R150 Certificate of patent or registration of utility model

Ref document number: 7265672

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150