JP2023162785A - Information processing program, information processing device, and information processing method - Google Patents
Information processing program, information processing device, and information processing method Download PDFInfo
- Publication number
- JP2023162785A JP2023162785A JP2022073423A JP2022073423A JP2023162785A JP 2023162785 A JP2023162785 A JP 2023162785A JP 2022073423 A JP2022073423 A JP 2022073423A JP 2022073423 A JP2022073423 A JP 2022073423A JP 2023162785 A JP2023162785 A JP 2023162785A
- Authority
- JP
- Japan
- Prior art keywords
- target
- underwater
- brightness value
- image
- distance
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000010365 information processing Effects 0.000 title claims abstract description 104
- 238000003672 processing method Methods 0.000 title claims description 8
- 238000000034 method Methods 0.000 claims abstract description 35
- 241000251468 Actinopterygii Species 0.000 claims description 160
- 238000003384 imaging method Methods 0.000 claims description 89
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 claims description 60
- 239000003086 colorant Substances 0.000 claims description 22
- 238000005259 measurement Methods 0.000 description 24
- 238000010586 diagram Methods 0.000 description 19
- 238000010801 machine learning Methods 0.000 description 14
- 238000004891 communication Methods 0.000 description 10
- 238000012986 modification Methods 0.000 description 10
- 230000004048 modification Effects 0.000 description 10
- 238000012549 training Methods 0.000 description 10
- 230000006870 function Effects 0.000 description 7
- 241000894007 species Species 0.000 description 7
- 238000002474 experimental method Methods 0.000 description 6
- 230000002238 attenuated effect Effects 0.000 description 5
- 238000005516 engineering process Methods 0.000 description 5
- 238000012545 processing Methods 0.000 description 5
- 229930002875 chlorophyll Natural products 0.000 description 4
- 235000019804 chlorophyll Nutrition 0.000 description 4
- ATNHDLDRLWWWCB-AENOIHSZSA-M chlorophyll a Chemical compound C1([C@@H](C(=O)OC)C(=O)C2=C3C)=C2N2C3=CC(C(CC)=C3C)=[N+]4C3=CC3=C(C=C)C(C)=C5N3[Mg-2]42[N+]2=C1[C@@H](CCC(=O)OC\C=C(/C)CCC[C@H](C)CCC[C@H](C)CCCC(C)C)[C@H](C)C2=C5 ATNHDLDRLWWWCB-AENOIHSZSA-M 0.000 description 4
- 241000195493 Cryptophyta Species 0.000 description 3
- 238000009372 pisciculture Methods 0.000 description 3
- 238000010521 absorption reaction Methods 0.000 description 2
- 239000005441 aurora Substances 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 238000005401 electroluminescence Methods 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 230000001902 propagating effect Effects 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- -1 algae Chemical compound 0.000 description 1
- 238000009360 aquaculture Methods 0.000 description 1
- 244000144974 aquaculture Species 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01B—MEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
- G01B11/00—Measuring arrangements characterised by the use of optical techniques
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01B—MEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
- G01B11/00—Measuring arrangements characterised by the use of optical techniques
- G01B11/02—Measuring arrangements characterised by the use of optical techniques for measuring length, width or thickness
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C3/00—Measuring distances in line of sight; Optical rangefinders
- G01C3/02—Details
- G01C3/06—Use of electric means to obtain final indication
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01N—INVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
- G01N21/00—Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
- G01N21/17—Systems in which incident light is modified in accordance with the properties of the material investigated
Landscapes
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Chemical & Material Sciences (AREA)
- Analytical Chemistry (AREA)
- Biochemistry (AREA)
- General Health & Medical Sciences (AREA)
- Immunology (AREA)
- Pathology (AREA)
- Electromagnetism (AREA)
- Engineering & Computer Science (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Image Processing (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Measurement Of Optical Distance (AREA)
- Investigating Or Analysing Materials By Optical Means (AREA)
Abstract
Description
本発明は、情報処理プログラム、情報処理装置及び情報処理方法に関する。 The present invention relates to an information processing program, an information processing device, and an information processing method.
従来、画像(静止画像または動画像)に写っている対象物を識別する画像認識技術が知られている。例えば、魚の養殖技術を向上させるために、生簀内の魚の画像をカメラによって撮像し、撮像された画像を解析することにより生簀内の魚の数(以下、尾数ともいう)を推定する技術が知られている。 2. Description of the Related Art Image recognition techniques for identifying objects in images (still images or moving images) are conventionally known. For example, in order to improve fish farming technology, there is a known technology that estimates the number of fish in a cage (hereinafter also referred to as the number of fish) by capturing images of fish in a cage with a camera and analyzing the captured images. ing.
画像から水中の対象物に関する情報を精度よく推定する技術が求められている。 There is a need for technology that can accurately estimate information about underwater objects from images.
本願は、上記に鑑みてなされたものであって、画像から水中の対象物に関する情報を精度よく推定することができる情報処理プログラム、情報処理装置及び情報処理方法を提供することを目的とする。 The present application has been made in view of the above, and aims to provide an information processing program, an information processing device, and an information processing method that can accurately estimate information regarding an underwater object from an image.
本願に係る情報処理プログラムは、光源の光を照射された水中の参照物体を含む参照画像であって、前記水中の撮像装置により撮像された参照画像のうち、前記参照物体が占める物体領域における輝度値である参照輝度値と、前記撮像装置から前記参照物体までの距離である参照距離との関係性を示す参照情報、および、前記光源の光を照射された前記水中の対象物を含む対象画像であって、前記水中の前記撮像装置により撮像された対象画像を取得する取得手順と、前記対象画像のうち、前記対象物が占める対象物領域における輝度値である対象輝度値と、前記参照情報との比較に基づいて、前記撮像装置から前記対象物までの距離である対象距離を推定する推定手順と、をコンピュータに実行させる。 The information processing program according to the present application provides a reference image including an underwater reference object irradiated with light from a light source, the brightness of an object area occupied by the reference object in the reference image captured by the underwater imaging device. reference information indicating a relationship between a reference brightness value, which is a value, and a reference distance, which is a distance from the imaging device to the reference object; and a target image including the underwater target irradiated with light from the light source. an acquisition procedure for acquiring a target image captured by the imaging device underwater; a target brightness value that is a brightness value in a target area occupied by the target object in the target image; and the reference information. an estimation procedure for estimating a target distance, which is a distance from the imaging device to the target object, based on a comparison with the target object.
実施形態の一態様によれば、画像から水中の対象物に関する情報を精度よく推定することができるといった効果を奏する。 According to one aspect of the embodiment, it is possible to accurately estimate information regarding an underwater object from an image.
以下に、本願に係る情報処理プログラム、情報処理装置及び情報処理方法を実施するための形態(以下、「実施形態」と呼ぶ)について図面を参照しつつ詳細に説明する。なお、この実施形態により本願に係る情報処理プログラム、情報処理装置及び情報処理方法が限定されるものではない。また、以下の各実施形態において同一の部位には同一の符号を付し、重複する説明は省略される。 DESCRIPTION OF THE PREFERRED EMBODIMENTS Hereinafter, embodiments (hereinafter referred to as "embodiments") for implementing an information processing program, an information processing apparatus, and an information processing method according to the present application will be described in detail with reference to the drawings. Note that the information processing program, information processing apparatus, and information processing method according to the present application are not limited to this embodiment. Further, in each of the embodiments below, the same parts are given the same reference numerals, and redundant explanations will be omitted.
(実施形態)
〔1.はじめに〕
近年、魚の養殖は、地球の食糧問題を解決する手段として注目されている。魚の養殖によって高品質な魚を供給するには、給餌(魚に対する餌やり)と関わりが深い魚の数(尾数)や魚の大きさを正確に知ることが重要である。
(Embodiment)
[1. Introduction]
In recent years, fish farming has attracted attention as a means to solve global food problems. In order to supply high-quality fish through fish farming, it is important to accurately know the number of fish (number of fish) and the size of the fish, which are closely related to feeding (feeding the fish).
しかしながら、養殖場の水中という特殊な環境下では、地上のIT技術を活用することが難しい場合がある。そのため、従来は、人が網で一部の魚をすくい上げて魚の数(尾数)や魚の大きさを計量した後に、目視で尾数を数えていた。この方法は、魚への負担が大きいうえ、正確さに欠けるといった問題がある。 However, in the unique underwater environment of aquaculture farms, it may be difficult to utilize terrestrial IT technology. Therefore, in the past, people scooped up some fish with a net, measured the number of fish (number of fish) and the size of the fish, and then counted the number of fish visually. This method has problems in that it puts a heavy burden on the fish and lacks accuracy.
そこで近年、コンピュータビジョンを用いて生簀内の魚の群れを撮像した画像から尾数や魚の大きさを自動で検出する方法が注目を浴びている。具体例には、画像から尾数や魚の大きさを推定するよう画像認識用の機械学習モデルを学習する方法である。しかしながら、機械学習モデルを用いて画像から尾数や魚の大きさを精度よく推定するには、質の高いトレーニングデータを大量に機械学習モデルに学習させる必要がある。例えば、機械学習モデルのトレーニングデータとして、生簀内の魚の群れなどの水中の魚を撮像した画像と、画像中の各魚の位置や大きさを示す正解データとの組が用いられる。この場合、トレーニングデータの質が高いことは、画像中の魚の位置や大きさを示す正解データの精度が高いことを指す。 Therefore, in recent years, methods that use computer vision to automatically detect the number of fish and the size of fish from images of schools of fish in cages have been attracting attention. A specific example is a method in which a machine learning model for image recognition is trained to estimate the number of fish and the size of fish from images. However, in order to accurately estimate the number of fish and the size of fish from images using a machine learning model, it is necessary for the machine learning model to learn a large amount of high-quality training data. For example, as training data for a machine learning model, a set of an image of underwater fish such as a school of fish in a cage and correct data indicating the position and size of each fish in the image is used. In this case, the high quality of the training data means that the accuracy of the correct data indicating the position and size of the fish in the image is high.
ここで、一般的に、水中を伝搬する光は、水による散乱や吸収により減衰を起こすため、遠くへ届かないことが知られている。例えば、可視光線(波長約380~780nm)のうち、特に赤色~橙色領域の波長に吸収帯があり、エネルギーが吸収されることが知られている。このため、赤色の光は、水深10mでは、ほぼ100%失われることが知られている。また、青色光でも、水深20mで約50%程度のエネルギーが吸収されてしまうことが知られている。このように、水中では赤色成分が早く失われるので、水は青色に見える。 Here, it is generally known that light propagating in water does not reach far because it is attenuated due to scattering and absorption by the water. For example, it is known that among visible light (wavelengths of about 380 to 780 nm), there is an absorption band particularly in the red to orange wavelength range, and energy is absorbed. For this reason, it is known that almost 100% of red light is lost at a depth of 10 meters. It is also known that approximately 50% of the energy of blue light is absorbed at a depth of 20 meters. In this way, the red component is quickly lost in water, so the water appears blue.
図1は、水中における色の減衰率について説明するための図である。図1示すグラフは、水中における赤色、緑色および青色に対応する波長の光(以下、赤色の光、緑色の光および青色の光ともいう)の強度と、光の強度を計測する計測機器から光源までの距離との関係を示す。図1に示すように、赤色の光、緑色の光および青色の光のいずれも、計測機器から光源までの距離が大きくなるほど光の強度が小さくなる様子がわかる。また、図1のグラフから、緑色の光および青色の光と比べて、赤色の光(波長の長い光)は特に減衰しやすいことがわかる。 FIG. 1 is a diagram for explaining the color attenuation rate in water. The graph shown in Figure 1 shows the intensity of light with wavelengths corresponding to red, green, and blue (hereinafter also referred to as red light, green light, and blue light) in water, and the light source from the measuring equipment that measures the light intensity. This shows the relationship with the distance to. As shown in FIG. 1, it can be seen that the intensity of the red light, green light, and blue light decreases as the distance from the measuring instrument to the light source increases. Moreover, from the graph of FIG. 1, it can be seen that red light (light with a long wavelength) is particularly easily attenuated compared to green light and blue light.
上述したように、水中を伝搬する光は減衰しやすいため、一般的に、水中の対象物を撮像した画像は、空中の対象物を撮像した画像と比べると、対象物を視認しにくい。そのため、例えば、空気中の対象物を撮像した画像から、画像中の対象物の位置や大きさを認識することと比べると、水中の対象物を撮像した画像から、画像中の対象物の位置や大きさを推定することは困難である。特に、水中の対象物を撮像した画像から、画像中の対象物の奥行方向の位置(または、撮像装置から水中の対象物までの距離)を精度よく推定することは非常に困難である。これにより、水中の対象物を撮像した画像に対して、画像中の対象物の位置や大きさに関する質の高い正解データを付与することは難しい。したがって、質の高いトレーニングデータを得ることは難しい。 As described above, since light propagating through water is easily attenuated, it is generally difficult to visually recognize an object in an image of an object underwater than in an image of an object in the air. Therefore, for example, compared to recognizing the position and size of an object in an image from an image taken of an object in the air, it is much easier to recognize the position and size of an object in an image from an image taken of an object underwater. It is difficult to estimate the size and size. In particular, it is very difficult to accurately estimate the position of the object in the depth direction (or the distance from the imaging device to the underwater object) from an image of the object underwater. As a result, it is difficult to provide high-quality correct data regarding the position and size of the object in the image to an image of the object underwater. Therefore, it is difficult to obtain high quality training data.
そこで、画像に含まれる水中の魚の奥行方向の位置(または、撮像装置から水中の魚までの距離)を精度よく認識する技術が求められている。例えば、撮像装置外の他のセンサを用いて、水中の魚の奥行方向の位置を検出し、水中の魚の奥行方向の位置情報を補完する方法が考えられる。しかしながら、水中では、空気中で有用な手法のほとんどが使用できない。例えば、LiDAR(Light Detection And Ranging)センサの光は、空気中と比べて、水中ではほとんど届かない。また、超音波センサは、水中の魚の群れ(魚群ともいう)を見つけるには向いているが、魚群の尾数をカウントするには、解像度が低い。 Therefore, there is a need for a technology that accurately recognizes the position of the underwater fish included in the image in the depth direction (or the distance from the imaging device to the underwater fish). For example, a method can be considered in which the position of a fish in the water in the depth direction is detected using another sensor outside the imaging device, and the position information in the depth direction of the fish in the water is complemented. However, most of the techniques useful in air cannot be used underwater. For example, the light from a LiDAR (Light Detection And Ranging) sensor hardly reaches underwater than it does in the air. Furthermore, ultrasonic sensors are suitable for finding schools of fish (also called schools of fish) in the water, but their resolution is low for counting the number of fish in schools of fish.
これに対し、実施形態に係る情報処理装置100は、水中に位置する、魚の体の表面を模した物体(以下、参照物体ともいう)を撮像した画像のうち、参照物体が撮像された物体領域における輝度値(以下、参照輝度値ともいう)と、画像が撮像された際の撮像装置から参照物体までの距離(以下、参照距離ともいう)との関係性を示す参照情報を取得する。また、情報処理装置100は、水中の魚を撮像した画像(以下、対象画像ともいう)を取得する。そして、情報処理装置100は、取得した対象画像のうち、魚が撮像された領域(以下、対象物領域ともいう)における輝度値(以下、対象輝度値ともいう)と、取得した参照情報との比較に基づいて、対象画像が撮像された際の撮像装置から魚までの距離(以下、対象距離ともいう)を推定する。具体的には、情報処理装置100は、参照情報に基づいて、対象輝度値と同じ参照輝度値に対応する参照距離を特定し、特定した参照距離を対象距離として推定する。
On the other hand, the
これにより、情報処理装置100は、撮像装置から水中の魚までの距離を精度よく推定することができる。また、情報処理装置100は、撮像装置から水中の魚までの距離を精度よく推定することができるので、例えば、水中の魚を撮像した画像に対して、画像中の魚の位置や大きさに関する質の高い正解データを付与可能とすることができる。すなわち、情報処理装置100は、例えば、質の高い正解データを付与された質の高いトレーニングデータを得ることができる。さらに、情報処理装置100は、質の高いトレーニングデータを得ることができるので、例えば、質の高いトレーニングデータを用いて、画像から水中の魚に関する情報を推定する画像認識用の機械学習モデルの学習精度を向上させることができる。したがって、情報処理装置100は、画像から水中の魚に関する情報を精度よく推定することができる。
Thereby, the
なお、上記では、対象画像が、水中の魚を撮像した画像である場合について説明したが、対象画像の撮像対象(以下、対象物ともいう)は水中の魚に限られない。例えば、対象物は、魚以外の他の生物であってもよい。ここで、対象物が、魚以外の他の生物である場合、参照物体は、魚の体の表面を模した物体の代わりに、魚以外の他の生物の体の表面を模した物体に置き換えられる。また、対象物は、生物に限られない。例えば、対象物は、生物以外の物体であってもよい。ここで、対象物が、生物以外の物体である場合、参照物体は、生物の体の表面を模した物体の代わりに、生物以外の物体の表面を模した物体に置き換えられる。 In addition, although the case where the target image is an image of a fish in the water has been described above, the imaging target (hereinafter also referred to as a target object) of the target image is not limited to a fish in the water. For example, the object may be a living thing other than a fish. Here, if the target object is a living creature other than a fish, the reference object is replaced with an object that mimics the surface of the body of the other living creature, instead of an object that mimics the surface of the fish's body. . Furthermore, the target object is not limited to living things. For example, the target object may be an object other than a living thing. Here, when the target object is a non-living object, the reference object is replaced with an object that imitates the surface of the non-living object instead of an object that imitates the surface of the biological body.
〔2.参照情報の取得方法〕
図2は、実施形態に係る参照情報の取得方法について説明するための図である。図2では、参照物体O1、カメラC1(撮像装置の一例)および光源L1が、生簀などの水中に位置する様子を示す。光源L1は、水中の参照物体O1に対して光を照射する。カメラC1は、光源L1の光を照射された水中の参照物体O1の画像(参照画像)を撮像する。参照画像が撮像された際のカメラC1から水中の参照物体O1までの距離をzとすると、カメラC1はzの値を変えながら、光源L1の光を照射された水中の参照物体O1を撮像する。すなわち、カメラC1は、参照物体O1から遠ざかる方向へ移動しながら、光源L1の光を照射された水中の参照物体O1の画像(参照画像)を撮像する。
[2. How to obtain reference information〕
FIG. 2 is a diagram for explaining a reference information acquisition method according to the embodiment. FIG. 2 shows a state in which a reference object O1, a camera C1 (an example of an imaging device), and a light source L1 are located in water such as a fish preserve. The light source L1 irradiates light onto the underwater reference object O1. Camera C1 captures an image (reference image) of underwater reference object O1 irradiated with light from light source L1. If the distance from the camera C1 to the underwater reference object O1 when the reference image is captured is z, then the camera C1 images the underwater reference object O1 irradiated with light from the light source L1 while changing the value of z. . That is, the camera C1 captures an image (reference image) of the underwater reference object O1 irradiated with light from the light source L1 while moving in a direction away from the reference object O1.
また、一般的に、魚の鱗の種類によって、魚の表面による光の反射率が異なることが知られている。そのため、参照物体O1の表面には、対象となる魚の種類に応じた魚の鱗(鱗の模型または実物の鱗)が貼り付けられている。また、多くの魚の体は、左右に平たい形をしている。そのため、魚の表面による光の反射は、平面状の物体の表面による光の反射に類似すると考えられる。そこで、図2に示す例では、参照物体O1が平面状(板状ともいう)であり、平面状の参照物体O1を横から見た様子を示す。図2では、カメラC1が参照物体O1を仰ぐ向きは、参照物体O1の法線方向と一致する。すなわち、参照物体O1の面は、カメラC1の真正面に位置する。 Furthermore, it is generally known that the reflectance of light on the surface of a fish varies depending on the type of fish scales. Therefore, fish scales (scale models or real scales) depending on the type of target fish are pasted on the surface of the reference object O1. Also, the bodies of many fish are flat on both sides. Therefore, the reflection of light by the surface of a fish is considered to be similar to the reflection of light by the surface of a flat object. Therefore, in the example shown in FIG. 2, the reference object O1 is planar (also referred to as plate-like), and the planar reference object O1 is shown from the side. In FIG. 2, the direction in which the camera C1 looks up at the reference object O1 coincides with the normal direction of the reference object O1. That is, the surface of the reference object O1 is located directly in front of the camera C1.
また、図2では、光源L1は、カメラC1の筐体の下部に備えられる。なお、光源L1は、カメラC1の筐体の上部に備えられてもよい。また、光源L1は、光源L1が光を照射する向きが、カメラC1が参照物体O1を仰ぐ向きと一致するように設置される。 Moreover, in FIG. 2, the light source L1 is provided at the bottom of the housing of the camera C1. Note that the light source L1 may be provided at the top of the housing of the camera C1. Moreover, the light source L1 is installed so that the direction in which the light source L1 irradiates light matches the direction in which the camera C1 looks up at the reference object O1.
また、一般的に、魚は、魚種によって好む光の色(あるいは嫌う光の色)が異なることが知られている。そのため、光源L1は、対象となる魚の種類に応じた色に対応する波長の光を照射する。具体的には、光源L1は、赤色、緑色、青色などの各種の色フィルタ付きのライトであってよい。 Furthermore, it is generally known that the color of light that fish prefers (or the color of light that they dislike) differs depending on the species of fish. Therefore, the light source L1 emits light of a wavelength corresponding to a color depending on the type of target fish. Specifically, the light source L1 may be a light with various color filters such as red, green, and blue.
図3は、実施形態に係る参照情報の一例を示す図である。図3では、図2に示す光源L1として、白ライト(白色光)、赤フィルタ付きライト(赤色光)、青フィルタ付きライト(青色光)、および、紫フィルタ付きライト(紫色光)をそれぞれ用いた場合に得られた4つの参照情報を示す。 FIG. 3 is a diagram illustrating an example of reference information according to the embodiment. In FIG. 3, a white light (white light), a light with a red filter (red light), a light with a blue filter (blue light), and a light with a violet filter (purple light) are used as the light source L1 shown in FIG. The four reference information obtained when
また、図3に示す各グラフは、図2に示した方法で取得した各参照情報に対応する。グラフの横軸は、参照画像が撮像された際のカメラC1から水中の参照物体O1までの距離(z)を示す。グラフの縦軸は、参照画像の輝度値を示す。より具体的には、グラフ中の実線がR(赤色)の輝度値を、破線がG(緑色)の輝度値を、太線がB(青色)の輝度値を示す。図3に示す各グラフから、情報処理装置100は、例えば、対象画像のうち、魚が撮像された対象物領域における対象輝度値のRの輝度値がゼロに近い場合、対象画像が撮像された際の撮像装置から魚までの対象距離は、3m以上離れていると推定することができる。また、情報処理装置100は、対象画像が撮像された際の撮像装置から魚までの対象距離が1m~2mの間である場合には、例えば、赤フィルタ付きライト(赤色光)のグラフの実線で示されるR(赤色)の輝度値との比較に基づいて、対象距離を推定することができる。
Moreover, each graph shown in FIG. 3 corresponds to each reference information acquired by the method shown in FIG. 2. The horizontal axis of the graph indicates the distance (z) from the camera C1 to the underwater reference object O1 when the reference image was captured. The vertical axis of the graph indicates the brightness value of the reference image. More specifically, the solid line in the graph represents the brightness value of R (red), the broken line represents the brightness value of G (green), and the thick line represents the brightness value of B (blue). From each graph shown in FIG. 3, the
図4は、実施形態に係る参照情報の取得に用いられる参照物体の形状について説明するための図である。図2では、簡単のため、参照物体O1が平面状である場合について説明したが、実際の参照物体O1は、図4に示すような四角錐台の底面がない形状をしている。より具体的には、実際の参照物体O1は、面#1~面#5の5つの面で構成される。面#1を囲むようにして、面#2~面#5の4つの面が設けられる。図2と同様に、各面の表面には、対象となる魚の種類に応じた魚の鱗(鱗の模型または実物の鱗、疑似皮(オーロラハゲ皮)や、カラーチャート、チェッカーボードなどの素材)が貼り付けられている。図4に示す面#1は、図2に示す参照物体O1に相当する。具体的には、面#1は、カメラC1から見て真正面に位置する面である。面#2~面#5の4つの面は、面#1に対して傾きをもって設置される。すなわち、面#2~面#5の4つの面は、カメラC1から見て真正面に位置する面#1とは異なる角度をそれぞれ有している。また、一般的に、光の反射率は、光が入射する面の角度に応じて異なる。例えば、撮像装置に対する魚の体の向きが真横である場合、魚の体の表面からの反射率は最も高くなる。このように、参照情報を取得する際に、図4に示すような四角錐台の底面がない形状の参照物体O1を用いることで、カメラC1に対する角度が異なる面ごとの参照情報を取得することができる。これにより、情報処理装置100は、例えば、撮像装置に対する魚の体の向きが、真横以外の向きを向いている場合であっても、面#2~面#5の4つの面から得られた参照情報に基づいて、撮像装置から魚までの対象距離を推定することができる。
FIG. 4 is a diagram for explaining the shape of a reference object used to obtain reference information according to the embodiment. In FIG. 2, for the sake of simplicity, the case where the reference object O1 is planar has been described, but the actual reference object O1 has a shape of a truncated quadrangular pyramid without a bottom surface as shown in FIG. More specifically, the actual reference object O1 is composed of five surfaces, surface #1 to surface #5. Four surfaces, surface #2 to surface #5, are provided to surround surface #1. As in Figure 2, the surface of each side is covered with fish scales (scale models or real scales, pseudo skin (aurora bald skin), color charts, checkerboard, etc.) depending on the type of fish being targeted. is pasted. Surface #1 shown in FIG. 4 corresponds to reference object O1 shown in FIG. 2. Specifically, surface #1 is a surface located directly in front of the camera C1. The four surfaces #2 to #5 are installed at an angle with respect to surface #1. That is, the four surfaces #2 to #5 each have a different angle from the surface #1, which is located directly in front of the camera C1. Further, in general, the reflectance of light differs depending on the angle of the surface on which the light is incident. For example, when the fish's body is oriented directly sideways to the imaging device, the reflectance from the surface of the fish's body is the highest. In this way, when acquiring reference information, by using the reference object O1 having a truncated quadrangular pyramid shape without a base as shown in FIG. 4, it is possible to acquire reference information for each surface having a different angle with respect to the camera C1. I can do it. As a result, the
〔3.情報処理装置の構成〕
図5は、実施形態に係る情報処理装置100の構成例を示す図である。情報処理装置100は、通信部110と、記憶部120と、入力部130と、出力部140と、制御部150とを有する。
[3. Configuration of information processing device]
FIG. 5 is a diagram illustrating a configuration example of the
(通信部110)
通信部110は、例えば、NIC(Network Interface Card)等によって実現される。そして、通信部110は、ネットワークと有線または無線で接続され、例えば、魚を管理する管理者によって利用される端末装置との間で情報の送受信を行う。
(Communication Department 110)
The
(記憶部120)
記憶部120は、例えば、RAM(Random Access Memory)、フラッシュメモリ(Flash Memory)等の半導体メモリ素子、または、ハードディスク、光ディスク等の記憶装置によって実現される。例えば、記憶部120は、実施形態に係る情報処理プログラムを記憶する。
(Storage unit 120)
The
(入力部130)
入力部130は、利用者から各種操作が入力される。例えば、入力部130は、タッチパネル機能により表示面(例えば出力部140)を介して利用者からの各種操作を受け付けてもよい。また、入力部130は、情報処理装置100に設けられたボタンや、情報処理装置100に接続されたキーボードやマウスからの各種操作を受け付けてもよい。
(Input section 130)
The
(出力部140)
出力部140は、例えば、液晶ディスプレイや有機EL(Electro-Luminescence)ディスプレイ等によって実現される表示画面であり、各種情報を表示するための表示装置である。出力部140は、制御部150の制御に従って、各種情報を表示する。なお、情報処理装置100にタッチパネルが採用される場合には、入力部130と出力部140とは一体化される。また、以下の説明では、出力部140を画面と記載する場合がある。
(Output section 140)
The
(制御部150)
制御部150は、コントローラ(controller)であり、例えば、CPU(Central Processing Unit)やMPU(Micro Processing Unit)等によって、情報処理装置100内部の記憶装置に記憶されている各種プログラム(情報処理プログラムの一例に相当)がRAMを作業領域として実行されることにより実現される。また、制御部150は、コントローラであり、例えば、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)等の集積回路により実現される。
(Control unit 150)
The
制御部150は、取得部151と、推定部152と、出力制御部153を機能部として有し、以下に説明する情報処理の作用を実現または実行してよい。なお、制御部150の内部構成は、図5に示した構成に限られず、後述する情報処理を行う構成であれば他の構成であってもよい。また、各機能部は、制御部150の機能を示したものであり、必ずしも物理的に区別されるものでなくともよい。
The
(取得部151)
取得部151は、光源の光を照射された水中の参照物体を含む参照画像であって、水中の撮像装置により撮像された参照画像のうち、参照物体が占める物体領域における輝度値である参照輝度値と、撮像装置から参照物体までの距離である参照距離との関係性を示す参照情報を取得する。具体的には、取得部151は、魚種ごとに異なる魚に応じた色に対応する波長の光を照射された参照物体を含む参照画像における参照輝度値と、参照距離との関係性を示す参照情報を取得する。例えば、取得部151は、図3に示す各グラフによって示される参照情報を取得する。例えば、取得部151は、実験により参照情報を取得した利用者が使用する端末装置から参照情報を取得する。
(Acquisition unit 151)
The acquisition unit 151 obtains a reference image including an underwater reference object irradiated with light from a light source, which is a reference brightness value that is a brightness value in an object area occupied by the reference object in the reference image captured by an underwater imaging device. Reference information indicating the relationship between the value and a reference distance, which is the distance from the imaging device to the reference object, is acquired. Specifically, the acquisition unit 151 indicates the relationship between a reference brightness value in a reference image including a reference object irradiated with light of a wavelength corresponding to a color corresponding to a different fish for each species and a reference distance. Get reference information. For example, the acquisition unit 151 acquires reference information shown by each graph shown in FIG. 3. For example, the acquisition unit 151 acquires reference information from a terminal device used by a user who has acquired the reference information through an experiment.
また、取得部151は、光源の光を照射された水中の魚を含む対象画像であって、水中の撮像装置により撮像された対象画像を取得する。具体的には、取得部151は、魚種ごとに異なる魚に応じた色に対応する波長の光を照射された魚を含む対象画像を取得する。例えば、取得部151は、複数の魚を含む対象画像を取得する。図6は、実施形態に係る対象画像の一例を示す図である。例えば、取得部151は、図6に示すような複数の魚を含む対象画像G1を取得する。例えば、取得部151は、対象画像を撮像した撮像装置から対象画像を取得する。 Further, the acquisition unit 151 acquires a target image that includes an underwater fish irradiated with light from a light source and that is captured by an underwater imaging device. Specifically, the acquisition unit 151 acquires a target image including a fish irradiated with light of a wavelength corresponding to a color corresponding to a different fish species. For example, the acquisition unit 151 acquires a target image including a plurality of fish. FIG. 6 is a diagram illustrating an example of a target image according to the embodiment. For example, the acquisition unit 151 acquires a target image G1 including a plurality of fish as shown in FIG. For example, the acquisition unit 151 acquires the target image from the imaging device that captured the target image.
(推定部152)
推定部152は、対象画像のうち、魚が占める対象物領域における輝度値である対象輝度値と、参照情報との比較に基づいて、撮像装置から魚までの距離である対象距離を推定する。具体的には、推定部152は、参照情報に基づいて、対象輝度値と同じ参照輝度値に対応する参照距離を特定し、特定した参照距離を対象距離として推定する。
(Estimation unit 152)
The
また、推定部152は、推定した対象距離に応じて、魚の大きさを推定する。例えば、対象画像のうち、魚が占める対象物領域の大きさが同程度であって、対象物領域における輝度値が異なる2つの対象物領域を含む画像があるとする。このとき、推定部152は、対象物領域における輝度値が大きい(小さい)ほど、撮像装置から魚までの距離が近い(遠い)ので、輝度値が大きい対象物領域に対応する対象物の大きさよりも、輝度値が小さい対象物領域に対応する対象物の大きさの方が大きいと推定する。
Furthermore, the
また、推定部152は、対象画像のうち、複数の魚それぞれが占める複数の対象物領域それぞれにおける対象輝度値と、参照情報との比較に基づいて、撮像装置から複数の魚それぞれまでの対象距離を推定し、推定した撮像装置から複数の魚それぞれまでの対象距離に応じて、複数の魚それぞれを識別する。例えば、異なる複数の魚が重なって写っており、複数の魚それぞれが占める対象物領域における輝度値が異なる2つの対象物領域を含む対象画像があるとする。このとき、推定部152は、対象物領域における輝度値が大きい(小さい)ほど、撮像装置から魚までの距離が近い(遠い)ので、輝度値が大きい対象物領域に対応する魚の位置の方が、輝度値が小さい対象物領域に対応する魚の位置よりも手前側に位置すると推定することができる。言い換えると、推定部152は、輝度値が大きい対象物領域に対応する魚の位置よりも、輝度値が小さい対象物領域に対応する魚の位置の方が奥側に位置すると推定することができる。また、形状や大きさがある程度わかっている魚(例えば、生簀内の魚など)の場合、3次元空間における位置が異なることは、異なる魚であることは自明である。したがって、推定部152は、撮像装置の近くにある対象物(例えば、所定の魚)と撮像装置の遠くにある対象物(例えば、所定の魚とは異なる他の魚)をそれぞれ精度よく識別することができる。
Furthermore, the
(出力制御部153)
出力制御部153は、推定部152が推定した推定結果を画面に表示するよう制御する。例えば、出力制御部153は、推定部152が推定した対象距離を示す数値を対象物領域に重畳して表示するよう画面を制御してよい。
(Output control unit 153)
The
〔4.変形例〕
上述した実施形態に係る情報処理装置100は、上記実施形態以外にも種々の異なる形態にて実施されてよい。そこで、以下では、情報処理装置100の他の実施形態について説明する。なお、実施形態と同一部分には、同一符号を付して説明を省略する。
[4. Modified example]
The
〔4-1.機械学習モデル〕
上述した実施形態では、推定部152が、対象画像のうち魚が占める対象物領域における輝度値と参照情報との比較に基づいて、撮像装置から魚までの距離を推定する場合について説明した。ここでは、実施形態に係る変形例として、推定部152が、機械学習モデルを用いて、対象画像のうち、魚が占める対象物領域における輝度値に基づいて、対象画像に含まれる魚の大きさおよび魚の数(すなわち、尾数)を推定する場合について説明する。
[4-1. Machine learning model]
In the embodiment described above, a case has been described in which the
図7は、変形例に係る情報処理の概要を示す図である。図7では、推定部152は、魚を含む画像が機械学習モデルM1に入力された場合に、各魚の位置情報、大きさを示す情報、および(R、G、B)の各輝度値を出力するように学習された機械学習モデルM1を取得する。続いて、推定部152は、機械学習モデルM1を用いて、対象画像に含まれる魚の大きさおよび魚の数(すなわち、尾数)を推定する。
FIG. 7 is a diagram showing an overview of information processing according to a modification. In FIG. 7, when an image including fish is input to the machine learning model M1, the
図8は、変形例に係る情報処理の概要を示す図である。図8では、推定部152は、魚を含む画像および魚を含む画像から生成したポイントクラウドが機械学習モデルM2に入力された場合に、各魚の位置情報、大きさを示す情報、(R、G、B)の各輝度値、およびポイントクラウドの各点の位置情報を出力するように学習された機械学習モデルM2を取得する。続いて、推定部152は、機械学習モデルM2を用いて、対象画像に含まれる魚の大きさおよび魚の数(すなわち、尾数)を推定する。
FIG. 8 is a diagram showing an overview of information processing according to a modification. In FIG. 8, when an image containing a fish and a point cloud generated from the image containing a fish are input to the machine learning model M2, the
〔4-2.フルカラーLEDを高速でON/OFFする光源〕
上述した実施形態では、光源が、対象となる魚の種類に応じた色に対応する波長の光を照射する場合について説明した。ここでは、光源が、フルカラーLEDを高速でON/OFFする光源である場合について説明する。すなわち、光源が、極短時間の間に、ほぼ同じタイミングで、複数の異なる波長の光(つまり、異なる色の光)を魚に照射する場合について説明する。具体的には、取得部151は、複数の異なる色それぞれに対応する複数の異なる波長の光それぞれを照射された参照物体をそれぞれ含む複数の異なる参照画像それぞれにおける参照輝度値と、参照距離との関係性を示す複数の異なる参照情報を取得する。また、取得部151は、所定時間内のそれぞれ異なる時間に複数の異なる波長の光それぞれを照射された対象物をそれぞれ含む複数の異なる対象画像を取得する。推定部152は、複数の異なる対象画像それぞれにおける対象輝度値と、複数の異なる参照情報それぞれとの比較に基づいて、対象距離を推定する。
[4-2. Light source that turns full color LED on/off at high speed]
In the embodiment described above, a case has been described in which the light source emits light of a wavelength corresponding to a color depending on the type of target fish. Here, a case will be described in which the light source is a light source that turns on/off a full-color LED at high speed. That is, a case will be described in which a light source irradiates a fish with a plurality of lights of different wavelengths (that is, lights of different colors) at almost the same timing over a very short period of time. Specifically, the acquisition unit 151 calculates the reference brightness values and reference distances in each of a plurality of different reference images each including a reference object irradiated with light of a plurality of different wavelengths corresponding to each of a plurality of different colors. Obtain multiple different references that indicate relationships. Further, the acquisition unit 151 acquires a plurality of different target images each including a target object irradiated with light of a plurality of different wavelengths at different times within a predetermined time. The
〔4-3.輝度値に基づく透視度の推定〕
上述した実施形態では、推定部152が、対象画像のうち魚が占める対象物領域における輝度値と参照情報との比較に基づいて、撮像装置から魚までの距離を推定する場合について説明した。ここでは、実施形態に係る変形例として、推定部152が、対象画像のうち白板が占める対象物領域における輝度値と参照情報との比較に基づいて、水中の透視度を推定する場合について説明する。
[4-3. Estimation of transparency based on brightness value]
In the embodiment described above, a case has been described in which the
まず、透視度について説明する。本明細書における透視度とは、水中で底面に対して水平方向に見ることのできる距離を指す。具体的には、水中の所定の深度(例えば、深度1mなど)に白色の平面状(板状ともいう)の物体(以下、白板と記載する)を沈める。例えば、白板は、直径30cmの円板であってよい。そして、水中の所定の深度(例えば、深度1mなど)に位置する人の目と白板との間の距離を、水中で底面に対して水平方向に徐々に大きくする。そして、人の目で白板が見えなくなったときの人の目と白板との間の距離をその水中における透視度と定義する。 First, transparency will be explained. Transparency in this specification refers to the distance that can be seen in the horizontal direction with respect to the bottom surface underwater. Specifically, a white planar (also referred to as a plate-shaped) object (hereinafter referred to as a white board) is submerged at a predetermined depth (for example, 1 m depth) underwater. For example, the white board may be a disc with a diameter of 30 cm. Then, the distance between the eyes of a person located at a predetermined depth underwater (for example, 1 m depth, etc.) and the white board is gradually increased underwater in the horizontal direction with respect to the bottom surface. Then, the distance between the human eye and the white board when the white board is no longer visible to the human eye is defined as the underwater visibility.
次に、透明度について説明する。本明細書における透明度とは、水面の上から水中を見たときに垂直方向に見ることのできる距離を指す。具体的には、上述した白板を水中に沈める。そして、水面と白板との間の距離を、水面に対して垂直方向に徐々に大きくする。そして、人の目で白板が見えなくなったときの水面と白板との間の距離をその水中における透明度と定義する。 Next, transparency will be explained. Transparency as used herein refers to the distance that can be seen vertically when looking into the water from above the water surface. Specifically, the white board mentioned above is submerged in water. Then, the distance between the water surface and the white board is gradually increased in the direction perpendicular to the water surface. The distance between the water surface and the white board when the white board is no longer visible to the human eye is defined as the underwater transparency.
具体的には、本変形例では、図2に示す参照物体O1が、上述した白板である。また、変形例では、図2に示す参照物体O1である白板と、光源L1およびカメラC1との間の距離を、測定用の距離(例えば、1m)に固定した測定装置を用意する。また、各季節における様々な場所における海中(つまり、様々な透視度に対応する水中)に測定装置を沈める。そして、所定の深度(例えば、深度1mなど)に沈めた測定装置のカメラC1により、光源L1の光を照射された水中の白板を含む透視度参照画像を撮像する。また、透視度参照画像を撮像した際の水中の透視度を実験により測定する。このようにして、各季節における海中(つまり、様々な透視度に対応する水中)における各深度(例えば、深度1m、深度2m、深度3m、…等)に対応する透視度参照画像、および、透視度参照画像を撮像した際の水中の透視度を対応付けた透視度基礎情報を実験により取得する。 Specifically, in this modification, the reference object O1 shown in FIG. 2 is the above-mentioned white board. In a modified example, a measuring device is prepared in which the distance between the white board, which is the reference object O1 shown in FIG. 2, and the light source L1 and camera C1 is fixed at a measurement distance (for example, 1 m). Furthermore, the measuring device is submerged underwater at various locations in each season (that is, underwater corresponding to various degrees of visibility). Then, the camera C1 of the measuring device submerged at a predetermined depth (for example, 1 m depth) captures a transparency reference image including the underwater white board irradiated with light from the light source L1. In addition, the transparency of the water when the transparency reference image is captured is measured through experiments. In this way, perspective reference images corresponding to each depth (for example, 1 m depth, 2 m depth, 3 m depth, etc.) in the sea (that is, underwater corresponding to various transparency degrees) in each season, and Basic transparency information, which correlates the underwater visibility when the degree reference image is captured, is obtained through experiments.
また、取得部151は、透視度基礎情報を取得する。例えば、取得部151は、測定装置の利用者が使用する端末装置から透視度基礎情報を取得する。続いて、取得部151は、透視度基礎情報に基づいて、透視度参照画像のうち、白板が占める領域における輝度値である透視度参照輝度値と、透視度参照画像を撮像した際の水中の透視度との関係性を示す透視度参照情報を取得する。 The acquisition unit 151 also acquires transparency basic information. For example, the acquisition unit 151 acquires basic transparency information from a terminal device used by a user of the measuring device. Next, based on the visibility basic information, the acquisition unit 151 obtains a visibility reference brightness value, which is a brightness value in the area occupied by the white board, in the visibility reference image, and a value in the water when the visibility reference image is captured. Obtain transparency reference information that indicates the relationship with transparency.
また、透視度を測定したい日(以下、測定日と記載する)の海中の所定の深度(例えば、深度1mなど)に上記の測定装置を沈める。そして、所定の深度(例えば、深度1mなど)に沈めた測定装置のカメラC1により、光源L1の光を照射された水中の白板を含む対象画像であって、水中のカメラC1により撮像された対象画像を撮像する。 Further, the measuring device described above is submerged at a predetermined depth (for example, 1 m depth, etc.) in the sea on the day on which the visibility is desired to be measured (hereinafter referred to as the measurement date). Then, an object image including an underwater white board irradiated with light from a light source L1 by a camera C1 of a measurement device submerged at a predetermined depth (for example, 1 m depth, etc.), the object imaged by the underwater camera C1. Capture an image.
また、取得部151は、対象画像を取得する。例えば、取得部151は、測定装置の利用者が使用する端末装置から対象画像を取得する。また、推定部152は、取得部151が取得した対象画像のうち、白板が占める対象物領域における輝度値である対象輝度値と、透視度参照情報との比較に基づいて、測定日における透視度を推定する。推定部152は、所定の深度(例えば、深度1mなど)に対応する透視度参照情報に基づいて、測定日における透視度を推定する。これにより、情報処理装置100は、目視による測定によらずに、定量化された情報に基づいて、透視度を推定することができる。
Further, the acquisition unit 151 acquires a target image. For example, the acquisition unit 151 acquires a target image from a terminal device used by a user of the measuring device. In addition, the
具体的には、推定部152は、対象画像のうち、対象輝度値として、白板が占める対象物領域におけるRの輝度値、Gの輝度値、および、Bの輝度値のうち、少なくとも1つ以上の色の輝度値と、透視度参照情報との比較に基づいて、測定日における透視度を推定する。ここで、透視度が高い水中では、R(赤色)、G(緑色)、B(青色)のうち、R(赤色)の光の減衰率が最も大きく、R(赤色)の光から減衰することが知られている。また、透視度が高い水中では、B(青色)の光の減衰率が最も小さく、B(青色)の光が最後まで残ることが知られている。そこで、推定部152は、測定日における透視度が第1透視度を超える場合、対象画像のうち、白板が占める対象物領域におけるR(赤色)の輝度値である対象輝度値と、透視度参照情報との比較に基づいて、測定日における透視度を推定する。例えば、推定部152は、透視度参照情報に基づいて、白板が占める対象物領域におけるR(赤色)の輝度値である対象輝度値と同じR(赤色)の透視度参照輝度値に対応する透視度を特定し、特定した透視度を測定日における透視度として推定する。
Specifically, the
また、推定部152は、測定日における透視度が第1透視度以下である場合、対象画像のうち、白板が占める対象物領域における複数の色の輝度値に基づいて、測定日における透視度を推定する。例えば、推定部152は、透視度参照情報に基づいて、白板が占める対象物領域におけるB(青色)の輝度値である対象輝度値と同じB(青色)の透視度参照輝度値に対応する透視度を特定する。ここで、透視度が低い原因として、水中の藻などの葉緑素が多いことが挙げられる。また、水中の藻などの葉緑素は、青色の光を吸収しやすい性質がある。そのため、藻などの葉緑素が多いため、透視度が低い水中では、B(青色)の光から減衰する。そのため、B(青色)の輝度値のみに基づいて推定された透視度は、実際にはありえない値をとる(例えば、200mなど、生け簀の大きさを超える透視度の値をとる)場合がある。このように、推定部152は、白板が占める対象物領域における一つの色の輝度値に基づいて特定された透視度が第1透視度以下である場合には、白板が占める対象物領域における他の色の輝度値に基づいて、測定日における透視度を推定する。例えば、推定部152は、透視度参照情報に基づいて、白板が占める対象物領域におけるR(赤色)の輝度値である対象輝度値と同じR(赤色)の透視度参照輝度値に対応する透視度を特定し、特定した透視度を測定日における透視度として推定する。
Furthermore, when the visibility on the measurement date is equal to or lower than the first visibility, the
また、推定部152は、対象画像のうち、対象輝度値として、白板が占める対象物領域における複数の色の輝度値の相関関係に基づいて、測定日における透視度を推定する。例えば、推定部152は、透視度参照情報に基づいて、各透視度における複数の色の輝度値の比率を算出する。例えば、推定部152は、Rの輝度値(以下、Rと略記する場合がある)と、Gの輝度値(以下、Gと略記する場合がある)と、Bの輝度値(以下、Bと略記する場合がある)との比率を各透視度について算出する。例えば、推定部152は、透視度参照情報に基づいて、透視度が30mの場合、R:G:B=1:2:3と算出する。また、推定部152は、透視度参照情報に基づいて、透視度が20mの場合、R:G:B=1:2:2と算出する。また、推定部152は、透視度参照情報に基づいて、透視度が10mの場合、R:G:B=1:1:1と算出する。また、推定部152は、透視度参照情報に基づく各透視度における複数の色の輝度値の比率と、対象画像のうち、白板が占める対象物領域における複数の色の輝度値の比率との比較に基づいて、測定日における透視度を推定する。例えば、推定部152は、対象画像のうち、白板が占める対象物領域におけるR:G:B=1:1:1と算出した場合、透視度参照情報に基づく各透視度におけるR:G:Bの比率との比較に基づいて、測定日における透視度を10mと推定する。
In addition, the estimating
また、上述した透視度基礎情報を実験により取得する際に、透視度と合わせて、その日の透明度を測定しておく。そして、透視度参照画像を撮像した際の水中の透視度と透明度とを対応付けた情報を実験により取得する。また、測定日における透明度を実験により測定する。 Furthermore, when acquiring the above-mentioned basic transparency information through experiments, the transparency of the day is measured in addition to the transparency. Then, information that associates the underwater visibility and transparency when the visibility reference image is captured is obtained through an experiment. In addition, the transparency on the day of measurement is measured experimentally.
また、取得部151は、水中の透視度と透明度とを対応付けた情報、および、測定日における透明度の情報を取得する。例えば、取得部151は、水中の透視度と透明度とを対応付けた情報、および、測定日における透明度の情報を測定装置の利用者が使用する端末装置から取得する。また、推定部152は、測定日における透明度から測定日における透視度を推定する。より具体的には、推定部152は、水中の透視度と透明度とを対応付けた情報に基づいて、測定日における透明度と同じ透明度に対応する透視度を特定し、特定した透視度を測定日における透視度として推定する。
The acquisition unit 151 also acquires information that associates underwater visibility with transparency, and information on transparency on the measurement date. For example, the acquisition unit 151 acquires information associating underwater visibility with transparency, and information on transparency on the measurement date from a terminal device used by a user of the measuring device. Furthermore, the
〔4-4.透視度に基づく対象距離の推定〕
上述した実施形態では、推定部152が、対象画像のうち魚が占める対象物領域における輝度値と参照情報との比較に基づいて、撮像装置から魚までの距離を推定する場合について説明した。ここでは、実施形態に係る変形例として、推定部152が、水中の透視度に基づいて、撮像装置から魚までの距離を推定する場合について説明する。
[4-4. Estimation of target distance based on transparency]
In the embodiment described above, a case has been described in which the
一般的に、水中の浮遊物や、クロロフィル等の浮遊物の量により、水中における光の減衰率は異なる。すなわち、浮遊物量が少なく透視度が高い水中(例えば、透視度が20mなど)におけるRGBの各色の光の減衰率と、浮遊物量が多く透視度が低い水中(例えば、透視度が3mなど)におけるRGBの各色の光の減衰率は異なる。そのため、同じ魚種の魚が撮像装置から同じ距離に位置する場合であっても、浮遊物量が少なく透視度が高い水中における魚の見え方と、浮遊物量が多く透視度が低い水中における魚の見え方は異なる。そこで、あらかじめ、各透視度の水中におけるRGBの各色の減衰率マップ(以下、参照基礎情報ともいう)を用意する。 Generally, the attenuation rate of light in water differs depending on the amount of suspended matter in the water, such as chlorophyll. In other words, the attenuation rate of each color of RGB in water with a small amount of suspended matter and high visibility (for example, visibility of 20 m), and the attenuation rate of light of each RGB color in water with a large amount of suspended matter and low visibility (for example, visibility of 3 m). The attenuation rate of light of each color of RGB is different. Therefore, even if fish of the same species are located at the same distance from the imaging device, the way the fish is seen in water with a low amount of suspended matter and high visibility is different from the way the fish is seen in water with a large amount of suspended matter and low visibility. is different. Therefore, an attenuation rate map (hereinafter also referred to as reference basic information) of each color of RGB in water at each transparency level is prepared in advance.
具体的には、参照基礎情報として、各透視度の水中における各深度(例えば、深度1m、深度2m、深度3m、…等)について、撮像装置から鱗を貼り付けた参照物体(上述した図2の参照物体O1)までの各距離における参照画像を撮像する。なお、参照基礎情報を取得するための参照画像は、魚種ごとに異なる鱗、あるいは疑似皮(オーロラハゲ皮)や、カラーチャート、チェッカーボードなどの素材を貼り付けた参照物体について撮像される。また、参照画像を撮像した際の透視度を実験により測定する。取得部151は、参照基礎情報として、参照画像を撮像した際の透視度と、参照画像を撮像した際の深度と、撮像装置から参照物体までの距離と、参照画像のうち、参照物体が占める領域におけるR、G、Bの各値とを対応付けた情報を取得する。 Specifically, as reference basic information, for each depth in the water at each transparency level (for example, 1 m depth, 2 m depth, 3 m depth, etc.), a reference object with scales attached (as shown in Fig. 2 above) is obtained from the imaging device. A reference image at each distance to the reference object O1) is captured. Note that the reference image for acquiring the reference basic information is captured for a reference object to which materials such as scales or pseudo skin (aurora bald skin), color charts, checkerboards, etc., which differ for each species of fish, are pasted. In addition, the degree of transparency when capturing the reference image is measured through experiments. The acquisition unit 151 obtains, as reference basic information, the transparency when the reference image was captured, the depth when the reference image was captured, the distance from the imaging device to the reference object, and the area occupied by the reference object in the reference image. Information that associates each value of R, G, and B in the area is acquired.
なお、参照基礎情報にないデータは計算により補完する。例えば、透視度が1mの場合のRGBの各輝度値が(Rの輝度値、Gの輝度値、Bの輝度値)=(5、5、5)であり、透視度が2mの場合のRGBの各輝度値が(Rの輝度値、Gの輝度値、Bの輝度値)=(10、10、10)であるとする。また、透視度が1.5mのRGBの各輝度値のデータが存在しないとする。このとき、透視度が1mの場合のRGBの各輝度値と、透視度が2mの場合のRGBの各輝度値とに基づいて、透視度が1.5mのRGBの各輝度値を(Rの輝度値、Gの輝度値、Bの輝度値)=(7.5、7.5、7.5)であると推定してよい。なお、この例は線形の補完だが、非線形の補完もあり得る。 Data not included in the reference basic information will be supplemented through calculations. For example, the brightness values of RGB when the visibility is 1m are (R brightness value, G brightness value, B brightness value) = (5, 5, 5), and the RGB brightness values when the visibility is 2m. It is assumed that the respective brightness values of (R brightness value, G brightness value, B brightness value) = (10, 10, 10). Further, it is assumed that there is no data for each RGB luminance value with a visibility of 1.5 m. At this time, each RGB brightness value when the visibility is 1.5m is calculated based on the RGB brightness values when the visibility is 1m and the RGB brightness values when the visibility is 2m. It may be estimated that (brightness value, brightness value of G, brightness value of B) = (7.5, 7.5, 7.5). Note that although this example is linear interpolation, non-linear interpolation is also possible.
また、撮像装置から魚までの距離を推定する日(以下、推定日と記載する)の生簀における透視度を測定する。なお、推定部152は、上記〔4-3.輝度値に基づく透視度の推定〕を用いて、推定日における透視度を推定してもよい。また、生簀で飼われている魚の魚種は既知とする。また、撮像装置の深度は既知とする。取得部151は、推定日における透視度に対応する参照基礎情報を取得する。また、取得部151は、推定日の生簀における対象画像を取得する。また、推定部152は、対象画像のうち、魚が占める対象物領域における輝度値である対象輝度値と、参照基礎情報との比較に基づいて、撮像装置から魚までの距離である対象距離を推定する。具体的には、推定部152は、対象物領域におけるRの輝度値、Gの輝度値、および、Bの輝度値のうち、少なくとも1つ以上の色の輝度値と、参照基礎情報との比較に基づいて、対象距離を推定する。例えば、推定部152は、推定日における透視度が第1透視度を超える場合、対象画像のうち、対象物領域におけるRの輝度値である対象輝度値と、参照基礎情報との比較に基づいて、対象距離を推定する。例えば、推定部152は、参照基礎情報に基づいて、対象物領域におけるRの輝度値である対象輝度値と同じRの輝度値に対応する撮像装置から参照物体までの距離を特定し、特定した距離を対象距離として推定する。また、推定部152は、推定日における透視度が第1透視度以下である場合、対象物領域における複数の色の輝度値に基づいて、対象距離を推定する。例えば、推定部152は、参照基礎情報に基づく各距離における複数の色の輝度値の比率と、対象画像のうち、対象物領域における複数の色の輝度値の比率との比較に基づいて、対象距離を推定する。このように、推定部152は、水中の透視度に基づいて、撮像装置から魚までの距離を推定してもよい。
In addition, the visibility in the fish tank on the day on which the distance from the imaging device to the fish is estimated (hereinafter referred to as the estimation day) is measured. Note that the
〔5.効果〕
上述したように、実施形態に係る情報処理装置100は、取得部151と推定部152を備える。取得部151は、光源の光を照射された水中の参照物体を含む参照画像であって、水中の撮像装置により撮像された参照画像のうち、参照物体が占める物体領域における輝度値である参照輝度値と、撮像装置から参照物体までの距離である参照距離との関係性を示す参照情報、および、光源の光を照射された水中の対象物を含む対象画像であって、水中の撮像装置により撮像された対象画像を取得する。推定部152は、対象画像のうち、対象物が占める対象物領域における輝度値である対象輝度値と、参照情報との比較に基づいて、撮像装置から対象物までの距離である対象距離を推定する。
[5. effect〕
As described above, the
これにより、情報処理装置100は、撮像装置から水中の対象物までの距離を精度よく推定することができる。また、情報処理装置100は、撮像装置から水中の対象物までの距離を精度よく推定することができるので、例えば、水中の対象物を撮像した画像に対して、画像中の対象物の位置や大きさに関する質の高い正解データを付与可能とすることができる。すなわち、情報処理装置100は、例えば、質の高い正解データを付与された質の高いトレーニングデータを得ることができる。さらに、情報処理装置100は、質の高いトレーニングデータを得ることができるので、例えば、質の高いトレーニングデータを用いて、画像から水中の対象物に関する情報を推定する画像認識用の機械学習モデルの学習精度を向上させることができる。したがって、情報処理装置100は、画像から水中の対象物に関する情報を精度よく推定することができる。また、情報処理装置100は、画像から水中の対象物に関する情報を精度よく推定することができるため、持続可能な開発目標(SDGs)の目標9「産業と技術革新の基盤をつくろう」の達成に貢献できる。また、情報処理装置100は、例えば、画像から水中の魚に関する情報を精度よく推定することができるため、持続可能な開発目標(SDGs)の目標14「海の豊かさを守ろう」の達成に貢献できる。
Thereby, the
また、推定部152は、推定した対象距離に応じて、対象物の大きさを推定する。
Furthermore, the estimating
これにより、情報処理装置100は、画像から水中の対象物の大きさを精度よく推定することができる。例えば、画像のうち、対象物が占める対象物領域の大きさが同程度であって、対象物領域における輝度値が異なる2つの対象物領域を含む画像があるとする。このとき、情報処理装置100は、対象物領域における輝度値が大きい(小さい)ほど、撮像装置から対象物までの距離が近い(遠い)ので、輝度値が大きい対象物領域に対応する対象物の大きさよりも、輝度値が小さい対象物領域に対応する対象物の大きさの方が大きいと推定することができる。このように、情報処理装置100は、撮像装置の近くにある小さい対象物(例えば、所定の魚)の大きさと、撮像装置の遠くにある大きい対象物(例えば、所定の魚とは異なる他の魚)の大きさをそれぞれ精度よく推定することができる。
Thereby, the
また、取得部151は、複数の対象物を含む対象画像を取得する。推定部152は、対象画像のうち、複数の対象物それぞれが占める複数の対象物領域それぞれにおける対象輝度値と、参照情報との比較に基づいて、撮像装置から複数の対象物それぞれまでの対象距離を推定し、推定した撮像装置から複数の対象物それぞれまでの対象距離に応じて、複数の対象物それぞれを識別する。
Further, the acquisition unit 151 acquires a target image including a plurality of target objects. The
これにより、情報処理装置100は、画像から水中の複数の対象物を精度よく識別することができる。例えば、画像のうち、異なる複数の対象物が重なっており、複数の対象物それぞれが占める対象物領域における輝度値が異なる2つの対象物領域を含む画像があるとする。このとき、情報処理装置100は、対象物領域における輝度値が大きい(小さい)ほど、撮像装置から対象物までの距離が近い(遠い)ので、輝度値が大きい対象物領域に対応する対象物の位置の方が、輝度値が小さい対象物領域に対応する対象物の位置よりも手前側に位置すると推定することができる。言い換えると、情報処理装置100は、輝度値が大きい対象物領域に対応する対象物の位置よりも、輝度値が小さい対象物領域に対応する対象物の位置の方が奥側に位置すると推定することができる。このように、情報処理装置100は、撮像装置の近くにある対象物(例えば、所定の魚)の位置と、撮像装置の遠くにある対象物(例えば、所定の魚とは異なる他の魚)の位置をそれぞれ精度よく識別することができる。また、形状や大きさがある程度わかっている対象物(例えば、生簀内の魚など)の場合、3次元空間における位置が異なることは、異なる対象物であることを意味する。したがって、情報処理装置100は、撮像装置の近くにある対象物(例えば、所定の魚)と撮像装置の遠くにある対象物(例えば、所定の魚とは異なる他の魚)をそれぞれ精度よく識別することができる。
Thereby, the
また、取得部151は、対象物に応じた色に対応する波長の光を照射された参照物体を含む参照画像における参照輝度値と、参照距離との関係性を示す参照情報、および、対象物に応じた色に対応する波長の光を照射された対象物を含む対象画像を取得する。推定部152は、対象画像における対象輝度値と、参照情報との比較に基づいて、対象距離を推定する。
In addition, the acquisition unit 151 obtains reference information indicating the relationship between a reference brightness value in a reference image including a reference object irradiated with light of a wavelength corresponding to a color corresponding to the target object, and a reference distance; A target image including a target object irradiated with light of a wavelength corresponding to a color corresponding to the color is acquired. The
これにより、情報処理装置100は、例えば、魚が好む光を照射することにより、撮像装置による画像を撮像する間に、撮像範囲内から魚が逃げないようにすることができるので、光を照射された魚を含む適切な対象画像を取得することができる。また、情報処理装置100は、適切な対象画像を取得することができるので、対象距離を精度よく推定することができる。
Thereby, the
また、取得部151は、複数の異なる色それぞれに対応する複数の異なる波長の光それぞれを照射された参照物体をそれぞれ含む複数の異なる参照画像それぞれにおける参照輝度値と、参照距離との関係性を示す複数の異なる参照情報、および、所定時間内のそれぞれ異なる時間に複数の異なる波長の光それぞれを照射された対象物をそれぞれ含む複数の異なる対象画像を取得する。推定部152は、複数の異なる対象画像それぞれにおける対象輝度値と、複数の異なる参照情報それぞれとの比較に基づいて、対象距離を推定する。
The acquisition unit 151 also obtains the relationship between the reference brightness value and the reference distance in each of a plurality of different reference images each including a reference object irradiated with light of a plurality of different wavelengths corresponding to each of a plurality of different colors. A plurality of different target images are acquired, each including a plurality of different reference information shown and a target object irradiated with light of a plurality of different wavelengths at different times within a predetermined time. The
これにより、情報処理装置100は、極短時間の間に複数の異なる波長の光(つまり、異なる色の光)を対象物に照射することができる。すなわち、情報処理装置100は、例えば、対象物が魚であり、魚種ごとに好む色が異なる場合であっても、撮像装置による画像を撮像する間に、撮像範囲内から魚が逃げないようにすることができるので、光を照射された魚を含む適切な対象画像を取得することができる。また、情報処理装置100は、適切な対象画像を取得することができるので、対象距離を精度よく推定することができる。
Thereby, the
また、光源は、撮像装置の筐体の上部または下部に備えられる。 Further, the light source is provided at the top or bottom of the casing of the imaging device.
これにより、情報処理装置100は、例えば、撮像装置が対象物を仰ぐ向きと、光源が対象物を照射する向きを揃えることができるので、画像の撮像をしやすくすることができる。
Thereby, the
また、参照物体は、特定の魚種の魚の鱗もしくは魚の鱗の模型、または、疑似皮、カラーチャートもしくはチェッカーボードで覆われた物体である。対象物は、特定の魚種の魚である。 Further, the reference object is a fish scale or a model of a fish scale of a specific fish species, or an object covered with pseudo skin, a color chart, or a checkerboard. The object is a specific species of fish.
これにより、情報処理装置100は、魚種ごとに異なる適切な参照情報を取得することができるため、画像から水中の魚に関する情報を精度よく推定することができる。
Thereby, the
また、取得部151は、光源の光を照射された水中の参照物体を含む透視度参照画像であって、水中の撮像装置により撮像された透視度参照画像のうち、参照物体が占める物体領域における輝度値である透視度参照輝度値と、水中の透視度との関係性を示す透視度参照情報、および、光源の光を照射された水中の対象物を含む対象画像であって、水中の撮像装置により撮像された対象画像を取得する。推定部152は、対象画像のうち、対象物が占める対象物領域における複数の色の輝度値のうち、少なくとも1つ以上の色の輝度値と、透視度参照情報との比較に基づいて、対象画像が撮像された際の水中の透視度を推定する。
The acquisition unit 151 also acquires a visibility reference image that includes an underwater reference object irradiated with light from a light source, and that is located in an object area occupied by the reference object in the visibility reference image captured by the underwater imaging device. Underwater imaging, which is a target image that includes a visibility reference brightness value, which is a brightness value, and visibility reference information that indicates the relationship between underwater visibility, and an underwater object that is irradiated with light from a light source. A target image captured by the device is acquired. The
これにより、情報処理装置100は、水中の透視度を精度よく推定することができるので、例えば、撮像装置から水中の対象物までの距離をより精度よく推定することができる。
Thereby, the
また、推定部152は、推定された水中の透視度に基づいて、対象距離を推定する。
Furthermore, the
これにより、情報処理装置100は、撮像装置から水中の対象物までの距離をより精度よく推定することができる。
Thereby, the
また、変形例に係る情報処理装置100は、取得部151と推定部152を備える。取得部151は、光源の光を照射された水中の参照物体を含む透視度参照画像であって、水中の撮像装置により撮像された透視度参照画像のうち、参照物体が占める物体領域における輝度値である透視度参照輝度値と、水中の透視度との関係性を示す透視度参照情報、および、光源の光を照射された水中の対象物を含む対象画像であって、水中の撮像装置により撮像された対象画像を取得する。推定部152は、対象画像のうち、対象物が占める対象物領域における複数の色の輝度値のうち、少なくとも1つ以上の色の輝度値と、透視度参照情報との比較に基づいて、対象画像が撮像された際の水中の透視度を推定する。
Furthermore, the
これにより、情報処理装置100は、水中の透視度を精度よく推定することができるので、例えば、撮像装置から水中の対象物までの距離をより精度よく推定することができる。
Thereby, the
また、推定部152は、対象画像が撮像された際の水中の透視度が第1透視度を超える場合、対象画像のうち、対象物が占める対象物領域における1色の輝度値と、透視度参照情報との比較に基づいて、対象画像が撮像された際の水中の透視度を推定する。
Furthermore, if the visibility in the water when the target image is captured exceeds the first visibility, the
これにより、情報処理装置100は、水中の透視度に応じて、水中の透視度を適切に推定することができる。
Thereby, the
また、推定部152は、対象画像が撮像された際の水中の透明度が第1透視度以下である場合、対象画像のうち、対象物が占める対象物領域における複数の色の輝度値と、透視度参照情報との比較に基づいて、対象画像が撮像された際の水中の透視度を推定する。
Furthermore, if the transparency of the water when the target image is captured is below the first perspective, the
これにより、情報処理装置100は、水中の透視度に応じて、水中の透視度を適切に推定することができる。
Thereby, the
〔6.ハードウェア構成〕
また、上述してきた実施形態に係る情報処理装置100は、例えば図9に示すような構成のコンピュータ1000によって実現される。図9は、情報処理装置100の機能を実現するコンピュータの一例を示すハードウェア構成図である。コンピュータ1000は、CPU1100、RAM1200、ROM1300、HDD1400、通信インターフェイス(I/F)1500、入出力インターフェイス(I/F)1600、及びメディアインターフェイス(I/F)1700を備える。
[6. Hardware configuration]
Further, the
CPU1100は、ROM1300またはHDD1400に格納されたプログラムに基づいて動作し、各部の制御を行う。ROM1300は、コンピュータ1000の起動時にCPU1100によって実行されるブートプログラムや、コンピュータ1000のハードウェアに依存するプログラム等を格納する。
CPU 1100 operates based on a program stored in
HDD1400は、CPU1100によって実行されるプログラム、及び、かかるプログラムによって使用されるデータ等を格納する。通信インターフェイス1500は、所定の通信網を介して他の機器からデータを受信してCPU1100へ送り、CPU1100が生成したデータを所定の通信網を介して他の機器へ送信する。
The
CPU1100は、入出力インターフェイス1600を介して、ディスプレイやプリンタ等の出力装置、及び、キーボードやマウス等の入力装置を制御する。CPU1100は、入出力インターフェイス1600を介して、入力装置からデータを取得する。また、CPU1100は、生成したデータを入出力インターフェイス1600を介して出力装置へ出力する。
The CPU 1100 controls output devices such as a display and a printer, and input devices such as a keyboard and mouse via an input/
メディアインターフェイス1700は、記録媒体1800に格納されたプログラムまたはデータを読み取り、RAM1200を介してCPU1100に提供する。CPU1100は、かかるプログラムを、メディアインターフェイス1700を介して記録媒体1800からRAM1200上にロードし、ロードしたプログラムを実行する。記録媒体1800は、例えばDVD(Digital Versatile Disc)、PD(Phase change rewritable Disk)等の光学記録媒体、MO(Magneto-Optical disk)等の光磁気記録媒体、テープ媒体、磁気記録媒体、または半導体メモリ等である。
例えば、コンピュータ1000が実施形態に係る情報処理装置100として機能する場合、コンピュータ1000のCPU1100は、RAM1200上にロードされたプログラムを実行することにより、制御部150の機能を実現する。コンピュータ1000のCPU1100は、これらのプログラムを記録媒体1800から読み取って実行するが、他の例として、他の装置から所定の通信網を介してこれらのプログラムを取得してもよい。
For example, when the
以上、本願の実施形態のいくつかを図面に基づいて詳細に説明したが、これらは例示であり、発明の開示の欄に記載の態様を始めとして、当業者の知識に基づいて種々の変形、改良を施した他の形態で本発明を実施することが可能である。 Some of the embodiments of the present application have been described above in detail based on the drawings, but these are merely examples, and various modifications and variations may be made based on the knowledge of those skilled in the art, including the embodiments described in the disclosure section of the invention. It is possible to carry out the invention in other forms with modifications.
〔7.その他〕
また、上記実施形態及び変形例において説明した各処理のうち、自動的に行われるものとして説明した処理の全部または一部を手動的に行うこともでき、あるいは、手動的に行われるものとして説明した処理の全部または一部を公知の方法で自動的に行うこともできる。この他、上記文書中や図面中で示した処理手順、具体的名称、各種のデータやパラメータを含む情報については、特記する場合を除いて任意に変更することができる。例えば、各図に示した各種情報は、図示した情報に限られない。
[7. others〕
Furthermore, among the processes described in the above embodiments and modified examples, all or part of the processes described as being performed automatically can be performed manually, or may be described as being performed manually. All or part of this processing can also be performed automatically using known methods. In addition, information including the processing procedures, specific names, and various data and parameters shown in the above documents and drawings may be changed arbitrarily, unless otherwise specified. For example, the various information shown in each figure is not limited to the illustrated information.
また、図示した各装置の各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各装置の分散・統合の具体的形態は図示のものに限られず、その全部または一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散・統合して構成することができる。 Furthermore, each component of each device shown in the drawings is functionally conceptual, and does not necessarily need to be physically configured as shown in the drawings. In other words, the specific form of distributing and integrating each device is not limited to what is shown in the diagram, and all or part of the devices can be functionally or physically distributed or integrated in arbitrary units depending on various loads and usage conditions. Can be integrated and configured.
また、上述した情報処理装置100は、複数のサーバコンピュータで実現してもよく、また、機能によっては外部のプラットホーム等をAPI(Application Programming Interface)やネットワークコンピューティング等で呼び出して実現するなど、構成は柔軟に変更できる。
Further, the
また、上述してきた実施形態及び変形例は、処理内容を矛盾させない範囲で適宜組み合わせることが可能である。 Furthermore, the above-described embodiments and modifications can be combined as appropriate within a range that does not conflict with the processing contents.
100 情報処理装置
110 通信部
120 記憶部
130 入力部
140 出力部
150 制御部
151 取得部
152 推定部
153 出力制御部
100
Claims (16)
前記対象画像のうち、前記対象物が占める対象物領域における輝度値である対象輝度値と、前記参照情報との比較に基づいて、前記撮像装置から前記対象物までの距離である対象距離を推定する推定手順と、
をコンピュータに実行させる情報処理プログラム。 a reference image including an underwater reference object irradiated with light from a light source, a reference brightness value that is a brightness value in an object region occupied by the reference object among the reference images captured by the underwater imaging device; Reference information indicating a relationship with a reference distance that is a distance from the imaging device to the reference object, and a target image including the underwater object irradiated with light from the light source, an acquisition procedure for acquiring a target image captured by an imaging device;
Estimating a target distance, which is a distance from the imaging device to the target object, based on a comparison between a target brightness value, which is a brightness value in a target object area occupied by the target object, in the target image, and the reference information. an estimation procedure to
An information processing program that causes a computer to execute.
推定した前記対象距離に応じて、前記対象物の大きさを推定する、
請求項1に記載の情報処理プログラム。 The estimation procedure is
estimating the size of the target object according to the estimated target distance;
The information processing program according to claim 1.
複数の前記対象物を含む前記対象画像を取得し、
前記推定手順は、
前記対象画像のうち、複数の前記対象物それぞれが占める複数の前記対象物領域それぞれにおける前記対象輝度値と、前記参照情報との比較に基づいて、前記撮像装置から複数の前記対象物それぞれまでの前記対象距離を推定し、推定した前記撮像装置から複数の前記対象物それぞれまでの前記対象距離に応じて、複数の前記対象物それぞれを識別する、
請求項1に記載の情報処理プログラム。 The acquisition procedure is as follows:
acquiring the target image including a plurality of the target objects;
The estimation procedure is
Based on the comparison between the target brightness values in each of the plurality of target object areas occupied by each of the plurality of target objects in the target image and the reference information, the distance from the imaging device to each of the plurality of target objects is estimating the object distance and identifying each of the plurality of objects according to the estimated object distance from the imaging device to each of the plurality of objects;
The information processing program according to claim 1.
前記対象物に応じた色に対応する波長の前記光を照射された前記参照物体を含む前記参照画像における前記参照輝度値と、前記参照距離との関係性を示す前記参照情報、および、前記対象物に応じた色に対応する波長の前記光を照射された前記対象物を含む前記対象画像を取得し、
前記推定手順は、
前記対象画像における前記対象輝度値と、前記参照情報との比較に基づいて、前記対象距離を推定する、
請求項1に記載の情報処理プログラム。 The acquisition procedure is as follows:
the reference information indicating the relationship between the reference brightness value in the reference image including the reference object irradiated with the light of the wavelength corresponding to the color corresponding to the target object and the reference distance; obtaining the target image including the target object irradiated with the light having the wavelength corresponding to the color corresponding to the object;
The estimation procedure is
estimating the target distance based on a comparison between the target brightness value in the target image and the reference information;
The information processing program according to claim 1.
複数の異なる色それぞれに対応する複数の異なる波長の前記光それぞれを照射された前記参照物体をそれぞれ含む複数の異なる前記参照画像それぞれにおける前記参照輝度値と、前記参照距離との関係性を示す複数の異なる前記参照情報、および、所定時間内のそれぞれ異なる時間に前記複数の異なる波長の前記光それぞれを照射された前記対象物をそれぞれ含む複数の異なる前記対象画像を取得し、
前記推定手順は、
前記複数の異なる前記対象画像それぞれにおける前記対象輝度値と、前記複数の異なる前記参照情報それぞれとの比較に基づいて、前記対象距離を推定する、
請求項1に記載の情報処理プログラム。 The acquisition procedure is as follows:
A plurality of information indicating the relationship between the reference brightness value and the reference distance in each of the plurality of different reference images each including the reference object irradiated with the light of a plurality of different wavelengths corresponding to each of a plurality of different colors. and obtaining a plurality of different target images each including the target object irradiated with each of the plurality of lights of different wavelengths at different times within a predetermined time;
The estimation procedure is
estimating the target distance based on a comparison between the target brightness value in each of the plurality of different target images and each of the plurality of different reference information;
The information processing program according to claim 1.
請求項1に記載の情報処理プログラム。 The light source is provided at the top or bottom of the casing of the imaging device,
The information processing program according to claim 1.
前記対象物は、前記特定の魚種の魚である、
請求項1に記載の情報処理プログラム。 The reference object is a fish scale of a specific fish species, a model of the fish scale, or an object covered with pseudo skin, a color chart, or a checkerboard,
The target object is a fish of the specific fish species,
The information processing program according to claim 1.
前記光源の光を照射された水中の参照物体を含む透視度参照画像であって、前記水中の撮像装置により撮像された透視度参照画像のうち、前記参照物体が占める物体領域における輝度値である透視度参照輝度値と、前記水中の透視度との関係性を示す透視度参照情報、および、前記光源の光を照射された水中の対象物を含む対象画像であって、前記水中の前記撮像装置により撮像された対象画像を取得し、
前記推定手順は、
前記対象画像のうち、前記対象物が占める対象物領域における複数の色の輝度値のうち、少なくとも1つ以上の色の輝度値と、前記透視度参照情報との比較に基づいて、前記対象画像が撮像された際の水中の透視度を推定する、
請求項1に記載の情報処理プログラム。 The acquisition procedure is as follows:
A visibility reference image including an underwater reference object irradiated with light from the light source, which is a brightness value in an object area occupied by the reference object in the visibility reference image captured by the underwater imaging device. Transparency reference information indicating a relationship between a transparency reference brightness value and the transparency in the water, and a target image including an underwater object irradiated with light from the light source, the image being captured in the water. Obtain the target image captured by the device,
The estimation procedure is
The target image is calculated based on a comparison between the brightness value of at least one color among the brightness values of a plurality of colors in the target object area occupied by the target object in the target image and the transparency reference information. Estimate the underwater visibility when the image is taken.
The information processing program according to claim 1.
推定された水中の透視度に基づいて、前記対象距離を推定する、
請求項8に記載の情報処理プログラム。 The estimation procedure is
estimating the target distance based on the estimated underwater visibility;
The information processing program according to claim 8.
前記対象画像のうち、前記対象物が占める対象物領域における複数の色の輝度値のうち、少なくとも1つ以上の色の輝度値と、前記透視度参照情報との比較に基づいて、前記対象画像が撮像された際の水中の透視度を推定する推定手順と、
をコンピュータに実行させる情報処理プログラム。 A perspective reference image that includes an underwater reference object irradiated with light from a light source, which is a luminance value in an object area occupied by the reference object among the perspective reference images captured by the underwater imaging device. a target image including visibility reference information indicating a relationship between a degree reference brightness value and the underwater visibility, and an underwater object irradiated with light from the light source, the image capturing device underwater; an acquisition procedure for acquiring a target image captured by;
The target image is calculated based on a comparison between the brightness value of at least one color among the brightness values of a plurality of colors in the target object area occupied by the target object in the target image and the transparency reference information. an estimation procedure for estimating underwater visibility when imaged;
An information processing program that causes a computer to execute.
前記対象画像が撮像された際の水中の透視度が第1透視度を超える場合、前記対象画像のうち、前記対象物が占める対象物領域における1色の輝度値と、前記透視度参照情報との比較に基づいて、前記対象画像が撮像された際の水中の透視度を推定する、
請求項10に記載の情報処理プログラム。 The estimation procedure is
If the visibility in the water when the target image is captured exceeds the first visibility, the brightness value of one color in the target area occupied by the target object in the target image, and the visibility reference information. estimating the underwater transparency when the target image was captured based on the comparison;
The information processing program according to claim 10.
前記対象画像が撮像された際の水中の透明度が第1透視度以下である場合、前記対象画像のうち、前記対象物が占める対象物領域における複数の色の輝度値と、前記透視度参照情報との比較に基づいて、前記対象画像が撮像された際の水中の透視度を推定する、
請求項10に記載の情報処理プログラム。 The estimation procedure is
If the transparency of the water when the target image is captured is equal to or lower than the first transparency, brightness values of a plurality of colors in a target area occupied by the target object in the target image and the transparency reference information. estimating the underwater transparency when the target image was captured based on the comparison with the
The information processing program according to claim 10.
前記対象画像のうち、前記対象物が占める対象物領域における輝度値である対象輝度値と、前記参照情報との比較に基づいて、前記撮像装置から前記対象物までの距離である対象距離を推定する推定部と、
を備える情報処理装置。 a reference image including an underwater reference object irradiated with light from a light source, a reference brightness value that is a brightness value in an object region occupied by the reference object among the reference images captured by the underwater imaging device; Reference information indicating a relationship with a reference distance that is a distance from the imaging device to the reference object, and a target image including the underwater object irradiated with light from the light source, an acquisition unit that acquires a target image captured by the imaging device;
Estimating a target distance, which is a distance from the imaging device to the target object, based on a comparison between a target brightness value, which is a brightness value in a target object area occupied by the target object, in the target image, and the reference information. an estimator to
An information processing device comprising:
前記対象画像のうち、前記対象物が占める対象物領域における複数の色の輝度値のうち、少なくとも1つ以上の色の輝度値と、前記透視度参照情報との比較に基づいて、前記対象画像が撮像された際の水中の透視度を推定する推定部と、
を備える情報処理装置。 A perspective reference image that includes an underwater reference object irradiated with light from a light source, which is a luminance value in an object area occupied by the reference object among the perspective reference images captured by the underwater imaging device. a target image including visibility reference information indicating a relationship between a degree reference brightness value and the underwater visibility, and an underwater object irradiated with light from the light source, the image capturing device underwater; an acquisition unit that acquires a target image captured by the
The target image is calculated based on a comparison between the brightness value of at least one color among the brightness values of a plurality of colors in the target object area occupied by the target object in the target image and the transparency reference information. an estimation unit that estimates underwater transparency when the image is captured;
An information processing device comprising:
光源の光を照射された水中の参照物体を含む参照画像であって、前記水中の撮像装置により撮像された参照画像のうち、前記参照物体が占める物体領域における輝度値である参照輝度値と、前記撮像装置から前記参照物体までの距離である参照距離との関係性を示す参照情報、および、前記光源の光を照射された前記水中の対象物を含む対象画像であって、前記水中の前記撮像装置により撮像された対象画像を取得する取得工程と、
前記対象画像のうち、前記対象物が占める対象物領域における輝度値である対象輝度値と、前記参照情報との比較に基づいて、前記撮像装置から前記対象物までの距離である対象距離を推定する推定工程と、
を含む情報処理方法。 An information processing method performed by a computer, the method comprising:
a reference image including an underwater reference object irradiated with light from a light source, a reference brightness value that is a brightness value in an object region occupied by the reference object among the reference images captured by the underwater imaging device; Reference information indicating a relationship with a reference distance that is a distance from the imaging device to the reference object, and a target image including the underwater object irradiated with light from the light source, an acquisition step of acquiring a target image captured by the imaging device;
Estimating a target distance, which is a distance from the imaging device to the target object, based on a comparison between a target brightness value, which is a brightness value in a target object area occupied by the target object, in the target image, and the reference information. an estimation process to
Information processing methods including
前記対象画像のうち、前記対象物が占める対象物領域における複数の色の輝度値のうち、少なくとも1つ以上の色の輝度値と、前記透視度参照情報との比較に基づいて、前記対象画像が撮像された際の水中の透視度を推定する推定工程と、
を含む情報処理方法。 A perspective reference image that includes an underwater reference object irradiated with light from a light source, which is a luminance value in an object area occupied by the reference object among the perspective reference images captured by the underwater imaging device. a target image including visibility reference information indicating a relationship between a degree reference brightness value and the underwater visibility, and an underwater object irradiated with light from the light source, the image capturing device underwater; an acquisition step of acquiring a target image captured by;
The target image is calculated based on a comparison between the brightness value of at least one color among the brightness values of a plurality of colors in the target object area occupied by the target object in the target image and the transparency reference information. an estimation step of estimating the underwater visibility when the image is taken;
Information processing methods including.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022073423A JP2023162785A (en) | 2022-04-27 | 2022-04-27 | Information processing program, information processing device, and information processing method |
PCT/JP2023/016503 WO2023210702A1 (en) | 2022-04-27 | 2023-04-26 | Information processing program, information processing device, and information processing method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022073423A JP2023162785A (en) | 2022-04-27 | 2022-04-27 | Information processing program, information processing device, and information processing method |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2023162785A true JP2023162785A (en) | 2023-11-09 |
Family
ID=88519124
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022073423A Pending JP2023162785A (en) | 2022-04-27 | 2022-04-27 | Information processing program, information processing device, and information processing method |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP2023162785A (en) |
WO (1) | WO2023210702A1 (en) |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS539143A (en) * | 1976-07-12 | 1978-01-27 | Koito Kogyo Kk | Photoelectric distance measuring device |
JPS56130608A (en) * | 1980-03-19 | 1981-10-13 | Ricoh Co Ltd | Range finding system |
JPS594405U (en) * | 1982-07-02 | 1984-01-12 | 株式会社東芝 | distance measuring device |
JPH0989553A (en) * | 1995-09-26 | 1997-04-04 | Olympus Optical Co Ltd | Distance measuring device |
JP2012117896A (en) * | 2010-11-30 | 2012-06-21 | Saxa Inc | Range finder, intruder monitoring device, and distance measuring method and program |
WO2017175261A1 (en) * | 2016-04-04 | 2017-10-12 | パナソニックIpマネジメント株式会社 | Turbidity detection apparatus, turbidity detection method, and submerged inspection apparatus |
WO2021130950A1 (en) * | 2019-12-26 | 2021-07-01 | 日本電気株式会社 | Device for aiding image capture of underwater organisms, method for aiding image capture of underwater organisms, and storage medium |
-
2022
- 2022-04-27 JP JP2022073423A patent/JP2023162785A/en active Pending
-
2023
- 2023-04-26 WO PCT/JP2023/016503 patent/WO2023210702A1/en unknown
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS539143A (en) * | 1976-07-12 | 1978-01-27 | Koito Kogyo Kk | Photoelectric distance measuring device |
JPS56130608A (en) * | 1980-03-19 | 1981-10-13 | Ricoh Co Ltd | Range finding system |
JPS594405U (en) * | 1982-07-02 | 1984-01-12 | 株式会社東芝 | distance measuring device |
JPH0989553A (en) * | 1995-09-26 | 1997-04-04 | Olympus Optical Co Ltd | Distance measuring device |
JP2012117896A (en) * | 2010-11-30 | 2012-06-21 | Saxa Inc | Range finder, intruder monitoring device, and distance measuring method and program |
WO2017175261A1 (en) * | 2016-04-04 | 2017-10-12 | パナソニックIpマネジメント株式会社 | Turbidity detection apparatus, turbidity detection method, and submerged inspection apparatus |
WO2021130950A1 (en) * | 2019-12-26 | 2021-07-01 | 日本電気株式会社 | Device for aiding image capture of underwater organisms, method for aiding image capture of underwater organisms, and storage medium |
Also Published As
Publication number | Publication date |
---|---|
WO2023210702A1 (en) | 2023-11-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Chouinard-Thuly et al. | Technical and conceptual considerations for using animated stimuli in studies of animal behavior | |
JP5761789B2 (en) | Plant image region extraction method, plant image region extraction apparatus, and plant growth monitoring system | |
Lougee et al. | The effects of haloclines on the vertical distribution and migration of zooplankton | |
Pineda et al. | Larval transport in the coastal zone: biological and physical processes | |
Herkül et al. | Applying multibeam sonar and mathematical modeling for mapping seabed substrate and biota of offshore shallows | |
EP3843542A1 (en) | Optimal feeding based on signals in an aquaculture environment | |
Alós et al. | A modelling approach to evaluate the impact of fish spatial behavioural types on fisheries stock assessment | |
CN108601326A (en) | Amount of moisture observes device, amount of moisture observation method and culture apparatus | |
CN111127411B (en) | Monitoring control method for fishery cultivation | |
CN111263817A (en) | Method and system for automated assessment of antibiotic susceptibility | |
Veys et al. | An ultra-low-cost active multispectral crop diagnostics device | |
EP3769036B1 (en) | Method and system for extraction of statistical sample of moving fish | |
Lin et al. | Three-dimensional location of target fish by monocular infrared imaging sensor based on a L–z correlation model | |
Gutiérrez-Estrada et al. | Fish abundance estimation with imaging sonar in semi-intensive aquaculture ponds | |
US10360667B2 (en) | Biological material fouling assessment systems and methods | |
WO2023210702A1 (en) | Information processing program, information processing device, and information processing method | |
Shragai et al. | Hermit crab response to a visual threat is sensitive to looming cues | |
Price et al. | Use of high-resolution DIDSON sonar to quantify attributes of predation at ecologically relevant space and time scales | |
Kent et al. | Risk balancing through selective use of social and physical information: a case study in the humbug damselfish | |
JPH0820460B2 (en) | A Method for Calculating Spacing or Separation Behavior Characteristics of Multiple Moving Biological Objects | |
ap Cenydd et al. | Visualizing the surface of a living human brain | |
Roscian et al. | Underwater photogrammetry for close‐range 3D imaging of dry‐sensitive objects: The case study of cephalopod beaks | |
Foti et al. | On the use of bioluminescence for estimating shear stresses over a rippled seabed | |
Takahashi et al. | Evaluating bias in stereo camera measurements using swimming behavior simulations | |
WO2024142701A1 (en) | Information processing program, information processing device, and information processing method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20230425 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20230427 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230613 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20230803 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20231006 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20231107 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20231228 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20240306 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20240521 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20240815 |
|
A911 | Transfer to examiner for re-examination before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20240826 |