JP2024027023A - Fish species learning device, fish species learning method, and program - Google Patents
Fish species learning device, fish species learning method, and program Download PDFInfo
- Publication number
- JP2024027023A JP2024027023A JP2022129707A JP2022129707A JP2024027023A JP 2024027023 A JP2024027023 A JP 2024027023A JP 2022129707 A JP2022129707 A JP 2022129707A JP 2022129707 A JP2022129707 A JP 2022129707A JP 2024027023 A JP2024027023 A JP 2024027023A
- Authority
- JP
- Japan
- Prior art keywords
- fish
- school
- annotation data
- unit
- echo image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 241000251468 Actinopterygii Species 0.000 title claims abstract description 514
- 238000000034 method Methods 0.000 title claims abstract description 54
- 241000894007 species Species 0.000 title description 5
- 239000000284 extract Substances 0.000 claims abstract description 13
- 230000006870 function Effects 0.000 claims description 6
- 238000010801 machine learning Methods 0.000 abstract description 61
- 235000019688 fish Nutrition 0.000 description 355
- 238000001514 detection method Methods 0.000 description 39
- 230000008569 process Effects 0.000 description 28
- 238000012545 processing Methods 0.000 description 21
- 238000010586 diagram Methods 0.000 description 18
- 238000004891 communication Methods 0.000 description 16
- 230000010354 integration Effects 0.000 description 11
- 235000019512 sardine Nutrition 0.000 description 10
- 241000555825 Clupeidae Species 0.000 description 9
- 230000004048 modification Effects 0.000 description 6
- 238000012986 modification Methods 0.000 description 6
- 238000013528 artificial neural network Methods 0.000 description 5
- 230000005540 biological transmission Effects 0.000 description 4
- 230000000694 effects Effects 0.000 description 4
- 230000008859 change Effects 0.000 description 3
- 238000002592 echocardiography Methods 0.000 description 3
- 239000003550 marker Substances 0.000 description 3
- 241001125048 Sardina Species 0.000 description 2
- 241000269821 Scombridae Species 0.000 description 2
- 241001504592 Trachurus trachurus Species 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 235000020640 mackerel Nutrition 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 2
- 238000003066 decision tree Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 210000002569 neuron Anatomy 0.000 description 1
- 238000012706 support-vector machine Methods 0.000 description 1
- 238000012549 training Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S15/00—Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
- G01S15/88—Sonar systems specially adapted for specific applications
- G01S15/96—Sonar systems specially adapted for specific applications for locating fish
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/003—Transmission of data between radar, sonar or lidar systems and remote stations
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/52—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S15/00
- G01S7/523—Details of pulse systems
- G01S7/526—Receivers
- G01S7/53—Means for transforming coordinates or for evaluating data, e.g. using computers
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/52—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S15/00
- G01S7/539—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S15/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/52—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S15/00
- G01S7/56—Display arrangements
- G01S7/62—Cathode-ray tube displays
- G01S7/6263—Cathode-ray tube displays in which different colours are used
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/52—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S15/00
- G01S7/56—Display arrangements
- G01S7/62—Cathode-ray tube displays
- G01S7/6272—Cathode-ray tube displays producing cursor lines and indicia by electronic means
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/52—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S15/00
- G01S7/56—Display arrangements
- G01S7/62—Cathode-ray tube displays
- G01S7/6281—Composite displays, e.g. split-screen, multiple images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q10/00—Administration; Management
- G06Q10/04—Forecasting or optimisation specially adapted for administrative or management purposes, e.g. linear programming or "cutting stock problem"
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q10/00—Administration; Management
- G06Q10/10—Office automation; Time management
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
- G06Q50/02—Agriculture; Fishing; Forestry; Mining
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S15/00—Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
- G01S15/87—Combinations of sonar systems
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- General Physics & Mathematics (AREA)
- Business, Economics & Management (AREA)
- Computer Networks & Wireless Communication (AREA)
- Strategic Management (AREA)
- Human Resources & Organizations (AREA)
- Economics (AREA)
- General Business, Economics & Management (AREA)
- Marketing (AREA)
- Entrepreneurship & Innovation (AREA)
- Theoretical Computer Science (AREA)
- Tourism & Hospitality (AREA)
- Quality & Reliability (AREA)
- Operations Research (AREA)
- Life Sciences & Earth Sciences (AREA)
- Primary Health Care (AREA)
- Mining & Mineral Resources (AREA)
- Agronomy & Crop Science (AREA)
- Acoustics & Sound (AREA)
- General Health & Medical Sciences (AREA)
- Data Mining & Analysis (AREA)
- Animal Husbandry (AREA)
- Health & Medical Sciences (AREA)
- Marine Sciences & Fisheries (AREA)
- Development Economics (AREA)
- Game Theory and Decision Science (AREA)
- Measurement Of Velocity Or Position Using Acoustic Or Ultrasonic Waves (AREA)
Abstract
Description
本発明は、教師データ(アノテーションデータ)を用いて魚種判別のための機械学習を行う魚種学習装置、魚種学習システム、魚種学習方法およびプログラムに関する。 The present invention relates to a fish species learning device, a fish species learning system, a fish species learning method, and a program that perform machine learning for fish species discrimination using teacher data (annotation data).
従来、水中の魚群を探知する魚群探知装置が知られている。この種の魚群探知装置では、水中に超音波が送波され、その反射波が受波される。受波された反射波の強度に応じたエコーデータが生成され、生成されたエコーデータに基づいてエコー画像が表示される。ユーザは、エコー画像から魚群を確認でき、魚群の捕獲を円滑に進めることができる。 2. Description of the Related Art Fish detection devices that detect schools of fish in water are conventionally known. In this type of fish finding device, ultrasonic waves are transmitted underwater and the reflected waves are received. Echo data is generated according to the intensity of the received reflected wave, and an echo image is displayed based on the generated echo data. The user can confirm the school of fish from the echo image and can smoothly capture the school of fish.
この場合、エコー画像上の魚群について、さらに魚種が判別されて表示されると好ましい。これにより、ユーザは、自身が望む魚種の魚を効率よく捕獲できる。 In this case, it is preferable that the fish species of the school of fish on the echo image be further determined and displayed. Thereby, the user can efficiently catch the fish species he or she desires.
このような魚種の判別は、たとえば、機械学習モデル(機械学習アルゴリズム)を用いて行われ得る。機械学習モデルに対して、多数の教師データ(アノテーションデータ)を用いた学習が行われる。それぞれのアノテーションデータは、魚群のエコーデータと、当該魚群の範囲(水深、時間)と、当該魚群の魚種とを含んでいる。以下の特許文献1には、このようなアノテーションデータをユーザが生成する場合の構成が記載されている。
Such fish species discrimination may be performed using, for example, a machine learning model (machine learning algorithm). Learning is performed on a machine learning model using a large amount of training data (annotation data). Each annotation data includes echo data of the fish school, the range (water depth, time) of the fish school, and the fish species of the fish school.
一般に、アノテーションデータの生成は、単位エコー画像ごとに行われる。すなわち、所定時間分の一連のエコー画像が、1フレームに対応する時間幅で複数に区切られて、アノテーションデータの生成対象とされる複数の単位エコー画像が生成される。専門家等のオペレータは、各々の単位エコー画像に対して、魚群の範囲を指定し、さらに、指定した魚群に魚種のラベルを付与する。これにより、魚群の範囲と、当該魚群の範囲の魚種と、当該魚群の範囲に含まれる画像データ(エコーデータ)とが対応付けられたアノテーションデータが生成される。 Generally, annotation data is generated for each unit echo image. That is, a series of echo images for a predetermined time period is divided into a plurality of echo images with a time width corresponding to one frame, and a plurality of unit echo images from which annotation data is generated are generated. An operator such as an expert specifies the range of a school of fish for each unit echo image, and further assigns a fish species label to the specified school of fish. As a result, annotation data is generated in which the range of the school of fish, the species of fish within the range of the school of fish, and the image data (echo data) included in the range of the school of fish are associated.
このような生成手法では、単位エコー画像に魚群全体が含まれるとは限らない。すなわち、時間的に連続する2つの単位エコー画像に1つの魚群が跨ることが起こり得る。このような場合、1つの魚群が分断された2つの魚群部分が、2つのエコー画像にそれぞれ含まれることになる。上記生成手法では、単位エコー単位で処理が行われるため、分断された各々の魚群部分に対して個別にアノテーションデータが生成されてしまう。 With such a generation method, the entire school of fish is not necessarily included in the unit echo image. That is, one school of fish may straddle two temporally consecutive unit echo images. In such a case, two fish school portions obtained by dividing one fish school will be included in each of the two echo images. In the above generation method, since processing is performed in units of echoes, annotation data is generated individually for each divided fish school portion.
しかしながら、上記機械学習では、魚種固有に生じるエコーの尾引や分布等、魚群全体から生じる特徴が、機械学習の精度に影響を及ぼし得る。このため、上記のように、魚群の一部について生成されたアノテーションデータが機械学習に用いられると、機械学習の精度が低下することが起こり得る。 However, in the machine learning described above, characteristics arising from the entire school of fish, such as the tailing and distribution of echoes unique to the fish species, can affect the accuracy of the machine learning. Therefore, as described above, when annotation data generated for a part of a school of fish is used for machine learning, the accuracy of machine learning may decrease.
かかる課題に鑑み、本発明は、魚種判別のための機械学習をより精度良く行うことが可能な魚種学習装置、魚種学習方法およびプログラムを提供することを目的とする。 In view of this problem, an object of the present invention is to provide a fish species learning device, a fish species learning method, and a program that can perform machine learning for fish species discrimination with higher accuracy.
本発明の第1の態様は、魚種学習装置に関する。この態様に係る魚種学習装置は、単位エコー画像ごとにアノテーションデータを記憶する記憶部と、制御部と、を備える。前記制御部は、時間的に連続する第1単位エコー画像および第2単位エコー画像の前記アノテーションデータから、前記第1単位エコー画像と前記第2単位エコー画像との間に跨る魚群の第1アノテーションデータおよび第2アノテーションデータをそれぞれ抽出し、抽出した前記第1アノテーションデータおよび前記第2アノテーションデータを統合して、前記魚群全体のアノテーションデータを生成する。 A first aspect of the present invention relates to a fish species learning device. The fish species learning device according to this aspect includes a storage unit that stores annotation data for each unit echo image, and a control unit. The control unit generates a first annotation of a school of fish spanning between the first unit echo image and the second unit echo image from the annotation data of the temporally continuous first unit echo image and second unit echo image. The first annotation data and the second annotation data are respectively extracted, and the extracted first annotation data and the second annotation data are integrated to generate annotation data for the entire school of fish.
本態様に係る魚種学習装置によれば、第1単位エコー画像と第2単位エコー画像との間に跨る魚群の第1アノテーションデータおよび第2アノテーションデータが統合されて、当該魚群全体のアノテーションデータが生成される。したがって、魚群全体に対するアノテーションデータを機械学習に用いることができるため、魚種判別のための機械学習をより精度良く行うことができる。 According to the fish species learning device according to this aspect, the first annotation data and the second annotation data of the fish school spanning between the first unit echo image and the second unit echo image are integrated, and the annotation data of the entire fish school is is generated. Therefore, since the annotation data for the entire school of fish can be used for machine learning, machine learning for identifying fish species can be performed with higher accuracy.
本態様に係る魚種学習装置において、前記制御部は、前記第1単位エコー画像上において前記第2単位エコー画像側の第1境界付近まで延びている第1魚群と、前記第2単位エコー画像上において前記第1単位エコー画像側の第2境界付近まで延びている第2魚群とを特定し、前記第1魚群の深度範囲と前記第2魚群の深度範囲とが略合致する場合に、前記第1魚群および前記第2魚群の前記アノテーションデータを、前記第1アノテーションデータおよび前記第2アノテーションデータとしてそれぞれ抽出するよう構成され得る。 In the fish species learning device according to the present aspect, the control unit may control a first school of fish that extends to a vicinity of a first boundary on the second unit echo image side on the first unit echo image, and a second unit echo image that A second school of fish extending to near the second boundary on the side of the first unit echo image is identified in the above, and when the depth range of the first school of fish and the depth range of the second school of fish substantially match, the The annotation data of the first school of fish and the second school of fish may be configured to be extracted as the first annotation data and the second annotation data, respectively.
この構成によれば、1つの魚群を構成する確率が高い第1魚群および第2魚群を、第1単位エコー画像および第2単位エコー画像において円滑に特定できる。よって、これら魚群のアノテーションデータを統合することにより、1つの魚群全体のアノテーションデータを精度良く生成できる。 According to this configuration, the first school of fish and the second school of fish, which have a high probability of forming one school of fish, can be smoothly identified in the first unit echo image and the second unit echo image. Therefore, by integrating the annotation data of these fish schools, annotation data of one entire fish school can be generated with high accuracy.
この構成において、前記制御部は、前記第1魚群の深度範囲と前記第2魚群の深度範囲とが略合致するか否かを、前記第1境界付近における前記第1魚群の深度範囲と、前記第2境界付近における前記第2魚群の深度範囲との合致率に基づいて判定するよう構成され得る。 In this configuration, the control unit determines whether the depth range of the first school of fish and the depth range of the second school of fish substantially match or not. The determination may be made based on a matching rate with the depth range of the second school of fish near the second boundary.
この構成によれば、第1単位エコー画像と第2単位エコー画像との間の境界である第1境界および第2境界の付近において、第1魚群の深度範囲と第2魚群の深度範囲とが略合致するかが判定されるため、これら第1魚群および第2魚群が互いに連続するものであるかを正確に判定できる。よって、第1魚群および第2魚群のアノテーションデータから1つの魚群全体のアノテーションデータを精度良く生成できる。 According to this configuration, the depth range of the first fish school and the depth range of the second fish school are different from each other in the vicinity of the first boundary and the second boundary, which are the boundaries between the first unit echo image and the second unit echo image. Since it is determined whether they substantially match, it is possible to accurately determine whether the first fish school and the second fish school are continuous with each other. Therefore, annotation data for one entire school of fish can be generated with high accuracy from annotation data for the first school of fish and the second school of fish.
また、この構成において、前記制御部は、前記第1境界から所定の時間範囲に少なくとも一部が含まれる魚群を前記第1魚群として抽出し、前記第2境界から所定の時間範囲に少なくとも一部が含まれる魚群を前記第2魚群として抽出するよう構成され得る。 Further, in this configuration, the control unit extracts a school of fish that is at least partially included in a predetermined time range from the first boundary as the first fish school, and extracts a school of fish that is at least partially included in a predetermined time range from the second boundary. The second fish school may be configured to extract a fish school in which the second fish school is included.
この構成によれば、境界付近で魚の分布が疎らになっている場合も、第1単位エコー画像と第2単位エコー画像とに跨る魚群を構成する第1魚群および第2魚群を、第1単位エコー画像および第2単位エコー画像において取りこぼしなく特定できる。よって、1つの魚群全体のアノテーションデータを適正に生成できる。 According to this configuration, even when the distribution of fish is sparse near the boundary, the first fish school and the second fish school constituting the fish school spanning the first unit echo image and the second unit echo image are transferred to the first unit echo image. It can be specified without missing anything in the echo image and the second unit echo image. Therefore, annotation data for one entire school of fish can be appropriately generated.
本態様に係る魚種学習装置において、前記制御部は、前記第1アノテーションデータに含まれる魚種と前記第2アノテーションデータに含まれる魚種とが相違する場合、所定の設定条件に基づき、前記魚群のアノテーションデータの魚種を設定するよう構成され得る。 In the fish species learning device according to the present aspect, when the fish species included in the first annotation data and the fish species included in the second annotation data are different, the control unit controls the It may be configured to set the fish species of the annotation data of the fish school.
この場合、前記設定条件は、たとえば、前記第1アノテーションデータおよび前記第2アノテーションデータのうち新しい方のアノテーションデータの魚種に設定することを含み得る。 In this case, the setting condition may include, for example, setting the fish species of the newer annotation data of the first annotation data and the second annotation data.
これらの構成によれば、統合対象の第1アノテーションデータおよび第2アノテーションデータにそれぞれ含まれる魚種が互いに相違する場合、信頼性の高い魚種を、統合後のアノテーションデータに設定できる。よって、機械学習の精度を高めることができる。 According to these configurations, when the fish species included in the first annotation data and the second annotation data to be integrated are different from each other, a highly reliable fish species can be set in the integrated annotation data. Therefore, the accuracy of machine learning can be improved.
本発明の第2の態様は、魚種学習方法に関する。この態様に係る魚種学習方法は、時間的に連続する第1単位エコー画像および第2単位エコー画像の前記アノテーションデータから、前記第1単位エコー画像と前記第2単位エコー画像との間に跨る魚群の第1アノテーションデータおよび第2アノテーションデータをそれぞれ抽出し、抽出した前記第1アノテーションデータおよび前記第2アノテーションデータを統合して、前記魚群全体のアノテーションデータを生成する。 A second aspect of the present invention relates to a method for learning fish species. In the fish species learning method according to this aspect, from the annotation data of the first unit echo image and the second unit echo image that are temporally continuous, the method straddles between the first unit echo image and the second unit echo image. First annotation data and second annotation data of the school of fish are respectively extracted, and the extracted first annotation data and second annotation data are integrated to generate annotation data of the entire school of fish.
本発明の第3の態様は、コンピュータに所定の機能を実行させるプログラムに関する。本態様に係るプログラムは、時間的に連続する第1単位エコー画像および第2単位エコー画像の前記アノテーションデータから、前記第1単位エコー画像と前記第2単位エコー画像との間に跨る魚群の第1アノテーションデータおよび第2アノテーションデータをそれぞれ抽出する機能と、抽出した前記第1アノテーションデータおよび前記第2アノテーションデータを統合して、前記魚群全体のアノテーションデータを生成する機能と、を含む。 A third aspect of the present invention relates to a program that causes a computer to execute a predetermined function. The program according to this aspect is configured to calculate information on a school of fish that straddles between the first unit echo image and the second unit echo image from the annotation data of the temporally continuous first unit echo image and second unit echo image. The method includes a function of extracting first annotation data and second annotation data, respectively, and a function of integrating the extracted first annotation data and second annotation data to generate annotation data of the entire school of fish.
上記第2および第3の態様によれば、上記第1の態様と同様の効果が奏される。 According to the second and third aspects described above, effects similar to those of the first aspect described above are achieved.
以上のとおり、本発明によれば、魚種判別のための機械学習をより精度良く行うことが可能な魚種学習装置、魚種学習方法およびプログラムを提供することができる。 As described above, according to the present invention, it is possible to provide a fish species learning device, a fish species learning method, and a program that can perform machine learning for fish species discrimination with higher accuracy.
本発明の効果ないし意義は、以下に示す実施形態の説明により更に明らかとなろう。ただし、以下に示す実施形態は、あくまでも、本発明を実施化する際の一つの例示であって、本発明は、以下の実施形態に記載されたものに何ら制限されるものではない。 The effects and significance of the present invention will become clearer from the following description of the embodiments. However, the embodiment shown below is merely one example of implementing the present invention, and the present invention is not limited to what is described in the embodiment below.
以下、本発明の実施形態について、図面を参照して説明する。 Embodiments of the present invention will be described below with reference to the drawings.
以下の実施形態では、サーバ20が、特許請求の範囲に記載の「魚種学習装置」に対応する。但し、本発明に係る「魚種学習装置」は、必ずしも、サーバ20に限られるものではなく、たとえば、端末装置50等の他の装置が、本発明に係る「魚種学習装置」の機能を実行してもよい。
In the following embodiments, the
図1は、魚種判別システム1の構成を示す図である。
FIG. 1 is a diagram showing the configuration of a fish
魚種判別システム1は、水中探知装置10と、サーバ20とを備える。水中探知装置10は、船2に設置される魚群探知機である。水中探知装置10は、外部通信網30(たとえば、インターネット)および基地局40を介して、サーバ20と通信可能である。水中探知装置10およびサーバ20は、それぞれ、相互に通信を行うためのアドレス情報を保持している。それぞれのアドレス情報は、初期設定時に、水中探知装置10およびサーバ20に設定される。
The fish
水中探知装置10は、送受波器11と、制御ユニット12とを備える。送受波器11は、船2の船底に設置され、制御ユニット12は、船の操舵室等に設置される。送受波器11と制御ユニット12は、信号ケーブル(図示せず)で接続されている。送受波器11は、送受波用の超音波振動子を備える。送受波器11は、制御ユニット12からの制御に応じて、超音波振動子により、海底4に向かって超音波3(送信波)を送波し、その反射波を受波する。送受波器11は、受波した反射波に基づく受信信号を制御ユニット12に送信する。
The
制御ユニット12は、受信信号を処理して、各深度のエコー強度を示すエコーデータを生成する。制御ユニット12は、エコーデータに基づく各深度のエコー強度を時系列に並べて、1画面分のエコー画像を生成する。制御ユニット12は、生成したエコー画像を表示部に表示させる。制御ユニット12は、超音波の送受波ごとにエコー画像を更新する。ユーザは、エコー画像を参照することで、魚群5の存在および位置を把握できる。
さらに、制御ユニット12は、生成したエコーデータを、随時、サーバ20に送信する。サーバ20は、受信したエコーデータを記憶するとともに、制御ユニット12と同様のエコー画像を生成する。サーバ20は、機械学習モデル(機械学習アルゴリズム)により、エコー画像に含まれる魚群に対し、魚種ごとに予測確率(その魚種である確率)を算出する。
Furthermore, the
サーバ20は、機械学習モデルにより算出した魚種ごとの予測確率に基づき、当該魚群に対する魚種の判別結果を取得する。サーバ20は、こうして取得した当該魚種の判別結果を、判別対象の魚群の範囲(深度、時間)とともに、エコーデータの受信先の水中探知装置10に送信する。
The
水中探知装置10は、受信した判別結果および魚群の範囲(深度、時間)に基づき、エコー画像上の対応する範囲に魚種の判別結果を重ねて表示する。これにより、ユーザは、エコー画像上の各魚群の魚種を確認でき、所望の魚の漁獲を円滑に進めることができる。
Based on the received discrimination results and the range (depth, time) of the fish school, the
さらに、サーバ20は、機械学習モデルに対する学習を行うためのアノテーションデータ(教師データ)を、外部通信網30を介して、複数の端末装置50から取得する。すなわち、サーバ20は、水中探知装置10から受信したエコーデータを、複数の端末装置50の何れかに分配する。端末装置50は、受信したエコーデータからアノテーションデータを生成するために用いられる。
Further, the
すなわち、端末装置50は、専門家等の、アノテーションデータの生成を行うオペレータが所持する。オペレータは、受信したエコーデータに基づくエコー画像を端末装置50に表示させ、これらエコー画像に含まれる魚群ごとに、魚種を設定する。設定された魚種は、当該魚群の範囲(深度、時間)と、当該範囲のエコーデータとに対応付けられる。こうして対応付けられた魚種、魚群の範囲およびエコーデータによって、当該魚群に対するアノテーションデータが構成される。アノテーションデータは、当該アノテーションデータが生成されたエコー画像の識別情報とともに、サーバ20に送信される。
That is, the
サーバ20は、受信したアノテーションデータを用いて、機械学習モデルに対する学習を行う。これにより、機械学習モデルの魚種判別精度が高められる。
The
なお、ここでは、サーバ20が端末装置50に提供したエコーデータに対して、アノテーションデータが生成され、生成されたアノテーションデータがサーバ20に戻されたが、サーバ20に対するアノテーションデータの提供方法は、これに限られるものではない。たとえば、サーバ20以外の装置から端末装置50にエコーデータが提供されてアノテーションデータが生成され、生成されたアノテーションデータがサーバ20に提供されてもよい。
Note that here, annotation data is generated for the echo data provided by the
また、図1には、水中探知装置10が1つだけ図示されているが、実際は、多数の水中探知装置10が外部通信網30および最寄りの基地局を介して、サーバ20と通信可能である。また、サーバ20と通信を行う水中探知装置10は、図1に示すように船2に設置されるものの他、定置網に設置される水中探知装置等、漁法が異なる数種の水中探知装置が含まれ得る。
Further, although only one
図2は、魚種判別システム1の構成を示すブロック図である。
FIG. 2 is a block diagram showing the configuration of the fish
水中探知装置10は、制御部101と、表示部102と、入力部103と、送受波部104と、信号処理部105と、通信部106と、位置検出部107とを備える。
The
制御部101は、マイクロコンピュータおよびメモリ等により構成される。制御部101は、メモリに記憶されたプログラムに従って、水中探知装置10の各部を制御する。
The
表示部102は、モニタを備え、制御部101からの制御により、所定の画像を表示させる。入力部103は、表示部102に表示された画像上でカーソルを移動させるトラックボールや、操作キー等を備え、ユーザからの操作に応じた信号を制御部101に出力する。表示部102および入力部103が、液晶タッチパネル等により一体的に構成されてもよい。
The
送受波部104は、図1に示した送受波器11と、送受波器11に送信信号を供給するための送信回路と、送受波器11から出力される受信信号を処理して信号処理部105に出力する受信回路とを備える。送信回路および受信回路は、図1の制御ユニット12に含まれる。
The wave transmitter/
送受波部104は、制御部101からの制御に従って、所定周波数の送信波(超音波)を送波する。送受波部104は、送波した送信波の反射波を受波して受信信号を出力する。受信回路は、送信波の周波数の受信信号を抽出して信号処理部105に出力する。
The wave transmitting/receiving
信号処理部105は、送受波部104から入力される受信信号から、深度に応じた反射波の強度を示すエコーデータを生成し、生成したエコーデータを制御部101に出力する。送信波を送波したタイミングからの経過時間が深度に対応する。ここで、反射波の強度は、深度が大きくなるほど減衰する。したがって、信号処理部105は、深度の差異に拘わらずエコーデータを定量的に扱えるようにするために、経過時間に応じて減衰する反射波の強度を補正し、強度を補正したエコーデータを制御部101に出力する。
The
制御部101は、受信したエコーデータに基づきエコー画像を生成し、表示部102に表示させる。制御部101は、各深度におけるエコー強度を色スケールにより階調表現した深度方向の1列の画像を、エコーデータから生成する。制御部101は、現時点から所定時間前までの各列の画像を時間方向に統合して、1画面分のエコー画像を生成する。
The
通信部106は、基地局40と無線通信可能な通信モジュールである。位置検出部107は、GPSを備え、水中探知装置10の位置を検出する。位置検出部107は、検出した位置情報を制御部101に出力する。
The
図1を参照して説明したとおり、制御部101は、随時、通信部106を介して、エコーデータをサーバ20に送信する。また、制御部101は、通信部106を介して、サーバ20から魚種の判別結果を受信する。制御部101は、さらに、位置検出部107により検出された位置情報をサーバ20に送信する。
As described with reference to FIG. 1, the
図2に示すように、水中探知装置10の他にも、多数の水中探知装置10a、10b、…が外部通信網30および最寄りの基地局40a、40b、…を介して、サーバ20と通信可能である。上記のように、サーバ20と通信を行う水中探知装置10は、図1に示すように船2に設置されるものの他、定置網に設置される水中探知装置等、漁法が異なる数種の水中探知装置が含まれる。他の水中探知装置の基本的な構成は、図2の水中探知装置10と同様である。
As shown in FIG. 2, in addition to the
サーバ20は、制御部201と、記憶部202と、通信部203とを備える。制御部201は、CPU等により構成される。記憶部202は、ROM、RAM、ハードディスク等により構成される。記憶部202には、魚種判別のためのプログラムおよび機械学習のためのプログラムが記憶されている。制御部201は、記憶部202に記憶されたプログラムにより、各部を制御する。通信部203は、制御部201からの制御により、外部通信網30および基地局40を介して、水中探知装置10と通信を行う。また、サーバ20は、外部通信網30を介して、複数の端末装置50と通信を行う。
The
端末装置50は、パーソナルコンピュータやタブレット型コンピュータ等の、情報を入出力可能な装置である。端末装置50は、制御部501と、記憶部502と、表示部503と、入力部504と、通信部505とを備える。
The
制御部501は、CPU等により構成される。記憶部502は、ROM、RAM、ハードディスク等により構成される。記憶部502には、アノテーションデータを生成するためのプログラムが記憶されている。制御部501は、記憶部502に記憶されたプログラムにより、各部を制御する。表示部503は、液晶モニタ等により構成され、制御部501からの制御により所定の画像を表示させる。入力部504は、マウスやキーボード等の入力手段を備える。通信部505は、制御部501からの制御により、サーバ20と通信を行う。
The
図3は、ニューラルネットワークによる魚種判別処理を模式的に示す図である。 FIG. 3 is a diagram schematically showing fish species discrimination processing using a neural network.
本実施形態では、機械学習として、ニューラルネットワークを用いた機械学習が適用される。たとえば、ニューロンを多段に組み合わせたディープラーニングによるニューラルネットワークが適用される。但し、適用される機械学習はこれに限られるものではなく、サポートベクターマシーンや決定木等の他の機械学習が適用されてもよい。 In this embodiment, machine learning using a neural network is applied as machine learning. For example, a deep learning neural network that combines neurons in multiple stages is applied. However, the applied machine learning is not limited to this, and other machine learning such as support vector machines and decision trees may be applied.
サーバ20の制御部201は、処理対象の1画面分のエコーデータから魚群の範囲(深度、時間)を抽出する。エコー画像上において、エコー強度が所定の閾値以上であり、且つ、エコー強度に繋がりがある領域が魚群として抽出され、さらにこの魚群の最大時間幅および最大深度幅により構成される矩形の範囲が魚群の範囲として抽出される。魚群の抽出方法については、出願人が先に出願した国際公開第2019/003759号の記載が、参照により取り込まれ得る。
The
制御部201は、抽出した魚群の範囲のエコーデータを、図3の機械学習モデル(ニューラルネットワークによる機械学習アルゴリズム)301の入力301aに適用する。
The
機械学習モデル301の出力301bには、イワシ、アジ、サバなどの魚種の項目が割り当てられている。機械学習モデル301の入力301aに魚群の範囲のエコーデータが適用されると、機械学習モデル301の出力301bの各項目から、当該魚群の魚種が各項目の魚種である確率(予測確率)が出力される。図3の例では、イワシの項目から85%の予測確率が出力され、サバの項目から70%の予測確率が出力され、アジの項目から10%の予測確率が出力されている。
The
各項目の予測確率は、出力条件302と照合される。出力条件302には、たとえば、予測確率が所定の下限値以上で且つ一番順位(最高)である項目の魚種を判別結果303として出力する条件が適用される。下限値は、確度が低い魚種が判別結果として出力されることを防ぐために設定される。図3の例では、予測確率が85%であるイワシが、魚種の判別結果303として出力される。
The predicted probability of each item is checked against the
機械学習モデル301に対する機械学習は、一連のアノテーションデータ(教師データ)を機械学習モデル301の入力301aおよび出力301bに順番に適用することにより行われる。すなわち、機械学習モデル301の入力301aに、1つのアノテーションデータに含まれる魚群のエコーデータが入力され、機械学習モデル301の出力301bには、このアノテーションデータに含まれる魚種に対応する項目に100%が設定され、その他の項目には0%が設定されて、機械学習が行われる。
Machine learning for the
機械学習モデル301の入力301aには、魚群のエコーデータの他に、当該エコーデータが得られた位置や、その位置の海況データ等の、魚種判別に用い得る他の情報が入力されてもよい。アノテーションデータは、これらの他の情報をさらに含んでいてよい。
In addition to echo data of fish schools, the
図4は、魚種判別結果を含むエコー画像P1の表示例を模式的に示す図である。便宜上、図4には、エコー強度が高い部分のみに深度方向の線が付されている。 FIG. 4 is a diagram schematically showing a display example of the echo image P1 including the fish species discrimination results. For convenience, in FIG. 4, lines in the depth direction are attached only to portions where the echo intensity is high.
水中探知装置10の制御部201は、サーバ20から判別結果および魚群の範囲(深度、時間)を受信すると、受信した魚群の範囲に対応する深度幅および時間幅に対応するエコー画像P1上の領域に、魚群の範囲を示す枠状のマーカーM0を表示する。さらに、制御部201は、受信した魚種の判定結果を示すラベルL0を、このマーカーM0の周囲にさらに表示する。
Upon receiving the determination result and the range of the fish school (depth, time) from the
図4の例では、サーバ20から受信した判別結果および魚群の範囲(深度、時間)に基づき、魚群F1~F8に対してマーカーM0が表示され、さらに、これらのマーカーM0の周囲に、魚種の判別結果を示すラベルL0が表示されている。エコー画像P1の左上の角付近には、現在の日時が表示されている。
In the example of FIG. 4, markers M0 are displayed for fish schools F1 to F8 based on the discrimination results received from the
図4の例では、魚群F9については、図3の機械学習モデル301および出力条件302により魚種の判別結果が出力されなかったため、魚群F9には、マーカーおよびラベルの表示がなされていない。これは、たとえば、機械学習モデル301による魚群F9の予測確率が出力条件302を満たさなかった場合に起こり得る。このような場合、この魚群については判別結果がサーバ20から水中探知装置10に送信されないため、図4の魚群F9のように、魚種の判別結果が表示されないことになる。
In the example of FIG. 4, no marker or label is displayed for fish school F9 because the fish species discrimination result was not output according to the
図5は、端末装置50において行われるアノテーションデータの生成方法を模式的に示す図である。
FIG. 5 is a diagram schematically showing a method of generating annotation data performed in the
アノテーションデータの生成は、端末装置50において、処理対象のエコーデータに基づくエコー画像が表示部503に表示されることにより行われる。
Generation of annotation data is performed by displaying an echo image based on the echo data to be processed on the
専門家等のオペレータは、表示されたエコー画像上において、魚群の範囲を指定する。たとえば、魚群の範囲は、矩形の範囲で指定される。オペレータは、入力部504を操作して、矩形の対角の頂点を指定することにより、魚群の範囲を指定する。さらに、オペレータは、入力部504を操作して、各魚群に魚種を設定する。たとえば、魚群の範囲の指定に応じて、魚種の選択候補のリストが表示部503に表示される、オペレータは、このリストから設定対象の魚種を選択する。これにより、当該魚群の範囲に魚種が設定される。
An operator such as an expert specifies the range of the school of fish on the displayed echo image. For example, the range of a school of fish is specified by a rectangular range. The operator specifies the range of the school of fish by operating the
ここで、アノテーションデータの生成は、図5に示すように、単位エコー画像ごとに行われる。すなわち、所定時間分の一連のエコー画像が、1フレームに対応する時間幅で複数に区切られて、アノテーションデータの生成対象とされる複数の単位エコー画像が生成される。時間方向における単位エコー画像の境界B1、B2のうち、時間が新しい側の境界B1は、次の単位エコー画像の時間が古い側の境界B2と一致している。 Here, the annotation data is generated for each unit echo image, as shown in FIG. That is, a series of echo images for a predetermined time period is divided into a plurality of echo images with a time width corresponding to one frame, and a plurality of unit echo images from which annotation data is generated are generated. Among the boundaries B1 and B2 of the unit echo images in the time direction, the boundary B1 on the newer side matches the boundary B2 on the older side of the next unit echo image.
専門家等のオペレータは、各々の単位エコー画像に対して、魚群の範囲を指定し、さらに、指定した魚群に魚種を設定する。これにより、魚群の範囲と、当該魚群の範囲の魚種と、当該魚群の範囲に含まれる画像データ(エコーデータ)とが対応付けられたアノテーションデータが生成される。 An operator such as an expert specifies the range of the fish school for each unit echo image, and further sets the fish species for the specified fish school. As a result, annotation data is generated in which the range of the school of fish, the species of fish within the range of the school of fish, and the image data (echo data) included in the range of the school of fish are associated.
図5の例では、単位エコー画像Pnに対するアノテーション処理Anによって、6つの魚群の範囲(矩形破線の範囲)が指定され、各魚群の範囲に魚種が設定されている。また、単位エコー画像Pn+1に対するアノテーション処理An+1によって、5つの魚群の範囲(矩形破線の範囲)が指定され、各魚群の範囲に魚種が設定されている。したがって、単位エコー画像Pnからは、6つの魚群に対して、それぞれ、魚群の範囲と、当該魚群の範囲の魚種と、当該魚群の範囲に含まれる画像データ(エコーデータ)とが対応付けられたアノテーションデータが生成される。また、単位エコー画像Pn+1からは、5つの魚群に対して、それぞれ、魚群の範囲と、当該魚群の範囲の魚種と、当該魚群の範囲に含まれる画像データ(エコーデータ)とが対応付けられたアノテーションデータが生成される。 In the example of FIG. 5, the ranges of six fish schools (ranges indicated by rectangular broken lines) are specified by the annotation process An for the unit echo image Pn, and the fish species is set in the range of each fish school. Further, by annotation processing An+1 for unit echo image Pn+1, ranges of five fish schools (ranges indicated by rectangular broken lines) are specified, and fish species are set in the range of each fish school. Therefore, from the unit echo image Pn, for each of the six schools of fish, the range of the school of fish, the fish species within the range of the school of fish, and the image data (echo data) included in the range of the school of fish are associated. Annotation data is generated. Furthermore, from the unit echo image Pn+1, for each of the five fish schools, the range of the fish school, the fish species within the range of the fish school, and the image data (echo data) included in the range of the fish school are associated. Annotation data is generated.
こうして生成されたアノテーションデータは、端末装置50からサーバ20に送信され、サーバ20の記憶部202に記憶される。
The annotation data generated in this way is transmitted from the
図6は、サーバ20の記憶部202におけるアノテーションデータの記憶形態を示す図である。
FIG. 6 is a diagram showing a storage format of annotation data in the
記憶部202には、エコーIDおよび画像IDに対応付けて、単位エコーデータおよびアノテーションデータが記憶される。
The
エコーIDは、上述の所定時間分の一連のエコー画像(エコーデータ)を識別するための識別情報である。エコーIDは、サーバ20によって固有に設定される。画像IDは、単位エコー画像を識別するための識別情報である。画像IDは、たとえば、時間が古いものから順番に各々の単位エコー画像に付される番号とされる。単位エコーデータは、各々の単位エコー画像に対応する1フレーム分のエコーデータである。アノテーションデータは、各々の単位エコー画像から生成されたアノテーションデータである。
The echo ID is identification information for identifying a series of echo images (echo data) for the above-mentioned predetermined time period. The echo ID is uniquely set by the
サーバ20の制御部201は、アノテーション処理の対象とされる所定時間分のエコーデータを新たに水中探知装置10等から受信すると、このエコーデータにエコーIDを付する。さらに、制御部201は、このエコーデータを時間が古い側の先頭から1フレーム分の時間幅ごとに区切って、各々の単位エコー画像に対応する単位エコーデータを生成する。そして、制御部201は、各々の単位エコーデータに画像IDを付し、単位エコーデータを画像IDに対応付けて記憶部202に記憶させる。これにより、図6のデータ構造のうち、エコーID、画像IDおよび単位エコーデータの部分が構成される。
When the
その後、制御部201は、各々の単位エコーデータを、エコーIDおよび画像IDとともに、端末装置50に送信する。端末装置50の制御部501は、受信したこれらのデータを記憶部502に記憶させ、オペレータによるアノテーション処理に供する。オペレータからアノテーション処理の操作が行われると、制御部501は、処理対象の単位エコーデータに基づく単位エコー画像を表示部503に表示させる。オペレータは、図5に示した処理により、処理対象の単位エコー画像に対しアノテーション処理を実行する。これにより、当該単位エコー画像に対するアノテーションデータが生成される。
Thereafter, the
こうして、サーバ20から受信した全ての単位エコーデータに対するアノテーション処理が終了すると、制御部501は、単位エコー画像ごとに生成されたアノテーションデータを、それぞれの単位エコー画像の画像IDに対応付けて、エコーIDとともに、サーバ20に送信する。サーバ20の制御部201は、受信したアノテーションデータを、図6の画像IDに対応付けて、記憶部202に記憶させる。図5に示したように、各々の画像IDには、単位エコー画像に含まれる魚群の数に応じたアノテーションデータが対応付けられる。こうして、記憶部202にアノテーションデータが記憶されることにより、図6のデータ構造が全て構築される。
When the annotation processing for all unit echo data received from the
ところで、図5に示した単位エコー画像には、魚群全体が含まれるとは限られず、時間的に連続する2つの単位エコー画像に1つの魚群が跨ることが起こり得る。 By the way, the unit echo image shown in FIG. 5 does not necessarily include the entire school of fish, and one school of fish may straddle two temporally consecutive unit echo images.
たとえば、図5の例では、単位エコー画像Pnの右上のイワシの魚群は、次の単位エコー画像Pn+1の左上のイワシの魚群に繋がっていると考えられる。しかし、上記の生成手法では、単位エコー画像ごとに魚群が指定されるため、単位エコー画像Pnと単位エコー画像Pn+1とに跨るイワシの魚群が、単位エコー画像Pnの部分と単位エコー画像Pn+1の部分に分断されて指定される。そして、分断された各々の魚群部分に対して個別にアノテーションデータが生成されることになる。 For example, in the example of FIG. 5, the school of sardines at the top right of the unit echo image Pn is considered to be connected to the school of sardines at the top left of the next unit echo image Pn+1. However, in the above generation method, a school of fish is specified for each unit echo image, so a school of sardines that straddles the unit echo image Pn and the unit echo image Pn+1 is divided into a portion of the unit echo image Pn and a portion of the unit echo image Pn+1. It is divided into two parts and specified. Then, annotation data will be generated individually for each divided fish school portion.
しかしながら、上述の機械学習では、魚種固有に生じるエコーの尾引や分布等、魚群全体から生じる特徴が、機械学習の精度に影響を及ぼし得る。このため、上記のように、魚群の一部について生成されたアノテーションデータが機械学習に用いられると、機械学習の精度が低下してしまう。 However, in the machine learning described above, characteristics arising from the entire school of fish, such as echo tailing and distribution unique to fish species, can affect the accuracy of machine learning. For this reason, as described above, when annotation data generated for a part of a school of fish is used for machine learning, the accuracy of machine learning will decrease.
このような問題を解消するため、本実施形態では、時間的に連続する2つの単位エコー画像のアノテーションデータから、これら単位エコー画像間に跨る魚群のアノテーションデータがそれぞれ抽出され、抽出された2つのアノテーションデータを統合して、当該魚群のアノテーションデータが生成される。すなわち、図5の例では、単位エコー画像Pnの右上のイワシの魚群のアノテーションデータと、単位エコー画像Pn+1の左上のイワシの魚群のアノテーションデータとが統合されて、当該イワシの魚群全体に対するアノテーションデータが生成される。 In order to solve such a problem, in this embodiment, annotation data of a school of fish that spans between these unit echo images is extracted from annotation data of two temporally consecutive unit echo images, and Annotation data for the school of fish is generated by integrating the annotation data. That is, in the example of FIG. 5, the annotation data of the school of sardines at the top right of the unit echo image Pn and the annotation data of the school of sardines at the top left of the unit echo image Pn+1 are integrated to create annotation data for the entire school of sardines. is generated.
図7は、サーバ20の制御部201により実行されるアノテーションデータの統合処理を示すフローチャートである。
FIG. 7 is a flowchart showing the annotation data integration process executed by the
制御部201は、同じエコーIDの単位エコー画像(単位エコーデータ)のうち、時間的に連続する2つの単位エコー画像のアノテーションデータを参照する(S11)。次に、制御部201は、参照したアノテーションデータから、これら2つの単位エコー画像に跨る魚群のアノテーションデータを抽出する(S12)。そして、制御部201は、抽出したアノテーションデータを統合して、2つの単位エコー画像に跨る魚群全体のアノテーションデータを生成し、生成したアノテーションデータを記憶部202に記憶させる(S13)。制御部201は、同じエコーIDの全ての単位エコー画像(単位エコーデータ)に対して、図7の処理を実行する。
The
図3の機械学習モデル301の学習には、端末装置50により生成された図6のアノテーションデータと、図7の処理により生成されたアノテーションデータが用いられる。このとき、図7の処理により統合された2つのアノテーションデータは、機械学習に用いるアノテーションデータから除外されてよい。たとえば、図7の処理により統合された2つのアノテーションデータは、記憶部202に構築された図6のデータ構造から消去されてよい。
The annotation data of FIG. 6 generated by the
図8は、図7のステップS12における処理の一例を示すフローチャートである。 FIG. 8 is a flowchart showing an example of the process in step S12 of FIG.
便宜上、図8には、図7のステップS11、S13が含まれている。図8のステップS101~S105が、図7のステップS12に対応する。 For convenience, steps S11 and S13 in FIG. 7 are included in FIG. Steps S101 to S105 in FIG. 8 correspond to step S12 in FIG.
制御部201は、ステップS11において、時間的に連続する2つの単位エコー画像のアノテーションデータを参照し、各々のアノテーションデータにおける魚群の範囲を把握する。次に、制御部201は、これら2つの単位エコー画像のうち、時間が古い方の第1単位エコー画像において、右側の境界付近、すなわち、図5の境界B1付近に魚群が存在するか否かを判定する(S101)。第1単位エコーの右側の境界B1付近に魚群が存在しない場合(S101:NO)、制御部201は、図8の処理を終了する。第1単位エコーの右側の境界B1付近に魚群が存在する場合(S101:YES)、制御部201は、この魚群を、統合対象の第1魚群として特定する(S102)。
In step S11, the
次に、制御部201は、これら2つの単位エコー画像のうち、時間が新しい方の第2単位エコー画像において、左側の境界付近、すなわち、図5の境界B2付近に魚群が存在するか否かを判定する(S103)。第2単位エコーの左側の境界B2付近に魚群が存在しない場合(S103:NO)、制御部201は、図8の処理を終了する。第2単位エコーの左側の境界B2付近に魚群が存在する場合(S103:YES)、制御部201は、この魚群を、統合対象の第2魚群として特定する(S104)。
Next, the
次に、制御部201は、第1魚群の深度範囲と第2魚群の深度範囲とが略合致するか否かを判定する(S105)。より詳細には、制御部201は、第1魚群の深度範囲と第2魚群の深度範囲との合致率が所定の閾値Th1以上であるか否かを判定する。ステップS105の判定がNOの場合、制御部201は、ステップS13の処理を行うことなく図8の処理を終了する。
Next, the
ステップS105の判定がYESの場合、制御部201は、第1魚群および第2魚群は、第1単位エコー画像と第2単位エコー画像とに跨る魚群を構成するとして、第1魚群および第2魚群のアノテーションデータを統合し、魚群全体のアノテーションデータを生成する(S13)。これにより、制御部201は、これら2つの単位エコー画像のアノテーションデータに対する処理を終了する。
If the determination in step S105 is YES, the
制御部201は、時間的に連続する次の2つの単位エコー画像のアノテーションデータに対して、図8の処理を実行する。こうして、制御部201は、同じエコーIDが付された全ての単位エコー画像のアノテーションデータに対して、図8の処理を行う。
The
図9(a)、(b)は、第1単位エコー画像と第2単位エコー画像との境界付近の魚群の状態を模式的に示す図である。 FIGS. 9A and 9B are diagrams schematically showing the state of a school of fish near the boundary between the first unit echo image and the second unit echo image.
図9(a)には、図5の単位エコー画像Pn(第1単位エコー画像)の右上の部分と単位エコー画像Pn+1(第2単位エコー画像)の左上の部分が示されている。Fa、Fbは、イワシの魚群であり、Ra、Rbは、アノテーションデータに含まれる魚群の範囲(時間範囲、深度範囲)である。上記のように、魚群の範囲Ra、Rbは矩形に設定される。 FIG. 9A shows the upper right part of the unit echo image Pn (first unit echo image) and the upper left part of the unit echo image Pn+1 (second unit echo image) in FIG. 5. Fa and Fb are sardine fish schools, and Ra and Rb are ranges (time range, depth range) of the fish schools included in the annotation data. As described above, the ranges Ra and Rb of the school of fish are set to be rectangular.
図8のステップS101では、第1単位エコー画像Pnの境界B1から所定の時間範囲Taに魚群が存在するか否かが判定され、ステップS103では、第2単位エコー画像Pn+1の境界B2から所定の時間範囲Tbに魚群が存在するか否かが判定される。時間範囲Ta、Tbは、1つの魚群において生じ得る、エコー画像上の時間軸方向の隙間の最大値程度に設定される。時間範囲Ta、Tbは、同じ時間幅に設定されてよい。 In step S101 of FIG. 8, it is determined whether a school of fish exists within a predetermined time range Ta from the boundary B1 of the first unit echo image Pn, and in step S103, it is determined whether a school of fish exists within a predetermined time range Ta from the boundary B1 of the second unit echo image Pn+1. It is determined whether a school of fish exists in the time range Tb. The time ranges Ta and Tb are set to approximately the maximum value of the gap in the time axis direction on the echo image that can occur in one school of fish. The time ranges Ta and Tb may be set to the same time width.
図9(a)の例では、魚群Fa(魚群の範囲Ra)が時間範囲Ta内に存在するため、図8のステップS101の判定がYESとなり、魚群Faが第1魚群として特定される。また、図9(a)の例では、魚群Fb(魚群の範囲Rb)が時間範囲Tb内に存在するため、図8のステップS103の判定がYESとなり、魚群Fbが第2魚群として特定される。 In the example of FIG. 9A, since the fish school Fa (fish school range Ra) exists within the time range Ta, the determination in step S101 of FIG. 8 is YES, and the fish school Fa is specified as the first fish school. Furthermore, in the example of FIG. 9(a), since the fish school Fb (fish school range Rb) exists within the time range Tb, the determination in step S103 of FIG. 8 is YES, and the fish school Fb is identified as the second fish school. .
これに対して、図9(b)の例では、魚群Fa(魚群の範囲Ra)が時間範囲Ta内に存在しないため、図8のステップS101の判定がNOとなり、魚群Faは第1魚群として特定されない。また、図9(b)の例では、魚群Fb(魚群の範囲Rb)が時間範囲Tb内に存在しないため、図8のステップS103の判定がNOとなり、魚群Fbは第2魚群として特定されない。 On the other hand, in the example of FIG. 9(b), since the fish school Fa (fish school range Ra) does not exist within the time range Ta, the determination in step S101 of FIG. 8 is NO, and the fish school Fa is the first fish school. Not specified. Further, in the example of FIG. 9(b), since the fish school Fb (fish school range Rb) does not exist within the time range Tb, the determination in step S103 of FIG. 8 is NO, and the fish school Fb is not specified as the second fish school.
また、図8のステップS105では、以下の式(1)による判定が行われる。 Further, in step S105 in FIG. 8, a determination is made using the following equation (1).
図9(a)に示すように、AmaxおよびAminは、それぞれ、第1単位エコー画像Pnにおける第1魚群Fa(魚群の範囲Ra)の最大深度および最小深度であり、BmaxおよびBminは、それぞれ、第2単位エコー画像Pn+1における第2魚群Fb(魚群の範囲Rb)の最大深度および最小深度である。 As shown in FIG. 9(a), Amax and Amin are the maximum depth and minimum depth, respectively, of the first fish school Fa (fish school range Ra) in the first unit echo image Pn, and Bmax and Bmin are, respectively, These are the maximum depth and minimum depth of the second fish school Fb (fish school range Rb) in the second unit echo image Pn+1.
すなわち、式(1)の左辺の分母は、AminとBminの小さい方(浅い方)からAmaxとBmaxの大きい方(深い方)までの深度範囲であり、図9(a)の例ではAminからBmaxまでの深度範囲である。また、式(1)の左辺の分子は、AminとBminの大きい方(深い方)からAmaxとBmaxの小さい方(浅い方)までの深度範囲であり、図9(a)の例ではBminからAmaxまでの深度範囲である。式(1)の左辺により、第1魚群Faの深度範囲と第2魚群Fbの深度範囲との合致率が算出される。図8のステップS105では、この合致率が閾値Th1以上であるか否かによって、第1魚群Faの深度範囲と第2魚群Fbの深度範囲とが略合致するか否かが判定される。閾値Th1は、統計的に設定されたデフォルト値であってよく、あるいは、サーバ20の管理者により任意に設定されてもよい。
In other words, the denominator on the left side of equation (1) is the depth range from the smaller of Amin and Bmin (shallower) to the larger of Amax and Bmax (deeper), and in the example of FIG. 9(a), from Amin to The depth range is up to Bmax. In addition, the numerator on the left side of equation (1) is the depth range from the larger one of Amin and Bmin (deeper one) to the smaller one of Amax and Bmax (shallower one), and in the example of FIG. 9(a), from Bmin to The depth range is up to Amax. The matching rate between the depth range of the first fish school Fa and the depth range of the second fish school Fb is calculated from the left side of equation (1). In step S105 of FIG. 8, it is determined whether the depth range of the first fish school Fa and the depth range of the second fish school Fb substantially match, depending on whether the matching rate is equal to or greater than the threshold Th1. The threshold Th1 may be a statistically set default value, or may be arbitrarily set by the administrator of the
図10(a)、(b)は、図8のステップS13における第1魚群および第2魚群のアノテーションデータの統合方法を示す図である。 FIGS. 10A and 10B are diagrams showing a method for integrating the annotation data of the first fish school and the second fish school in step S13 of FIG. 8.
図8のステップS13において、制御部201は、第1魚群Faの魚群の範囲Raおよび第2魚群Fbの魚群の範囲Rbの深度範囲を整合させる。すなわち、制御部201は、図10(a)に示すように、最大深度Amax、Bmaxの小さい方(Amax)を大きい方(Amax)に整合させ、最小深度Amin、Bminの大きい方(Bmin)を小さい方(Amin)に整合させるよう、魚群の範囲Ra、Rbの深度範囲を修正する。そして、制御部201は、図10(b)に示すように、修正後の魚群の範囲Ra、Rbのアノテーションデータを統合して、魚群Fa、Fbにより構成される1つの魚群のアノテーションデータを生成する。
In step S13 of FIG. 8, the
生成されたアノテーションデータは、修正後の魚群の範囲Ra、Rbを統合した魚群の範囲Rabと、この魚群の範囲Rabに含まれるエコーデータと、当該魚群の魚種(ここではイワシ)とから構成される。魚群の範囲Rabも、魚群の範囲Ra、Rbと同様、矩形となり、この矩形の範囲に魚群Fa、Fbが内包される。上記のように、サーバ20の制御部201は、統合後のアノテーションデータを機械学習モデル301の学習に用いる。
The generated annotation data is composed of a fish school range Rab that integrates the corrected fish school ranges Ra and Rb, echo data included in this fish school range Rab, and the fish species of the fish school (in this case, sardines). be done. The fish school range Rab is also rectangular like the fish school ranges Ra and Rb, and the fish schools Fa and Fb are included in this rectangular range. As described above, the
なお、図9(a)~図10(b)には、第1単位エコー画像Pnの右上の部分と第2単位エコー画像Pn+1の左上の部分の魚群が例示されたが、第1単位エコー画像と第2単位エコー画像とに跨る魚群が複数存在する場合は、それぞれの魚群に対して上記と同様の処理が行われて、統合後のアノテーションデータが複数生成される。 In addition, in FIGS. 9(a) to 10(b), fish schools in the upper right part of the first unit echo image Pn and the upper left part of the second unit echo image Pn+1 are illustrated, but the first unit echo image If there are a plurality of schools of fish extending over the second unit echo image and the second unit echo image, the same processing as described above is performed for each school of fish, and a plurality of pieces of integrated annotation data are generated.
また、3つ以上の単位エコー画像に1つの魚群が跨る場合は、これら単位エコー画像のうち隣り合う単位エコー画像について、上記の処理が順次行われる。これにより、3つ以上の単位エコー画像に分断された魚群の部分のアノテーションデータが統合され、1つの魚群に対するアノテーションデータが生成される。 Furthermore, when one school of fish straddles three or more unit echo images, the above processing is sequentially performed on adjacent unit echo images among these unit echo images. As a result, the annotation data of parts of the fish school divided into three or more unit echo images are integrated, and annotation data for one fish school is generated.
<実施形態の効果>
実施形態によれば、以下の効果が奏され得る。
<Effects of embodiment>
According to the embodiment, the following effects can be achieved.
図7~図10(b)に示したように、第1単位エコー画像Pnと第2単位エコー画像Pn+1との間に跨る魚群のアノテーションデータ(第1アノテーションデータおよび第2アノテーションデータ)が統合されて、当該魚群全体のアノテーションデータが生成される。したがって、魚群全体に対するアノテーションデータを機械学習に用いることができるため、魚種判別のための機械学習の精度を高めることができる。 As shown in FIGS. 7 to 10(b), the annotation data (first annotation data and second annotation data) of the fish school spanning between the first unit echo image Pn and the second unit echo image Pn+1 are integrated. Then, annotation data for the entire school of fish is generated. Therefore, the annotation data for the entire school of fish can be used for machine learning, so the accuracy of machine learning for fish species discrimination can be improved.
図9(a)に示したように、制御部201は、第1単位エコー画像Pn上において第2単位エコー画像Pn+1側の境界B1(第1境界)付近まで延びている魚群Faを第1魚群に特定し、第2単位エコー画像Pn+1上において第1単位エコー画像Pn側の境界B2(第2境界)付近まで延びている魚群Fbを第2魚群に特定し、魚群Fa(第1魚群)の範囲Raと魚群Fb(第2魚群)の範囲Rbとが略合致する場合に、これら魚群Fa、Fb(第1魚群、第2魚群)のアノテーションデータを、統合対象のアノテーションデータ(第1アノテーションデータおよび第2アノテーションデータ)としてそれぞれ抽出する。これにより、1つの魚群を構成する確率が高い魚群Fa、Fb(第1魚群、第2魚群)を、第1単位エコー画像Pnおよび第2単位エコー画像Pn+1において円滑に特定できる。よって、これら魚群のアノテーションデータを統合することにより、1つの魚群全体のアノテーションデータを精度良く生成できる。
As shown in FIG. 9A, the
図9(a)に示したように、制御部201は、境界B1(第1境界)から所定の時間範囲Taに少なくとも一部が含まれる魚群Faを統合対象の魚群(第1魚群)として抽出し、境界B2(第2境界)から所定の時間範囲Tbに少なくとも一部が含まれる魚群Fbを統合対象の魚群(第2魚群)として抽出する。これにより、境界B1、B2付近で魚の分布が疎らになっている場合も、第1単位エコー画像Pnと第2単位エコー画像Pn+1とに跨る魚群を構成する第1魚群および第2魚群を、第1単位エコー画像Pnおよび第2単位エコー画像Pn+1において取りこぼしなく特定できる。よって、1つの魚群全体のアノテーションデータを適正に生成できる。
As shown in FIG. 9(a), the
<変更例1>
本発明は、上記実施形態に制限されるものではなく、また、本発明の実施形態は、上記構成の他に種々の変更が可能である。
<Change example 1>
The present invention is not limited to the above embodiments, and the embodiments of the present invention can be modified in various ways in addition to the above configurations.
たとえば、上記実施形態では、アノテーションデータを構成する魚群の範囲(時間範囲、深度範囲)が矩形であったが、アノテーションデータを構成する魚群の範囲は、矩形以外の他の形状であってもよい。 For example, in the above embodiment, the range (time range, depth range) of the fish school that makes up the annotation data is rectangular, but the range of the fish school that makes up the annotation data may have a shape other than a rectangle. .
たとえば、図11(a)に示すように、魚群の範囲Ra、Rbが、魚群Fa、Fbの外縁に沿った形状であってもよい。この場合、上記のように、エコー画像上において、エコー強度が所定の閾値以上であり、且つ、エコー強度に繋がりがある領域が魚群Fa、Fbとして抽出され、抽出された魚群Fa、Fbの外縁に沿った範囲が、魚群の範囲Ra、Rbとして抽出される。端末装置50の制御部501は、オペレータがエコー画像上において魚群の位置を指示すると、指定された位置を含む魚群に対して上記処理により抽出した魚群の範囲を、エコー画像上に重ねて表示する。
For example, as shown in FIG. 11(a), the ranges Ra and Rb of the fish schools may be shaped along the outer edges of the fish schools Fa and Fb. In this case, as described above, areas on the echo image where the echo intensity is equal to or higher than a predetermined threshold and where the echo intensities are connected are extracted as fish schools Fa and Fb, and the outer edges of the extracted fish schools Fa and Fb are extracted as fish schools Fa and Fb. The range along is extracted as the ranges Ra and Rb of the school of fish. When the operator specifies the position of a school of fish on the echo image, the
この場合も、上記実施形態1と同様、図8のステップS101では、境界B1から時間範囲Taに魚群が存在するかが判定され、ステップS103では、境界B2から時間範囲Tbに魚群が存在するかが判定される。これにより、図11(a)に示すように、魚群Fa、Fbが、それぞれ、第1魚群および第2魚群に特定される。 In this case, as in the first embodiment, in step S101 of FIG. 8, it is determined whether a school of fish exists in the time range Ta from the boundary B1, and in step S103, it is determined whether a school of fish exists in the time range Tb from the boundary B2. is determined. Thereby, as shown in FIG. 11(a), the fish schools Fa and Fb are specified as the first fish school and the second fish school, respectively.
また、この場合、図11(a)のステップS105では、魚群Fa(第1魚群)の深度範囲と魚群Fb(第2魚群)の深度範囲とがほぼ合致するか否かが、境界B1(第1境界)付近における魚群Fa(第1魚群)の深度範囲と、境界B2(第2境界)付近における魚群Fb(第2魚群)の深度範囲との合致率に基づいて判定される。 In this case, in step S105 of FIG. 11(a), it is determined whether the depth range of the fish school Fa (first fish school) and the depth range of the fish school Fb (second fish school) almost match. The determination is made based on the matching rate between the depth range of the fish school Fa (first fish school) near the first boundary) and the depth range of the fish school Fb (second fish school) near the boundary B2 (second boundary).
すなわち、魚群Faについては、魚群の範囲Raのうち時間範囲Taに含まれる部分に対して最大深度Amaxおよび最小深度Aminが取得され、魚群Fbについては、魚群の範囲Rbのうち時間範囲Tbに含まれる部分に対して最大深度Bmaxおよび最小深度Bminが取得される。 That is, for the fish school Fa, the maximum depth Amax and the minimum depth Amin are obtained for the part included in the time range Ta of the range Ra of the fish school, and for the fish school Fb, the maximum depth Amax and the minimum depth Amin are obtained for the part included in the time range Tb of the range Rb of the fish school. A maximum depth Bmax and a minimum depth Bmin are obtained for the portion that is to be stored.
制御部201は、こうして取得した最大深度Amax、Bmaxおよび最小深度Amin、Bminを上記式(1)に適用して、ステップS105の判定を行う。このように、境界B1(第1境界)および境界B2(第2境界)の付近において、魚群Fa(第1魚群)の深度範囲と魚群Fb(第2魚群)の深度範囲とが略合致するかを判定することにより、これら魚群Fa、Fb(第1魚群、第2魚群)が互いに連続するものであるかを正確に判定できる。よって、魚群Fa、Fb(第1魚群、第2魚群)のアノテーションデータから1つの魚群全体のアノテーションデータを精度良く生成できる。
The
この場合、図11(a)のステップS13では、図11(b)のように、最大深度Amax、Bmaxをそれぞれ取得した魚群の範囲Ra、Rbの位置を互いに接続し、最小深度Amin、Bminをそれぞれ取得した魚群の範囲Ra、Rbの位置を互いに接続することにより、魚群全体の魚群の範囲Rabが設定され得る。これにより、魚群全体のアノテーションデータを構成する魚群の範囲Rabを、円滑かつ適正に設定できる。 In this case, in step S13 of FIG. 11(a), as shown in FIG. 11(b), the positions of the ranges Ra and Rb of the fish schools from which the maximum depths Amax and Bmax have been obtained are connected to each other, and the minimum depths Amin and Bmin are determined. By connecting the positions of the respective acquired fish school ranges Ra and Rb, the fish school range Rab of the entire fish school can be set. Thereby, the range Rab of the fish school that constitutes the annotation data of the entire fish school can be set smoothly and appropriately.
但し、魚群の範囲Rabの設定方法がこれに限られるものではない。たとえば、最大深度Amax、Bmaxをそれぞれ取得した魚群の範囲Ra、Rbの位置よりもやや境界B1、B2側の魚群の範囲Ra、Rbの位置を接続し、最小深度Amin、Bminをそれぞれ取得した魚群の範囲Ra、Rbの位置よりもやや境界B1、B2側の魚群の範囲Ra、Rbの位置を接続することにより、魚群の範囲Rabが設定されてもよい。この場合も、魚群全体のアノテーションデータを構成する魚群の範囲Rabを、円滑かつ適正に設定できる。 However, the method of setting the range Rab of the fish school is not limited to this. For example, by connecting the positions of ranges Ra and Rb of fish schools slightly closer to the boundaries B1 and B2 than the positions of ranges Ra and Rb of fish schools for which maximum depths Amax and Bmax have been obtained, respectively, a school of fish for which minimum depths Amin and Bmin have been obtained, respectively. The range Rab of the fish school may be set by connecting the positions of the ranges Ra and Rb of the fish school that are slightly closer to the boundaries B1 and B2 than the positions of the ranges Ra and Rb. In this case as well, the range Rab of the fish school that constitutes the annotation data of the entire fish school can be set smoothly and appropriately.
<変更例2>
上記実施形態では、第1魚群のアノテーションデータを構成する魚種と、第2魚群のアノテーションデータを構成する魚種とが同じであると想定された。しかしながら、魚群の画像に基づく魚種の判定は、オペレータにおいて困難な場合もある。このため、1つの魚群を構成するとして特定された第1魚群および第2魚群にそれぞれ設定されたアノテーションデータの魚種が互いに相違することが起こり得る。
<Change example 2>
In the embodiment described above, it was assumed that the fish species that constitute the annotation data of the first fish school and the fish species that constitute the annotation data of the second fish school are the same. However, it may be difficult for an operator to determine the species of fish based on images of schools of fish. For this reason, it is possible that the fish species of the annotation data respectively set for the first fish school and the second fish school that are specified as forming one fish school are different from each other.
変更例2では、このような場合に、統合後のアノテーションデータに対して、所定の条件に基づき、魚種が設定される。 In modification example 2, in such a case, the fish species is set for the integrated annotation data based on predetermined conditions.
図12は、図8のステップS13におけるアノテーションデータの統合処理において実行される魚種の設定処理を示すフローチャートである。 FIG. 12 is a flowchart showing the fish species setting process executed in the annotation data integration process in step S13 of FIG.
制御部201は、統合対象の第1魚群および第2魚群のアノテーションデータの魚種が一致するか否かを判定する(S201)。両者が一致する場合(S201:YES)、制御部201は、一致した魚種を、統合後の魚群の魚種に設定する(S202)。他方、両者が一致しない場合、制御部201は、所定の設定条件に従って、統合後の魚群の魚種を設定する(S203)。
The
ステップS203の設定条件は、たとえば、第1魚群および第2魚群のアノテーションデータ(第1アノテーションデータ、前記第2アノテーションデータ)のうち新しい方のアノテーションデータの魚種に設定することを含み得る。 The setting conditions in step S203 may include, for example, setting the annotation data to the fish species of the newer one of the annotation data (the first annotation data and the second annotation data) of the first school of fish and the second school of fish.
たとえば、図11(a)の例において、魚群Fa(第1魚群)および魚群Fb(第2魚群)のアノテーションデータをそれぞれ構成する魚種が相違する場合、制御部201は、新しい方の単位エコー画像Pn+1から取得された魚群Fbのアノテーションデータの魚種を、統合後の魚群の範囲Rabに対する魚種として設定する。
For example, in the example of FIG. 11(a), if the fish species constituting the annotation data of fish school Fa (first fish school) and fish school Fb (second fish school) are different, the
なお、ステップS203における設定条件は、上記のように、新しい方のアノテーションデータの魚種に設定するとの条件(第1条件)に限られるものではなく、信頼性の高い魚種を統合後のアノテーションデータに設定可能な限りにおいて、他の条件であってもよい。 Note that the setting conditions in step S203 are not limited to the condition that the new annotation data is set to the fish species as described above (the first condition), but the setting condition is that the fish species with high reliability is set to the annotation data after the integration. Other conditions may be used as long as they can be set in the data.
たとえば、統合対象の第1魚群および第2魚群のアノテーションデータ(第1アノテーションデータ、第2アノテーションデータ)のうち魚群の範囲が大きい方のアノテーションデータの魚種を、統合後の魚群のアノテーションデータの魚種に設定するとの条件(第2条件)が、ステップS203の設定条件に含まれてもよい。 For example, among the annotation data of the first and second fish schools to be integrated (first annotation data, second annotation data), the fish species of the annotation data that has a larger range of fish schools can be added to the annotation data of the integrated fish school. The condition of setting the fish species (second condition) may be included in the setting conditions of step S203.
あるいは、統合したアノテーションデータを魚種判別の機械学習モデル301で処理して得られた魚種を、統合後の魚群のアノテーションデータの魚種に設定するとの条件(第3条件)が、ステップS203の設定条件に含まれてもよい。
Alternatively, the condition (third condition) that the fish species obtained by processing the integrated annotation data with the fish species discrimination
この場合、たとえば、第2条件により魚種を設定できない場合(たとえば、第1魚群の範囲と第2魚群の範囲とが略同じである場合)に、第1条件または第3条件が適用されて、魚種が設定されてもよい。あるいは、第1条件から第3条件によりそれぞれ取得された魚種のうち、互いに一致する魚種の数が最も多い魚種が、統合後の魚群のアノテーションデータの魚種に設定されてもよい。設定条件は、第1条件から第3条件に限られるものではなく、他の条件をさらに含んでもよい。 In this case, for example, when the fish species cannot be set due to the second condition (for example, when the range of the first fish school and the range of the second fish school are approximately the same), the first condition or the third condition is applied. , fish species may be set. Alternatively, among the fish species obtained according to the first condition to the third condition, the fish species with the largest number of mutually matching fish species may be set as the fish species of the annotation data of the fish school after integration. The setting conditions are not limited to the first to third conditions, and may further include other conditions.
このように、魚群Fa(第1魚群)および魚群Fb(第2魚群)のアノテーションデータをそれぞれ構成する魚種が相違する場合に、ステップS203の処理を行うことで、信頼性の高い魚種を、統合後のアノテーションデータに設定できる。よって、機械学習の精度を高めることができる。 In this way, when the fish species composing the annotation data of fish school Fa (first fish school) and fish school Fb (second fish school) are different, by performing the process of step S203, highly reliable fish species can be selected. , can be set in the annotation data after integration. Therefore, the accuracy of machine learning can be improved.
なお、ステップS201の判定がNOの場合は、第1魚群および第2魚群のアノテーションデータを統合する処理を中止してもよい。この場合、制御部201は、第1魚群および第2魚群のアノテーションデータの両方を、機械学習モデル301の機械学習に用いるアノテーションデータの対象から除外してよく、あるいは、これらアノテーションデータの一方(たとえば、古い方または魚群の範囲が小さい方)を機械学習モデル301の機械学習に用いるアノテーションデータの対象から除外してよい。
Note that if the determination in step S201 is NO, the process of integrating the annotation data of the first school of fish and the second school of fish may be canceled. In this case, the
<その他の変更例>
上記実施形態および変更例1、2では、図7および図8の処理が、サーバ20の制御部201において行われたが、これらの処理が、サーバ20以外の他の装置で行われて、統合後のアノテーションデータがサーバ20に提供されもよい。たとえば、図7および図8の処理が、オペレータによるアノテーションデータの生成後に、端末装置50の制御部501が行い、オペレータが生成したアノテーションデータと、図7および図8の処理により生成したアノテーションデータとを、制御部501がサーバ20に送信してもよい。この場合、端末装置50が、特許請求の範囲に記載の魚種学習装置に対応する。
<Other change examples>
In the above embodiment and modified examples 1 and 2, the processes shown in FIGS. 7 and 8 were performed in the
また、上記実施形態および変更例1、2では、上記式(1)によって、第1魚群および第2魚群の深度範囲が略合致するか否かが判定されたが、この判定の方法は、これに限られるものではない。たとえば、図9(a)において、最大深度Amaxと最小深度Aminとの間の第1深度幅と、最大深度Bmaxと最小深度Bminとの間の第2深度幅との差分が所定の閾値より小さく、且つ、第1深度幅の中間深度と第2深度幅の中間深度との差分が所定の閾値より小さいとの条件が満たされる場合に、第1魚群および第2魚群の深度範囲が略合致し、この条件が満たされない場合に、これら魚群の深度範囲が合致しないと判定されてもよい。図11(a)の場合も、同様の判定方法にて、第1魚群および第2魚群の深度範囲が略合致するか否かが判定されてもよい。
In addition, in the above embodiment and
また、第1単位エコー画像と第2単位エコー画像とに跨る魚群のアノテーションデータを抽出する方法は、図8のステップS101~S105に示した方法に限られるものではない。たとえば、第1魚群のエコーデータおよび第2魚群のエコーデータの分布の連続性に基づいて、第1魚群および第2魚群が1つの魚群を構成するかが判定されてもよい。 Further, the method for extracting annotation data of a school of fish across the first unit echo image and the second unit echo image is not limited to the method shown in steps S101 to S105 in FIG. 8. For example, it may be determined whether the first school of fish and the second school of fish constitute one school of fish, based on the continuity of the distribution of the echo data of the first school of fish and the echo data of the second school of fish.
また、上記実施形態および変更例1、2では、送受波部104により送波される送信波の周波数が1つであることが想定されたが、互いに異なる2種類の周波数の送信波が送受波部104から送波されてもよい。この場合、各周波数の受信信号に基づくエコーデータが魚群ごとに機械学習モデル301に適用されて、各魚群の魚種が判別されてもよい。このように2種類の周波数で送受波が行われることにより、機械学習モデル301による魚種判別をより高精度に行うことができる。たとえば、鰾の有無によって、各周波数のエコー強度に差が生じる。このため、魚群からのエコーの強度の差を参照することによって、当該魚群の魚種を精度良く判別できる。
Furthermore, in the above embodiment and
この場合、単位エコー画像により生成されるアノテーションデータは、それぞれの魚群に対して周波数ごとに生成されればよい。また、図7および図8に示したアノテーションデータの統合処理は、各周波数のエコーデータ(単位エコー画像)に対して個別に行われればよい。 In this case, the annotation data generated from the unit echo image may be generated for each frequency for each school of fish. Further, the annotation data integration process shown in FIGS. 7 and 8 may be performed individually for each frequency of echo data (unit echo image).
また、上記実施形態では、機械学習モデル301を用いた魚種の判別処理がサーバ20側で行われたが、この判別処理が水中探知装置10側で行われてもよい。この場合、アノテーションデータにより更新された機械学習モデル301が、随時、水中探知装置10に送信され、水中探知装置10に記憶される。水中探知装置10の制御部101は、送受波部104および信号処理部105により取得したエコーデータに基づいて、上記サーバ20の制御部201と同様、機械学習モデル301を用いた魚種判別を実行し、判別結果をエコー画像に表示させる。
Further, in the above embodiment, the fish species discrimination process using the
また、上記実施形態では、アノテーションデータが端末装置50において生成されたが、アノテーションデータを生成する装置はこれに限られるものではない。たとえば、水中探知装置10のユーザが、自身の漁獲結果からエコー画像上の魚群とその魚種を入力し、この魚群のエコーデータと当該魚群の魚種が、アノテーションデータとしてサーバ20に送信されてもよい。
Further, in the above embodiment, the annotation data is generated in the
また、上記実施形態では、水中探知装置10が魚群探知機であったが、水中探知装置10がソナー等、魚群探知機以外の装置であってもよい。
Further, in the above embodiment, the
この他、本発明の実施形態は、特許請求の範囲に記載の範囲で適宜種々の変更可能である。 In addition, the embodiments of the present invention can be modified in various ways within the scope of the claims.
20 サーバ(機械学習装置)
201 制御部
202 記憶部
301 機械学習モデル
Pn、Pn+1 単位エコー画像(第1単位エコー画像、第2単位エコー画像)
Fa、Fb 魚群(第1魚群、第2魚群)
B1、B2 境界(第1境界、第2境界)
Ta、Tb 時間範囲
20 Server (machine learning device)
Fa, Fb Fish school (1st fish school, 2nd fish school)
B1, B2 boundary (first boundary, second boundary)
Ta, Tb time range
Claims (8)
制御部と、を備え、
前記制御部は、
時間的に連続する第1単位エコー画像および第2単位エコー画像の前記アノテーションデータから、前記第1単位エコー画像と前記第2単位エコー画像との間に跨る魚群の第1アノテーションデータおよび第2アノテーションデータをそれぞれ抽出し、
抽出した前記第1アノテーションデータおよび前記第2アノテーションデータを統合して、前記魚群全体のアノテーションデータを生成する、
ことを特徴とする魚種学習装置。 a storage unit that stores annotation data for each unit echo image;
comprising a control unit;
The control unit includes:
From the annotation data of the temporally continuous first unit echo image and second unit echo image, first annotation data and second annotation data of a school of fish spanning between the first unit echo image and the second unit echo image are obtained. Extract each data,
integrating the extracted first annotation data and the second annotation data to generate annotation data for the entire school of fish;
A fish species learning device characterized by:
前記制御部は、
前記第1単位エコー画像上において前記第2単位エコー画像側の第1境界付近まで延びている第1魚群と、前記第2単位エコー画像上において前記第1単位エコー画像側の第2境界付近まで延びている第2魚群とを特定し、
前記第1魚群の深度範囲と前記第2魚群の深度範囲とが略合致する場合に、前記第1魚群および前記第2魚群の前記アノテーションデータを、前記第1アノテーションデータおよび前記第2アノテーションデータとしてそれぞれ抽出する、
ことを特徴とする魚種学習装置。 The fish species learning device according to claim 1,
The control unit includes:
A first school of fish extending to near the first boundary on the second unit echo image side on the first unit echo image, and extending to near the second boundary on the first unit echo image side on the second unit echo image. Identify the second school of fish that is extending,
When the depth range of the first fish school and the depth range of the second fish school substantially match, the annotation data of the first fish school and the second fish school are used as the first annotation data and the second annotation data. Extract each
A fish species learning device characterized by:
前記制御部は、前記第1魚群の深度範囲と前記第2魚群の深度範囲とが略合致するか否かを、前記第1境界付近における前記第1魚群の深度範囲と、前記第2境界付近における前記第2魚群の深度範囲との合致率に基づいて判定する、
ことを特徴とする魚種学習装置。 The fish species learning device according to claim 2,
The control unit determines whether the depth range of the first school of fish and the depth range of the second school of fish substantially match. Determining based on the matching rate with the depth range of the second school of fish,
A fish species learning device characterized by:
前記制御部は、前記第1境界から所定の時間範囲に少なくとも一部が含まれる魚群を前記第1魚群として抽出し、前記第2境界から所定の時間範囲に少なくとも一部が含まれる魚群を前記第2魚群として抽出する、
ことを特徴とする魚種学習装置。 The fish species learning device according to claim 2,
The control unit extracts a school of fish that is at least partially included in a predetermined time range from the first boundary as the first school of fish, and extracts a school of fish that is at least partially included in a predetermined time range from the second boundary as the first school of fish. Extract as the second school of fish,
A fish species learning device characterized by:
前記制御部は、前記第1アノテーションデータに含まれる魚種と前記第2アノテーションデータに含まれる魚種とが相違する場合、所定の設定条件に基づき、前記魚群のアノテーションデータの魚種を設定する、
ことを特徴とする魚種学習装置。 The fish species learning device according to claim 1,
When the fish species included in the first annotation data and the fish species included in the second annotation data are different, the control unit sets the fish species of the annotation data of the fish school based on predetermined setting conditions. ,
A fish species learning device characterized by:
前記設定条件は、
前記第1アノテーションデータおよび前記第2アノテーションデータのうち新しい方のアノテーションデータの魚種に設定することを含む、
ことを特徴とする魚種学習装置。 The fish species learning device according to claim 5,
The setting conditions are:
setting the newer one of the first annotation data and the second annotation data to the fish species;
A fish species learning device characterized by:
抽出した前記第1アノテーションデータおよび前記第2アノテーションデータを統合して、前記魚群全体のアノテーションデータを生成する、
ことを特徴とする魚種学習方法。 From the annotation data of the temporally continuous first unit echo image and second unit echo image, first annotation data and second annotation data of a school of fish spanning between the first unit echo image and the second unit echo image are obtained. Extract each data,
integrating the extracted first annotation data and the second annotation data to generate annotation data for the entire school of fish;
A method of learning about fish species.
時間的に連続する第1単位エコー画像および第2単位エコー画像の前記アノテーションデータから、前記第1単位エコー画像と前記第2単位エコー画像との間に跨る魚群の第1アノテーションデータおよび第2アノテーションデータをそれぞれ抽出する機能と、
抽出した前記第1アノテーションデータおよび前記第2アノテーションデータを統合して、前記魚群全体のアノテーションデータを生成する機能と、を実行させるプログラム。 to the computer,
From the annotation data of the temporally continuous first unit echo image and second unit echo image, first annotation data and second annotation data of a school of fish spanning between the first unit echo image and the second unit echo image are obtained. A function to extract each data,
A program that executes a function of integrating the extracted first annotation data and the second annotation data to generate annotation data for the entire school of fish.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022129707A JP2024027023A (en) | 2022-08-16 | 2022-08-16 | Fish species learning device, fish species learning method, and program |
PCT/JP2023/019775 WO2024038653A1 (en) | 2022-08-16 | 2023-05-26 | Device, method, and program for learning fish species |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022129707A JP2024027023A (en) | 2022-08-16 | 2022-08-16 | Fish species learning device, fish species learning method, and program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2024027023A true JP2024027023A (en) | 2024-02-29 |
Family
ID=89941763
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022129707A Pending JP2024027023A (en) | 2022-08-16 | 2022-08-16 | Fish species learning device, fish species learning method, and program |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP2024027023A (en) |
WO (1) | WO2024038653A1 (en) |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2014190787A (en) * | 2013-03-27 | 2014-10-06 | Royal Kogyo Kk | Fish detection system |
EP3761057A1 (en) * | 2019-07-03 | 2021-01-06 | Furuno Electric Co., Ltd. | Systems and methods for generating training dataset for discrimination of fish species |
-
2022
- 2022-08-16 JP JP2022129707A patent/JP2024027023A/en active Pending
-
2023
- 2023-05-26 WO PCT/JP2023/019775 patent/WO2024038653A1/en unknown
Also Published As
Publication number | Publication date |
---|---|
WO2024038653A1 (en) | 2024-02-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN101203747B (en) | Method and system for intelligent qualitative and quantitative analysis of digital radiography softcopy reading | |
JP6702535B2 (en) | Same fish judging device, fish counting device, portable terminal for fish counting, same fish judging method, fish counting method, fish number predicting device, fish number predicting method, same fish judging system, fish counting system and fish number predicting system | |
US20180011457A1 (en) | Control device, control method, computer program product, and robot control system | |
JP6635648B2 (en) | Medical image processing apparatus, medical image processing method, and classifier training method | |
JP2011146796A5 (en) | ||
CA2676903A1 (en) | Method and apparatus for determining a threat status for a liquid product | |
JP6492278B2 (en) | Fish finder | |
RU2018132850A (en) | Methods and systems for computer determining the presence of objects | |
JP7236694B2 (en) | Information processing method and information processing system | |
US10496694B2 (en) | Rating and advising for selection of augmented reality markers | |
JP2024027023A (en) | Fish species learning device, fish species learning method, and program | |
WO2024018989A1 (en) | Fish species discrimination system, server, fish species discrimination method and program | |
JP2007323268A (en) | Video providing device | |
JP6216108B2 (en) | Fish species discrimination device, signal processing device, underwater detector, fish species discrimination method, and program | |
CN107037420B (en) | Underwater detection device | |
KR102340184B1 (en) | Apparatus and method for tracking a manual target using AI learning technique in the console terminal | |
US9729754B2 (en) | Image processing apparatus for expansion processing | |
JP7039621B2 (en) | Radar device | |
JP2024005623A (en) | Server, fish species discrimination system, fish species discrimination method, and program | |
JP7159025B2 (en) | Diagnostic device and diagnostic method | |
JP2022182149A (en) | Information processing apparatus and image processing method | |
JP2024043266A (en) | Fish species learning apparatus, fish species learning system, fish species learning method, and program | |
JP5998952B2 (en) | Sign image placement support apparatus and program | |
JP5851956B2 (en) | Mandibular canal extraction device, mandibular canal extraction method, and program | |
CN113129344B (en) | Resolution adaptive method, ultrasonic apparatus, and storage medium |