JP2024027023A - Fish species learning device, fish species learning method, and program - Google Patents

Fish species learning device, fish species learning method, and program Download PDF

Info

Publication number
JP2024027023A
JP2024027023A JP2022129707A JP2022129707A JP2024027023A JP 2024027023 A JP2024027023 A JP 2024027023A JP 2022129707 A JP2022129707 A JP 2022129707A JP 2022129707 A JP2022129707 A JP 2022129707A JP 2024027023 A JP2024027023 A JP 2024027023A
Authority
JP
Japan
Prior art keywords
fish
school
annotation data
unit
echo image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2022129707A
Other languages
Japanese (ja)
Inventor
昭範 笠井
Akinori KASAI
祐太 平林
Yuta HIRABAYASHI
政志 村垣
Masashi Muragaki
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Furuno Electric Co Ltd
Original Assignee
Furuno Electric Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Furuno Electric Co Ltd filed Critical Furuno Electric Co Ltd
Priority to JP2022129707A priority Critical patent/JP2024027023A/en
Priority to PCT/JP2023/019775 priority patent/WO2024038653A1/en
Publication of JP2024027023A publication Critical patent/JP2024027023A/en
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S15/00Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
    • G01S15/88Sonar systems specially adapted for specific applications
    • G01S15/96Sonar systems specially adapted for specific applications for locating fish
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/003Transmission of data between radar, sonar or lidar systems and remote stations
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/52Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S15/00
    • G01S7/523Details of pulse systems
    • G01S7/526Receivers
    • G01S7/53Means for transforming coordinates or for evaluating data, e.g. using computers
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/52Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S15/00
    • G01S7/539Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S15/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/52Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S15/00
    • G01S7/56Display arrangements
    • G01S7/62Cathode-ray tube displays
    • G01S7/6263Cathode-ray tube displays in which different colours are used
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/52Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S15/00
    • G01S7/56Display arrangements
    • G01S7/62Cathode-ray tube displays
    • G01S7/6272Cathode-ray tube displays producing cursor lines and indicia by electronic means
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/52Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S15/00
    • G01S7/56Display arrangements
    • G01S7/62Cathode-ray tube displays
    • G01S7/6281Composite displays, e.g. split-screen, multiple images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/04Forecasting or optimisation specially adapted for administrative or management purposes, e.g. linear programming or "cutting stock problem"
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/10Office automation; Time management
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/02Agriculture; Fishing; Forestry; Mining
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S15/00Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
    • G01S15/87Combinations of sonar systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • General Physics & Mathematics (AREA)
  • Business, Economics & Management (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Strategic Management (AREA)
  • Human Resources & Organizations (AREA)
  • Economics (AREA)
  • General Business, Economics & Management (AREA)
  • Marketing (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Theoretical Computer Science (AREA)
  • Tourism & Hospitality (AREA)
  • Quality & Reliability (AREA)
  • Operations Research (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Primary Health Care (AREA)
  • Mining & Mineral Resources (AREA)
  • Agronomy & Crop Science (AREA)
  • Acoustics & Sound (AREA)
  • General Health & Medical Sciences (AREA)
  • Data Mining & Analysis (AREA)
  • Animal Husbandry (AREA)
  • Health & Medical Sciences (AREA)
  • Marine Sciences & Fisheries (AREA)
  • Development Economics (AREA)
  • Game Theory and Decision Science (AREA)
  • Measurement Of Velocity Or Position Using Acoustic Or Ultrasonic Waves (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a fish species learning device, a fish species learning method, and a program that can more accurately perform machine learning for fish species discrimination.
SOLUTION: A server 20 (fish species learning device) comprises: a storage unit 202 that stores annotation data for every unit echo image; and a control unit 201. The control unit 201 extracts, from annotation data of a first unit echo image and a second unit echo image, which are temporally continuous, first annotation data and second annotation data of a fish school present between the first unit echo image and second unit echo image, and integrates the extracted first annotation data and second annotation data to generate annotation data of the entire fish school present between the first unit echo image and second unit echo image.
SELECTED DRAWING: Figure 2
COPYRIGHT: (C)2024,JPO&INPIT

Description

本発明は、教師データ(アノテーションデータ)を用いて魚種判別のための機械学習を行う魚種学習装置、魚種学習システム、魚種学習方法およびプログラムに関する。 The present invention relates to a fish species learning device, a fish species learning system, a fish species learning method, and a program that perform machine learning for fish species discrimination using teacher data (annotation data).

従来、水中の魚群を探知する魚群探知装置が知られている。この種の魚群探知装置では、水中に超音波が送波され、その反射波が受波される。受波された反射波の強度に応じたエコーデータが生成され、生成されたエコーデータに基づいてエコー画像が表示される。ユーザは、エコー画像から魚群を確認でき、魚群の捕獲を円滑に進めることができる。 2. Description of the Related Art Fish detection devices that detect schools of fish in water are conventionally known. In this type of fish finding device, ultrasonic waves are transmitted underwater and the reflected waves are received. Echo data is generated according to the intensity of the received reflected wave, and an echo image is displayed based on the generated echo data. The user can confirm the school of fish from the echo image and can smoothly capture the school of fish.

この場合、エコー画像上の魚群について、さらに魚種が判別されて表示されると好ましい。これにより、ユーザは、自身が望む魚種の魚を効率よく捕獲できる。 In this case, it is preferable that the fish species of the school of fish on the echo image be further determined and displayed. Thereby, the user can efficiently catch the fish species he or she desires.

このような魚種の判別は、たとえば、機械学習モデル(機械学習アルゴリズム)を用いて行われ得る。機械学習モデルに対して、多数の教師データ(アノテーションデータ)を用いた学習が行われる。それぞれのアノテーションデータは、魚群のエコーデータと、当該魚群の範囲(水深、時間)と、当該魚群の魚種とを含んでいる。以下の特許文献1には、このようなアノテーションデータをユーザが生成する場合の構成が記載されている。 Such fish species discrimination may be performed using, for example, a machine learning model (machine learning algorithm). Learning is performed on a machine learning model using a large amount of training data (annotation data). Each annotation data includes echo data of the fish school, the range (water depth, time) of the fish school, and the fish species of the fish school. Patent Document 1 below describes a configuration in which a user generates such annotation data.

特開2019-200175号公報JP 2019-200175 Publication

一般に、アノテーションデータの生成は、単位エコー画像ごとに行われる。すなわち、所定時間分の一連のエコー画像が、1フレームに対応する時間幅で複数に区切られて、アノテーションデータの生成対象とされる複数の単位エコー画像が生成される。専門家等のオペレータは、各々の単位エコー画像に対して、魚群の範囲を指定し、さらに、指定した魚群に魚種のラベルを付与する。これにより、魚群の範囲と、当該魚群の範囲の魚種と、当該魚群の範囲に含まれる画像データ(エコーデータ)とが対応付けられたアノテーションデータが生成される。 Generally, annotation data is generated for each unit echo image. That is, a series of echo images for a predetermined time period is divided into a plurality of echo images with a time width corresponding to one frame, and a plurality of unit echo images from which annotation data is generated are generated. An operator such as an expert specifies the range of a school of fish for each unit echo image, and further assigns a fish species label to the specified school of fish. As a result, annotation data is generated in which the range of the school of fish, the species of fish within the range of the school of fish, and the image data (echo data) included in the range of the school of fish are associated.

このような生成手法では、単位エコー画像に魚群全体が含まれるとは限らない。すなわち、時間的に連続する2つの単位エコー画像に1つの魚群が跨ることが起こり得る。このような場合、1つの魚群が分断された2つの魚群部分が、2つのエコー画像にそれぞれ含まれることになる。上記生成手法では、単位エコー単位で処理が行われるため、分断された各々の魚群部分に対して個別にアノテーションデータが生成されてしまう。 With such a generation method, the entire school of fish is not necessarily included in the unit echo image. That is, one school of fish may straddle two temporally consecutive unit echo images. In such a case, two fish school portions obtained by dividing one fish school will be included in each of the two echo images. In the above generation method, since processing is performed in units of echoes, annotation data is generated individually for each divided fish school portion.

しかしながら、上記機械学習では、魚種固有に生じるエコーの尾引や分布等、魚群全体から生じる特徴が、機械学習の精度に影響を及ぼし得る。このため、上記のように、魚群の一部について生成されたアノテーションデータが機械学習に用いられると、機械学習の精度が低下することが起こり得る。 However, in the machine learning described above, characteristics arising from the entire school of fish, such as the tailing and distribution of echoes unique to the fish species, can affect the accuracy of the machine learning. Therefore, as described above, when annotation data generated for a part of a school of fish is used for machine learning, the accuracy of machine learning may decrease.

かかる課題に鑑み、本発明は、魚種判別のための機械学習をより精度良く行うことが可能な魚種学習装置、魚種学習方法およびプログラムを提供することを目的とする。 In view of this problem, an object of the present invention is to provide a fish species learning device, a fish species learning method, and a program that can perform machine learning for fish species discrimination with higher accuracy.

本発明の第1の態様は、魚種学習装置に関する。この態様に係る魚種学習装置は、単位エコー画像ごとにアノテーションデータを記憶する記憶部と、制御部と、を備える。前記制御部は、時間的に連続する第1単位エコー画像および第2単位エコー画像の前記アノテーションデータから、前記第1単位エコー画像と前記第2単位エコー画像との間に跨る魚群の第1アノテーションデータおよび第2アノテーションデータをそれぞれ抽出し、抽出した前記第1アノテーションデータおよび前記第2アノテーションデータを統合して、前記魚群全体のアノテーションデータを生成する。 A first aspect of the present invention relates to a fish species learning device. The fish species learning device according to this aspect includes a storage unit that stores annotation data for each unit echo image, and a control unit. The control unit generates a first annotation of a school of fish spanning between the first unit echo image and the second unit echo image from the annotation data of the temporally continuous first unit echo image and second unit echo image. The first annotation data and the second annotation data are respectively extracted, and the extracted first annotation data and the second annotation data are integrated to generate annotation data for the entire school of fish.

本態様に係る魚種学習装置によれば、第1単位エコー画像と第2単位エコー画像との間に跨る魚群の第1アノテーションデータおよび第2アノテーションデータが統合されて、当該魚群全体のアノテーションデータが生成される。したがって、魚群全体に対するアノテーションデータを機械学習に用いることができるため、魚種判別のための機械学習をより精度良く行うことができる。 According to the fish species learning device according to this aspect, the first annotation data and the second annotation data of the fish school spanning between the first unit echo image and the second unit echo image are integrated, and the annotation data of the entire fish school is is generated. Therefore, since the annotation data for the entire school of fish can be used for machine learning, machine learning for identifying fish species can be performed with higher accuracy.

本態様に係る魚種学習装置において、前記制御部は、前記第1単位エコー画像上において前記第2単位エコー画像側の第1境界付近まで延びている第1魚群と、前記第2単位エコー画像上において前記第1単位エコー画像側の第2境界付近まで延びている第2魚群とを特定し、前記第1魚群の深度範囲と前記第2魚群の深度範囲とが略合致する場合に、前記第1魚群および前記第2魚群の前記アノテーションデータを、前記第1アノテーションデータおよび前記第2アノテーションデータとしてそれぞれ抽出するよう構成され得る。 In the fish species learning device according to the present aspect, the control unit may control a first school of fish that extends to a vicinity of a first boundary on the second unit echo image side on the first unit echo image, and a second unit echo image that A second school of fish extending to near the second boundary on the side of the first unit echo image is identified in the above, and when the depth range of the first school of fish and the depth range of the second school of fish substantially match, the The annotation data of the first school of fish and the second school of fish may be configured to be extracted as the first annotation data and the second annotation data, respectively.

この構成によれば、1つの魚群を構成する確率が高い第1魚群および第2魚群を、第1単位エコー画像および第2単位エコー画像において円滑に特定できる。よって、これら魚群のアノテーションデータを統合することにより、1つの魚群全体のアノテーションデータを精度良く生成できる。 According to this configuration, the first school of fish and the second school of fish, which have a high probability of forming one school of fish, can be smoothly identified in the first unit echo image and the second unit echo image. Therefore, by integrating the annotation data of these fish schools, annotation data of one entire fish school can be generated with high accuracy.

この構成において、前記制御部は、前記第1魚群の深度範囲と前記第2魚群の深度範囲とが略合致するか否かを、前記第1境界付近における前記第1魚群の深度範囲と、前記第2境界付近における前記第2魚群の深度範囲との合致率に基づいて判定するよう構成され得る。 In this configuration, the control unit determines whether the depth range of the first school of fish and the depth range of the second school of fish substantially match or not. The determination may be made based on a matching rate with the depth range of the second school of fish near the second boundary.

この構成によれば、第1単位エコー画像と第2単位エコー画像との間の境界である第1境界および第2境界の付近において、第1魚群の深度範囲と第2魚群の深度範囲とが略合致するかが判定されるため、これら第1魚群および第2魚群が互いに連続するものであるかを正確に判定できる。よって、第1魚群および第2魚群のアノテーションデータから1つの魚群全体のアノテーションデータを精度良く生成できる。 According to this configuration, the depth range of the first fish school and the depth range of the second fish school are different from each other in the vicinity of the first boundary and the second boundary, which are the boundaries between the first unit echo image and the second unit echo image. Since it is determined whether they substantially match, it is possible to accurately determine whether the first fish school and the second fish school are continuous with each other. Therefore, annotation data for one entire school of fish can be generated with high accuracy from annotation data for the first school of fish and the second school of fish.

また、この構成において、前記制御部は、前記第1境界から所定の時間範囲に少なくとも一部が含まれる魚群を前記第1魚群として抽出し、前記第2境界から所定の時間範囲に少なくとも一部が含まれる魚群を前記第2魚群として抽出するよう構成され得る。 Further, in this configuration, the control unit extracts a school of fish that is at least partially included in a predetermined time range from the first boundary as the first fish school, and extracts a school of fish that is at least partially included in a predetermined time range from the second boundary. The second fish school may be configured to extract a fish school in which the second fish school is included.

この構成によれば、境界付近で魚の分布が疎らになっている場合も、第1単位エコー画像と第2単位エコー画像とに跨る魚群を構成する第1魚群および第2魚群を、第1単位エコー画像および第2単位エコー画像において取りこぼしなく特定できる。よって、1つの魚群全体のアノテーションデータを適正に生成できる。 According to this configuration, even when the distribution of fish is sparse near the boundary, the first fish school and the second fish school constituting the fish school spanning the first unit echo image and the second unit echo image are transferred to the first unit echo image. It can be specified without missing anything in the echo image and the second unit echo image. Therefore, annotation data for one entire school of fish can be appropriately generated.

本態様に係る魚種学習装置において、前記制御部は、前記第1アノテーションデータに含まれる魚種と前記第2アノテーションデータに含まれる魚種とが相違する場合、所定の設定条件に基づき、前記魚群のアノテーションデータの魚種を設定するよう構成され得る。 In the fish species learning device according to the present aspect, when the fish species included in the first annotation data and the fish species included in the second annotation data are different, the control unit controls the It may be configured to set the fish species of the annotation data of the fish school.

この場合、前記設定条件は、たとえば、前記第1アノテーションデータおよび前記第2アノテーションデータのうち新しい方のアノテーションデータの魚種に設定することを含み得る。 In this case, the setting condition may include, for example, setting the fish species of the newer annotation data of the first annotation data and the second annotation data.

これらの構成によれば、統合対象の第1アノテーションデータおよび第2アノテーションデータにそれぞれ含まれる魚種が互いに相違する場合、信頼性の高い魚種を、統合後のアノテーションデータに設定できる。よって、機械学習の精度を高めることができる。 According to these configurations, when the fish species included in the first annotation data and the second annotation data to be integrated are different from each other, a highly reliable fish species can be set in the integrated annotation data. Therefore, the accuracy of machine learning can be improved.

本発明の第2の態様は、魚種学習方法に関する。この態様に係る魚種学習方法は、時間的に連続する第1単位エコー画像および第2単位エコー画像の前記アノテーションデータから、前記第1単位エコー画像と前記第2単位エコー画像との間に跨る魚群の第1アノテーションデータおよび第2アノテーションデータをそれぞれ抽出し、抽出した前記第1アノテーションデータおよび前記第2アノテーションデータを統合して、前記魚群全体のアノテーションデータを生成する。 A second aspect of the present invention relates to a method for learning fish species. In the fish species learning method according to this aspect, from the annotation data of the first unit echo image and the second unit echo image that are temporally continuous, the method straddles between the first unit echo image and the second unit echo image. First annotation data and second annotation data of the school of fish are respectively extracted, and the extracted first annotation data and second annotation data are integrated to generate annotation data of the entire school of fish.

本発明の第3の態様は、コンピュータに所定の機能を実行させるプログラムに関する。本態様に係るプログラムは、時間的に連続する第1単位エコー画像および第2単位エコー画像の前記アノテーションデータから、前記第1単位エコー画像と前記第2単位エコー画像との間に跨る魚群の第1アノテーションデータおよび第2アノテーションデータをそれぞれ抽出する機能と、抽出した前記第1アノテーションデータおよび前記第2アノテーションデータを統合して、前記魚群全体のアノテーションデータを生成する機能と、を含む。 A third aspect of the present invention relates to a program that causes a computer to execute a predetermined function. The program according to this aspect is configured to calculate information on a school of fish that straddles between the first unit echo image and the second unit echo image from the annotation data of the temporally continuous first unit echo image and second unit echo image. The method includes a function of extracting first annotation data and second annotation data, respectively, and a function of integrating the extracted first annotation data and second annotation data to generate annotation data of the entire school of fish.

上記第2および第3の態様によれば、上記第1の態様と同様の効果が奏される。 According to the second and third aspects described above, effects similar to those of the first aspect described above are achieved.

以上のとおり、本発明によれば、魚種判別のための機械学習をより精度良く行うことが可能な魚種学習装置、魚種学習方法およびプログラムを提供することができる。 As described above, according to the present invention, it is possible to provide a fish species learning device, a fish species learning method, and a program that can perform machine learning for fish species discrimination with higher accuracy.

本発明の効果ないし意義は、以下に示す実施形態の説明により更に明らかとなろう。ただし、以下に示す実施形態は、あくまでも、本発明を実施化する際の一つの例示であって、本発明は、以下の実施形態に記載されたものに何ら制限されるものではない。 The effects and significance of the present invention will become clearer from the following description of the embodiments. However, the embodiment shown below is merely one example of implementing the present invention, and the present invention is not limited to what is described in the embodiment below.

図1は、実施形態に係る、魚種判別システムの構成を示す図である。FIG. 1 is a diagram showing the configuration of a fish species discrimination system according to an embodiment. 図2は、実施形態に係る、魚種判別システムの構成を示すブロック図である。FIG. 2 is a block diagram showing the configuration of the fish species discrimination system according to the embodiment. 図3は、実施形態に係る、ニューラルネットワークによる魚種判別処理を模式的に示す図である。FIG. 3 is a diagram schematically showing fish species discrimination processing using a neural network according to the embodiment. 図4は、実施形態に係る、魚種判別結果を含むエコー画像の表示例を模式的に示す図である。FIG. 4 is a diagram schematically showing a display example of an echo image including a fish species discrimination result according to the embodiment. 図5は、実施形態に係る、端末装置において行われるアノテーションデータの生成方法を模式的に示す図である。FIG. 5 is a diagram schematically showing a method of generating annotation data performed in a terminal device according to the embodiment. 図6は、実施形態に係る、サーバの記憶部におけるアノテーションデータの記憶形態を示す図である。FIG. 6 is a diagram illustrating the storage format of annotation data in the storage unit of the server according to the embodiment. 図7は、実施形態に係る、サーバの制御部により実行されるアノテーションデータの統合処理を示すフローチャートである。FIG. 7 is a flowchart illustrating annotation data integration processing executed by the control unit of the server according to the embodiment. 図8は、実施形態に係る、2つの単位エコー画像に跨る魚群のアノテーションデータを抽出する処理を示すフローチャートである。FIG. 8 is a flowchart illustrating a process for extracting annotation data of a school of fish spanning two unit echo images, according to the embodiment. 図9(a)および図9(b)は、それぞれ、実施形態に係る、第1単位エコー画像と第2単位エコー画像との境界付近の魚群の状態を模式的に示す図である。FIGS. 9A and 9B are diagrams each schematically showing the state of a school of fish near the boundary between the first unit echo image and the second unit echo image, according to the embodiment. 図10(a)および図10(b)は、それぞれ、実施形態に係る、第1魚群および第2魚群のアノテーションデータの統合方法を示す図である。FIGS. 10(a) and 10(b) are diagrams showing a method for integrating annotation data of a first school of fish and a second school of fish, respectively, according to the embodiment. 図11(a)は、変更例1に係る、第1単位エコー画像と第2単位エコー画像との境界付近の魚群の状態を模式的に示す図である。図11(b)は、変更例1に係る、第1魚群および第2魚群のアノテーションデータの統合方法を示す図である。FIG. 11A is a diagram schematically showing the state of a school of fish near the boundary between the first unit echo image and the second unit echo image, according to modification example 1. FIG. 11(b) is a diagram illustrating a method of integrating annotation data of the first fish school and the second fish school according to modification example 1. 図12は、変更例2に係る、アノテーションデータの統合処理において実行される魚種の設定処理を示すフローチャートである。FIG. 12 is a flowchart illustrating a fish species setting process executed in an annotation data integration process according to modification example 2.

以下、本発明の実施形態について、図面を参照して説明する。 Embodiments of the present invention will be described below with reference to the drawings.

以下の実施形態では、サーバ20が、特許請求の範囲に記載の「魚種学習装置」に対応する。但し、本発明に係る「魚種学習装置」は、必ずしも、サーバ20に限られるものではなく、たとえば、端末装置50等の他の装置が、本発明に係る「魚種学習装置」の機能を実行してもよい。 In the following embodiments, the server 20 corresponds to a "fish species learning device" described in the claims. However, the "fish species learning device" according to the present invention is not necessarily limited to the server 20; for example, other devices such as the terminal device 50 can perform the functions of the "fish species learning device" according to the present invention. May be executed.

図1は、魚種判別システム1の構成を示す図である。 FIG. 1 is a diagram showing the configuration of a fish species discrimination system 1. As shown in FIG.

魚種判別システム1は、水中探知装置10と、サーバ20とを備える。水中探知装置10は、船2に設置される魚群探知機である。水中探知装置10は、外部通信網30(たとえば、インターネット)および基地局40を介して、サーバ20と通信可能である。水中探知装置10およびサーバ20は、それぞれ、相互に通信を行うためのアドレス情報を保持している。それぞれのアドレス情報は、初期設定時に、水中探知装置10およびサーバ20に設定される。 The fish species discrimination system 1 includes an underwater detection device 10 and a server 20. The underwater detection device 10 is a fish finder installed on the boat 2. Underwater detection device 10 is capable of communicating with server 20 via external communication network 30 (for example, the Internet) and base station 40 . The underwater detection device 10 and the server 20 each hold address information for mutual communication. The respective address information is set in the underwater detection device 10 and the server 20 at the time of initial setting.

水中探知装置10は、送受波器11と、制御ユニット12とを備える。送受波器11は、船2の船底に設置され、制御ユニット12は、船の操舵室等に設置される。送受波器11と制御ユニット12は、信号ケーブル(図示せず)で接続されている。送受波器11は、送受波用の超音波振動子を備える。送受波器11は、制御ユニット12からの制御に応じて、超音波振動子により、海底4に向かって超音波3(送信波)を送波し、その反射波を受波する。送受波器11は、受波した反射波に基づく受信信号を制御ユニット12に送信する。 The underwater detection device 10 includes a transducer 11 and a control unit 12. The transducer 11 is installed on the bottom of the ship 2, and the control unit 12 is installed in the ship's wheelhouse or the like. The transducer 11 and the control unit 12 are connected by a signal cable (not shown). The transducer 11 includes an ultrasonic transducer for transmitting and receiving waves. The transducer 11 transmits an ultrasonic wave 3 (transmitted wave) toward the seabed 4 using an ultrasonic transducer under control from the control unit 12, and receives the reflected wave. The transducer 11 transmits a received signal based on the received reflected wave to the control unit 12 .

制御ユニット12は、受信信号を処理して、各深度のエコー強度を示すエコーデータを生成する。制御ユニット12は、エコーデータに基づく各深度のエコー強度を時系列に並べて、1画面分のエコー画像を生成する。制御ユニット12は、生成したエコー画像を表示部に表示させる。制御ユニット12は、超音波の送受波ごとにエコー画像を更新する。ユーザは、エコー画像を参照することで、魚群5の存在および位置を把握できる。 Control unit 12 processes the received signals to generate echo data indicating the echo intensity at each depth. The control unit 12 arranges the echo intensities at each depth based on the echo data in time series, and generates one screen worth of echo images. The control unit 12 displays the generated echo image on the display section. The control unit 12 updates the echo image every time ultrasonic waves are transmitted and received. The user can grasp the existence and position of the fish school 5 by referring to the echo image.

さらに、制御ユニット12は、生成したエコーデータを、随時、サーバ20に送信する。サーバ20は、受信したエコーデータを記憶するとともに、制御ユニット12と同様のエコー画像を生成する。サーバ20は、機械学習モデル(機械学習アルゴリズム)により、エコー画像に含まれる魚群に対し、魚種ごとに予測確率(その魚種である確率)を算出する。 Furthermore, the control unit 12 transmits the generated echo data to the server 20 at any time. The server 20 stores the received echo data and generates echo images similar to the control unit 12. The server 20 uses a machine learning model (machine learning algorithm) to calculate a predicted probability (probability of being that fish species) for each fish species for a school of fish included in the echo image.

サーバ20は、機械学習モデルにより算出した魚種ごとの予測確率に基づき、当該魚群に対する魚種の判別結果を取得する。サーバ20は、こうして取得した当該魚種の判別結果を、判別対象の魚群の範囲(深度、時間)とともに、エコーデータの受信先の水中探知装置10に送信する。 The server 20 obtains the fish species discrimination result for the fish school based on the predicted probability for each fish species calculated by the machine learning model. The server 20 transmits the thus obtained discrimination result of the fish species, together with the range (depth, time) of the school of fish to be discriminated, to the underwater detection device 10 that receives the echo data.

水中探知装置10は、受信した判別結果および魚群の範囲(深度、時間)に基づき、エコー画像上の対応する範囲に魚種の判別結果を重ねて表示する。これにより、ユーザは、エコー画像上の各魚群の魚種を確認でき、所望の魚の漁獲を円滑に進めることができる。 Based on the received discrimination results and the range (depth, time) of the fish school, the underwater detection device 10 displays the fish species discrimination results superimposed on the corresponding range on the echo image. Thereby, the user can confirm the fish species of each fish school on the echo image, and can smoothly proceed with catching the desired fish.

さらに、サーバ20は、機械学習モデルに対する学習を行うためのアノテーションデータ(教師データ)を、外部通信網30を介して、複数の端末装置50から取得する。すなわち、サーバ20は、水中探知装置10から受信したエコーデータを、複数の端末装置50の何れかに分配する。端末装置50は、受信したエコーデータからアノテーションデータを生成するために用いられる。 Further, the server 20 acquires annotation data (teacher data) for learning the machine learning model from the plurality of terminal devices 50 via the external communication network 30. That is, the server 20 distributes the echo data received from the underwater detection device 10 to any one of the plurality of terminal devices 50. The terminal device 50 is used to generate annotation data from received echo data.

すなわち、端末装置50は、専門家等の、アノテーションデータの生成を行うオペレータが所持する。オペレータは、受信したエコーデータに基づくエコー画像を端末装置50に表示させ、これらエコー画像に含まれる魚群ごとに、魚種を設定する。設定された魚種は、当該魚群の範囲(深度、時間)と、当該範囲のエコーデータとに対応付けられる。こうして対応付けられた魚種、魚群の範囲およびエコーデータによって、当該魚群に対するアノテーションデータが構成される。アノテーションデータは、当該アノテーションデータが生成されたエコー画像の識別情報とともに、サーバ20に送信される。 That is, the terminal device 50 is owned by an operator, such as an expert, who generates annotation data. The operator causes the terminal device 50 to display echo images based on the received echo data, and sets the fish species for each school of fish included in these echo images. The set fish species is associated with the range (depth, time) of the school of fish and the echo data of the range. The fish species, range of the fish school, and echo data thus associated constitute annotation data for the fish school. The annotation data is transmitted to the server 20 together with the identification information of the echo image in which the annotation data was generated.

サーバ20は、受信したアノテーションデータを用いて、機械学習モデルに対する学習を行う。これにより、機械学習モデルの魚種判別精度が高められる。 The server 20 uses the received annotation data to perform learning on the machine learning model. This increases the accuracy of fish species discrimination of the machine learning model.

なお、ここでは、サーバ20が端末装置50に提供したエコーデータに対して、アノテーションデータが生成され、生成されたアノテーションデータがサーバ20に戻されたが、サーバ20に対するアノテーションデータの提供方法は、これに限られるものではない。たとえば、サーバ20以外の装置から端末装置50にエコーデータが提供されてアノテーションデータが生成され、生成されたアノテーションデータがサーバ20に提供されてもよい。 Note that here, annotation data is generated for the echo data provided by the server 20 to the terminal device 50, and the generated annotation data is returned to the server 20. However, the method of providing the annotation data to the server 20 is as follows. It is not limited to this. For example, echo data may be provided to the terminal device 50 from a device other than the server 20 to generate annotation data, and the generated annotation data may be provided to the server 20.

また、図1には、水中探知装置10が1つだけ図示されているが、実際は、多数の水中探知装置10が外部通信網30および最寄りの基地局を介して、サーバ20と通信可能である。また、サーバ20と通信を行う水中探知装置10は、図1に示すように船2に設置されるものの他、定置網に設置される水中探知装置等、漁法が異なる数種の水中探知装置が含まれ得る。 Further, although only one underwater detection device 10 is illustrated in FIG. 1, in reality, a large number of underwater detection devices 10 can communicate with the server 20 via the external communication network 30 and the nearest base station. . Further, the underwater detection device 10 that communicates with the server 20 includes, in addition to the one installed on the ship 2 as shown in FIG. 1, several types of underwater detection devices for different fishing methods, such as an underwater detection device installed in a fixed net. It can be done.

図2は、魚種判別システム1の構成を示すブロック図である。 FIG. 2 is a block diagram showing the configuration of the fish species discrimination system 1. As shown in FIG.

水中探知装置10は、制御部101と、表示部102と、入力部103と、送受波部104と、信号処理部105と、通信部106と、位置検出部107とを備える。 The underwater detection device 10 includes a control section 101, a display section 102, an input section 103, a wave transmitting/receiving section 104, a signal processing section 105, a communication section 106, and a position detection section 107.

制御部101は、マイクロコンピュータおよびメモリ等により構成される。制御部101は、メモリに記憶されたプログラムに従って、水中探知装置10の各部を制御する。 The control unit 101 is composed of a microcomputer, a memory, and the like. The control section 101 controls each section of the underwater detection device 10 according to a program stored in the memory.

表示部102は、モニタを備え、制御部101からの制御により、所定の画像を表示させる。入力部103は、表示部102に表示された画像上でカーソルを移動させるトラックボールや、操作キー等を備え、ユーザからの操作に応じた信号を制御部101に出力する。表示部102および入力部103が、液晶タッチパネル等により一体的に構成されてもよい。 The display unit 102 includes a monitor and displays a predetermined image under control from the control unit 101. The input unit 103 includes a trackball for moving a cursor on the image displayed on the display unit 102, operation keys, and the like, and outputs a signal to the control unit 101 in response to a user's operation. The display unit 102 and the input unit 103 may be integrally configured by a liquid crystal touch panel or the like.

送受波部104は、図1に示した送受波器11と、送受波器11に送信信号を供給するための送信回路と、送受波器11から出力される受信信号を処理して信号処理部105に出力する受信回路とを備える。送信回路および受信回路は、図1の制御ユニット12に含まれる。 The wave transmitter/receiver 104 includes the wave transmitter/receiver 11 shown in FIG. 105. The transmitting circuit and receiving circuit are included in the control unit 12 of FIG.

送受波部104は、制御部101からの制御に従って、所定周波数の送信波(超音波)を送波する。送受波部104は、送波した送信波の反射波を受波して受信信号を出力する。受信回路は、送信波の周波数の受信信号を抽出して信号処理部105に出力する。 The wave transmitting/receiving unit 104 transmits a transmission wave (ultrasonic wave) of a predetermined frequency according to control from the control unit 101. The wave transmitting/receiving unit 104 receives the reflected wave of the transmitted wave and outputs a received signal. The receiving circuit extracts a received signal of the frequency of the transmitted wave and outputs it to the signal processing section 105.

信号処理部105は、送受波部104から入力される受信信号から、深度に応じた反射波の強度を示すエコーデータを生成し、生成したエコーデータを制御部101に出力する。送信波を送波したタイミングからの経過時間が深度に対応する。ここで、反射波の強度は、深度が大きくなるほど減衰する。したがって、信号処理部105は、深度の差異に拘わらずエコーデータを定量的に扱えるようにするために、経過時間に応じて減衰する反射波の強度を補正し、強度を補正したエコーデータを制御部101に出力する。 The signal processing unit 105 generates echo data indicating the intensity of reflected waves according to the depth from the received signal input from the wave transmitting/receiving unit 104, and outputs the generated echo data to the control unit 101. The elapsed time from the timing of transmitting the transmission wave corresponds to the depth. Here, the intensity of the reflected wave attenuates as the depth increases. Therefore, in order to be able to quantitatively handle the echo data regardless of the difference in depth, the signal processing unit 105 corrects the intensity of the reflected waves that attenuate according to the elapsed time, and controls the echo data with the intensity corrected. It outputs to section 101.

制御部101は、受信したエコーデータに基づきエコー画像を生成し、表示部102に表示させる。制御部101は、各深度におけるエコー強度を色スケールにより階調表現した深度方向の1列の画像を、エコーデータから生成する。制御部101は、現時点から所定時間前までの各列の画像を時間方向に統合して、1画面分のエコー画像を生成する。 The control unit 101 generates an echo image based on the received echo data and displays it on the display unit 102. The control unit 101 generates a row of images in the depth direction in which the echo intensity at each depth is expressed in gradations using a color scale, from the echo data. The control unit 101 integrates images in each column from the current time to a predetermined time ago in the time direction to generate an echo image for one screen.

通信部106は、基地局40と無線通信可能な通信モジュールである。位置検出部107は、GPSを備え、水中探知装置10の位置を検出する。位置検出部107は、検出した位置情報を制御部101に出力する。 The communication unit 106 is a communication module that can communicate wirelessly with the base station 40. The position detection unit 107 is equipped with a GPS and detects the position of the underwater detection device 10. The position detection unit 107 outputs the detected position information to the control unit 101.

図1を参照して説明したとおり、制御部101は、随時、通信部106を介して、エコーデータをサーバ20に送信する。また、制御部101は、通信部106を介して、サーバ20から魚種の判別結果を受信する。制御部101は、さらに、位置検出部107により検出された位置情報をサーバ20に送信する。 As described with reference to FIG. 1, the control unit 101 transmits echo data to the server 20 via the communication unit 106 at any time. Further, the control unit 101 receives the fish species determination result from the server 20 via the communication unit 106. The control unit 101 further transmits the position information detected by the position detection unit 107 to the server 20.

図2に示すように、水中探知装置10の他にも、多数の水中探知装置10a、10b、…が外部通信網30および最寄りの基地局40a、40b、…を介して、サーバ20と通信可能である。上記のように、サーバ20と通信を行う水中探知装置10は、図1に示すように船2に設置されるものの他、定置網に設置される水中探知装置等、漁法が異なる数種の水中探知装置が含まれる。他の水中探知装置の基本的な構成は、図2の水中探知装置10と同様である。 As shown in FIG. 2, in addition to the underwater detection device 10, a large number of underwater detection devices 10a, 10b, ... can communicate with the server 20 via the external communication network 30 and the nearest base stations 40a, 40b, ... It is. As mentioned above, the underwater detection device 10 that communicates with the server 20 can be used for several types of underwater detection devices for different fishing methods, such as the one installed on the ship 2 as shown in FIG. Includes equipment. The basic configuration of other underwater detection devices is similar to the underwater detection device 10 of FIG. 2.

サーバ20は、制御部201と、記憶部202と、通信部203とを備える。制御部201は、CPU等により構成される。記憶部202は、ROM、RAM、ハードディスク等により構成される。記憶部202には、魚種判別のためのプログラムおよび機械学習のためのプログラムが記憶されている。制御部201は、記憶部202に記憶されたプログラムにより、各部を制御する。通信部203は、制御部201からの制御により、外部通信網30および基地局40を介して、水中探知装置10と通信を行う。また、サーバ20は、外部通信網30を介して、複数の端末装置50と通信を行う。 The server 20 includes a control section 201, a storage section 202, and a communication section 203. The control unit 201 is composed of a CPU and the like. The storage unit 202 is composed of ROM, RAM, hard disk, and the like. The storage unit 202 stores a program for fish species discrimination and a program for machine learning. The control unit 201 controls each unit using a program stored in the storage unit 202. The communication unit 203 communicates with the underwater detection device 10 via the external communication network 30 and the base station 40 under the control of the control unit 201 . Further, the server 20 communicates with a plurality of terminal devices 50 via the external communication network 30.

端末装置50は、パーソナルコンピュータやタブレット型コンピュータ等の、情報を入出力可能な装置である。端末装置50は、制御部501と、記憶部502と、表示部503と、入力部504と、通信部505とを備える。 The terminal device 50 is a device capable of inputting and outputting information, such as a personal computer or a tablet computer. The terminal device 50 includes a control section 501, a storage section 502, a display section 503, an input section 504, and a communication section 505.

制御部501は、CPU等により構成される。記憶部502は、ROM、RAM、ハードディスク等により構成される。記憶部502には、アノテーションデータを生成するためのプログラムが記憶されている。制御部501は、記憶部502に記憶されたプログラムにより、各部を制御する。表示部503は、液晶モニタ等により構成され、制御部501からの制御により所定の画像を表示させる。入力部504は、マウスやキーボード等の入力手段を備える。通信部505は、制御部501からの制御により、サーバ20と通信を行う。 The control unit 501 is composed of a CPU and the like. The storage unit 502 is composed of ROM, RAM, hard disk, and the like. The storage unit 502 stores a program for generating annotation data. The control unit 501 controls each unit using a program stored in the storage unit 502. The display unit 503 is configured with a liquid crystal monitor or the like, and displays a predetermined image under control from the control unit 501. The input unit 504 includes input means such as a mouse and a keyboard. The communication unit 505 communicates with the server 20 under control from the control unit 501.

図3は、ニューラルネットワークによる魚種判別処理を模式的に示す図である。 FIG. 3 is a diagram schematically showing fish species discrimination processing using a neural network.

本実施形態では、機械学習として、ニューラルネットワークを用いた機械学習が適用される。たとえば、ニューロンを多段に組み合わせたディープラーニングによるニューラルネットワークが適用される。但し、適用される機械学習はこれに限られるものではなく、サポートベクターマシーンや決定木等の他の機械学習が適用されてもよい。 In this embodiment, machine learning using a neural network is applied as machine learning. For example, a deep learning neural network that combines neurons in multiple stages is applied. However, the applied machine learning is not limited to this, and other machine learning such as support vector machines and decision trees may be applied.

サーバ20の制御部201は、処理対象の1画面分のエコーデータから魚群の範囲(深度、時間)を抽出する。エコー画像上において、エコー強度が所定の閾値以上であり、且つ、エコー強度に繋がりがある領域が魚群として抽出され、さらにこの魚群の最大時間幅および最大深度幅により構成される矩形の範囲が魚群の範囲として抽出される。魚群の抽出方法については、出願人が先に出願した国際公開第2019/003759号の記載が、参照により取り込まれ得る。 The control unit 201 of the server 20 extracts the range (depth, time) of the school of fish from one screen worth of echo data to be processed. On the echo image, areas where the echo intensity is greater than a predetermined threshold and where the echo intensities are connected are extracted as a school of fish, and a rectangular range formed by the maximum time width and maximum depth width of this school of fish is extracted as a school of fish. Extracted as a range. Regarding the method for extracting fish schools, the description of International Publication No. 2019/003759, which the applicant previously filed, can be incorporated by reference.

制御部201は、抽出した魚群の範囲のエコーデータを、図3の機械学習モデル(ニューラルネットワークによる機械学習アルゴリズム)301の入力301aに適用する。 The control unit 201 applies the echo data in the range of the extracted fish school to the input 301a of the machine learning model (machine learning algorithm using a neural network) 301 in FIG.

機械学習モデル301の出力301bには、イワシ、アジ、サバなどの魚種の項目が割り当てられている。機械学習モデル301の入力301aに魚群の範囲のエコーデータが適用されると、機械学習モデル301の出力301bの各項目から、当該魚群の魚種が各項目の魚種である確率(予測確率)が出力される。図3の例では、イワシの項目から85%の予測確率が出力され、サバの項目から70%の予測確率が出力され、アジの項目から10%の予測確率が出力されている。 The output 301b of the machine learning model 301 is assigned items of fish species such as sardines, horse mackerel, and mackerel. When the echo data of the range of the fish school is applied to the input 301a of the machine learning model 301, from each item of the output 301b of the machine learning model 301, the probability that the fish species of the fish school is the fish species of each item (predicted probability) is output. In the example of FIG. 3, a predicted probability of 85% is output from the sardine item, a 70% predicted probability is output from the mackerel item, and a 10% predicted probability is output from the horse mackerel item.

各項目の予測確率は、出力条件302と照合される。出力条件302には、たとえば、予測確率が所定の下限値以上で且つ一番順位(最高)である項目の魚種を判別結果303として出力する条件が適用される。下限値は、確度が低い魚種が判別結果として出力されることを防ぐために設定される。図3の例では、予測確率が85%であるイワシが、魚種の判別結果303として出力される。 The predicted probability of each item is checked against the output condition 302. As the output condition 302, for example, a condition is applied to output the fish species of the item whose predicted probability is equal to or higher than a predetermined lower limit value and whose rank is the highest (highest) as the discrimination result 303. The lower limit value is set to prevent fish species with low accuracy from being output as a discrimination result. In the example of FIG. 3, sardines with a predicted probability of 85% are output as the fish species discrimination result 303.

機械学習モデル301に対する機械学習は、一連のアノテーションデータ(教師データ)を機械学習モデル301の入力301aおよび出力301bに順番に適用することにより行われる。すなわち、機械学習モデル301の入力301aに、1つのアノテーションデータに含まれる魚群のエコーデータが入力され、機械学習モデル301の出力301bには、このアノテーションデータに含まれる魚種に対応する項目に100%が設定され、その他の項目には0%が設定されて、機械学習が行われる。 Machine learning for the machine learning model 301 is performed by sequentially applying a series of annotation data (teacher data) to the input 301a and output 301b of the machine learning model 301. That is, the echo data of a school of fish included in one annotation data is input to the input 301a of the machine learning model 301, and the output 301b of the machine learning model 301 includes 100% in the item corresponding to the fish species included in this annotation data. % is set, other items are set to 0%, and machine learning is performed.

機械学習モデル301の入力301aには、魚群のエコーデータの他に、当該エコーデータが得られた位置や、その位置の海況データ等の、魚種判別に用い得る他の情報が入力されてもよい。アノテーションデータは、これらの他の情報をさらに含んでいてよい。 In addition to echo data of fish schools, the input 301a of the machine learning model 301 may include other information that can be used for fish species identification, such as the location where the echo data was obtained and sea state data at that location. good. The annotation data may further include these other information.

図4は、魚種判別結果を含むエコー画像P1の表示例を模式的に示す図である。便宜上、図4には、エコー強度が高い部分のみに深度方向の線が付されている。 FIG. 4 is a diagram schematically showing a display example of the echo image P1 including the fish species discrimination results. For convenience, in FIG. 4, lines in the depth direction are attached only to portions where the echo intensity is high.

水中探知装置10の制御部201は、サーバ20から判別結果および魚群の範囲(深度、時間)を受信すると、受信した魚群の範囲に対応する深度幅および時間幅に対応するエコー画像P1上の領域に、魚群の範囲を示す枠状のマーカーM0を表示する。さらに、制御部201は、受信した魚種の判定結果を示すラベルL0を、このマーカーM0の周囲にさらに表示する。 Upon receiving the determination result and the range of the fish school (depth, time) from the server 20, the control unit 201 of the underwater detection device 10 selects an area on the echo image P1 corresponding to the depth width and time width corresponding to the received range of the fish school. A frame-shaped marker M0 indicating the range of the school of fish is displayed. Further, the control unit 201 further displays a label L0 indicating the received fish species determination result around this marker M0.

図4の例では、サーバ20から受信した判別結果および魚群の範囲(深度、時間)に基づき、魚群F1~F8に対してマーカーM0が表示され、さらに、これらのマーカーM0の周囲に、魚種の判別結果を示すラベルL0が表示されている。エコー画像P1の左上の角付近には、現在の日時が表示されている。 In the example of FIG. 4, markers M0 are displayed for fish schools F1 to F8 based on the discrimination results received from the server 20 and the range of fish schools (depth, time), and furthermore, fish species are displayed around these markers M0. A label L0 indicating the determination result is displayed. The current date and time is displayed near the upper left corner of the echo image P1.

図4の例では、魚群F9については、図3の機械学習モデル301および出力条件302により魚種の判別結果が出力されなかったため、魚群F9には、マーカーおよびラベルの表示がなされていない。これは、たとえば、機械学習モデル301による魚群F9の予測確率が出力条件302を満たさなかった場合に起こり得る。このような場合、この魚群については判別結果がサーバ20から水中探知装置10に送信されないため、図4の魚群F9のように、魚種の判別結果が表示されないことになる。 In the example of FIG. 4, no marker or label is displayed for fish school F9 because the fish species discrimination result was not output according to the machine learning model 301 and output condition 302 of FIG. 3. This may occur, for example, when the predicted probability of the fish school F9 by the machine learning model 301 does not satisfy the output condition 302. In such a case, the determination result for this school of fish is not transmitted from the server 20 to the underwater detection device 10, so the result of the determination of the fish species will not be displayed, as in the case of the school of fish F9 in FIG. 4.

図5は、端末装置50において行われるアノテーションデータの生成方法を模式的に示す図である。 FIG. 5 is a diagram schematically showing a method of generating annotation data performed in the terminal device 50.

アノテーションデータの生成は、端末装置50において、処理対象のエコーデータに基づくエコー画像が表示部503に表示されることにより行われる。 Generation of annotation data is performed by displaying an echo image based on the echo data to be processed on the display unit 503 in the terminal device 50 .

専門家等のオペレータは、表示されたエコー画像上において、魚群の範囲を指定する。たとえば、魚群の範囲は、矩形の範囲で指定される。オペレータは、入力部504を操作して、矩形の対角の頂点を指定することにより、魚群の範囲を指定する。さらに、オペレータは、入力部504を操作して、各魚群に魚種を設定する。たとえば、魚群の範囲の指定に応じて、魚種の選択候補のリストが表示部503に表示される、オペレータは、このリストから設定対象の魚種を選択する。これにより、当該魚群の範囲に魚種が設定される。 An operator such as an expert specifies the range of the school of fish on the displayed echo image. For example, the range of a school of fish is specified by a rectangular range. The operator specifies the range of the school of fish by operating the input unit 504 and specifying the diagonal vertices of the rectangle. Further, the operator operates the input unit 504 to set the fish species for each school of fish. For example, in response to the designation of the fish school range, a list of fish species selection candidates is displayed on the display section 503, and the operator selects the fish species to be set from this list. As a result, the fish species is set within the range of the school of fish.

ここで、アノテーションデータの生成は、図5に示すように、単位エコー画像ごとに行われる。すなわち、所定時間分の一連のエコー画像が、1フレームに対応する時間幅で複数に区切られて、アノテーションデータの生成対象とされる複数の単位エコー画像が生成される。時間方向における単位エコー画像の境界B1、B2のうち、時間が新しい側の境界B1は、次の単位エコー画像の時間が古い側の境界B2と一致している。 Here, the annotation data is generated for each unit echo image, as shown in FIG. That is, a series of echo images for a predetermined time period is divided into a plurality of echo images with a time width corresponding to one frame, and a plurality of unit echo images from which annotation data is generated are generated. Among the boundaries B1 and B2 of the unit echo images in the time direction, the boundary B1 on the newer side matches the boundary B2 on the older side of the next unit echo image.

専門家等のオペレータは、各々の単位エコー画像に対して、魚群の範囲を指定し、さらに、指定した魚群に魚種を設定する。これにより、魚群の範囲と、当該魚群の範囲の魚種と、当該魚群の範囲に含まれる画像データ(エコーデータ)とが対応付けられたアノテーションデータが生成される。 An operator such as an expert specifies the range of the fish school for each unit echo image, and further sets the fish species for the specified fish school. As a result, annotation data is generated in which the range of the school of fish, the species of fish within the range of the school of fish, and the image data (echo data) included in the range of the school of fish are associated.

図5の例では、単位エコー画像Pnに対するアノテーション処理Anによって、6つの魚群の範囲(矩形破線の範囲)が指定され、各魚群の範囲に魚種が設定されている。また、単位エコー画像Pn+1に対するアノテーション処理An+1によって、5つの魚群の範囲(矩形破線の範囲)が指定され、各魚群の範囲に魚種が設定されている。したがって、単位エコー画像Pnからは、6つの魚群に対して、それぞれ、魚群の範囲と、当該魚群の範囲の魚種と、当該魚群の範囲に含まれる画像データ(エコーデータ)とが対応付けられたアノテーションデータが生成される。また、単位エコー画像Pn+1からは、5つの魚群に対して、それぞれ、魚群の範囲と、当該魚群の範囲の魚種と、当該魚群の範囲に含まれる画像データ(エコーデータ)とが対応付けられたアノテーションデータが生成される。 In the example of FIG. 5, the ranges of six fish schools (ranges indicated by rectangular broken lines) are specified by the annotation process An for the unit echo image Pn, and the fish species is set in the range of each fish school. Further, by annotation processing An+1 for unit echo image Pn+1, ranges of five fish schools (ranges indicated by rectangular broken lines) are specified, and fish species are set in the range of each fish school. Therefore, from the unit echo image Pn, for each of the six schools of fish, the range of the school of fish, the fish species within the range of the school of fish, and the image data (echo data) included in the range of the school of fish are associated. Annotation data is generated. Furthermore, from the unit echo image Pn+1, for each of the five fish schools, the range of the fish school, the fish species within the range of the fish school, and the image data (echo data) included in the range of the fish school are associated. Annotation data is generated.

こうして生成されたアノテーションデータは、端末装置50からサーバ20に送信され、サーバ20の記憶部202に記憶される。 The annotation data generated in this way is transmitted from the terminal device 50 to the server 20 and stored in the storage unit 202 of the server 20.

図6は、サーバ20の記憶部202におけるアノテーションデータの記憶形態を示す図である。 FIG. 6 is a diagram showing a storage format of annotation data in the storage unit 202 of the server 20.

記憶部202には、エコーIDおよび画像IDに対応付けて、単位エコーデータおよびアノテーションデータが記憶される。 The storage unit 202 stores unit echo data and annotation data in association with echo IDs and image IDs.

エコーIDは、上述の所定時間分の一連のエコー画像(エコーデータ)を識別するための識別情報である。エコーIDは、サーバ20によって固有に設定される。画像IDは、単位エコー画像を識別するための識別情報である。画像IDは、たとえば、時間が古いものから順番に各々の単位エコー画像に付される番号とされる。単位エコーデータは、各々の単位エコー画像に対応する1フレーム分のエコーデータである。アノテーションデータは、各々の単位エコー画像から生成されたアノテーションデータである。 The echo ID is identification information for identifying a series of echo images (echo data) for the above-mentioned predetermined time period. The echo ID is uniquely set by the server 20. The image ID is identification information for identifying a unit echo image. The image ID is, for example, a number assigned to each unit echo image in order from oldest to oldest. The unit echo data is one frame worth of echo data corresponding to each unit echo image. The annotation data is annotation data generated from each unit echo image.

サーバ20の制御部201は、アノテーション処理の対象とされる所定時間分のエコーデータを新たに水中探知装置10等から受信すると、このエコーデータにエコーIDを付する。さらに、制御部201は、このエコーデータを時間が古い側の先頭から1フレーム分の時間幅ごとに区切って、各々の単位エコー画像に対応する単位エコーデータを生成する。そして、制御部201は、各々の単位エコーデータに画像IDを付し、単位エコーデータを画像IDに対応付けて記憶部202に記憶させる。これにより、図6のデータ構造のうち、エコーID、画像IDおよび単位エコーデータの部分が構成される。 When the control unit 201 of the server 20 newly receives echo data for a predetermined period of time to be subjected to annotation processing from the underwater detection device 10 or the like, it attaches an echo ID to this echo data. Furthermore, the control unit 201 divides this echo data into time widths of one frame from the beginning on the older side, and generates unit echo data corresponding to each unit echo image. Then, the control unit 201 attaches an image ID to each unit echo data, and stores the unit echo data in the storage unit 202 in association with the image ID. As a result, the echo ID, image ID, and unit echo data portions of the data structure shown in FIG. 6 are configured.

その後、制御部201は、各々の単位エコーデータを、エコーIDおよび画像IDとともに、端末装置50に送信する。端末装置50の制御部501は、受信したこれらのデータを記憶部502に記憶させ、オペレータによるアノテーション処理に供する。オペレータからアノテーション処理の操作が行われると、制御部501は、処理対象の単位エコーデータに基づく単位エコー画像を表示部503に表示させる。オペレータは、図5に示した処理により、処理対象の単位エコー画像に対しアノテーション処理を実行する。これにより、当該単位エコー画像に対するアノテーションデータが生成される。 Thereafter, the control unit 201 transmits each unit echo data to the terminal device 50 along with the echo ID and image ID. The control unit 501 of the terminal device 50 stores the received data in the storage unit 502, and provides the data for annotation processing by the operator. When the operator performs an annotation processing operation, the control unit 501 causes the display unit 503 to display a unit echo image based on the unit echo data to be processed. The operator performs annotation processing on the unit echo image to be processed by the processing shown in FIG. As a result, annotation data for the unit echo image is generated.

こうして、サーバ20から受信した全ての単位エコーデータに対するアノテーション処理が終了すると、制御部501は、単位エコー画像ごとに生成されたアノテーションデータを、それぞれの単位エコー画像の画像IDに対応付けて、エコーIDとともに、サーバ20に送信する。サーバ20の制御部201は、受信したアノテーションデータを、図6の画像IDに対応付けて、記憶部202に記憶させる。図5に示したように、各々の画像IDには、単位エコー画像に含まれる魚群の数に応じたアノテーションデータが対応付けられる。こうして、記憶部202にアノテーションデータが記憶されることにより、図6のデータ構造が全て構築される。 When the annotation processing for all unit echo data received from the server 20 is thus completed, the control unit 501 associates the annotation data generated for each unit echo image with the image ID of each unit echo image, and It is sent to the server 20 along with the ID. The control unit 201 of the server 20 stores the received annotation data in the storage unit 202 in association with the image ID of FIG. As shown in FIG. 5, each image ID is associated with annotation data corresponding to the number of fish schools included in the unit echo image. In this way, by storing the annotation data in the storage unit 202, the entire data structure shown in FIG. 6 is constructed.

ところで、図5に示した単位エコー画像には、魚群全体が含まれるとは限られず、時間的に連続する2つの単位エコー画像に1つの魚群が跨ることが起こり得る。 By the way, the unit echo image shown in FIG. 5 does not necessarily include the entire school of fish, and one school of fish may straddle two temporally consecutive unit echo images.

たとえば、図5の例では、単位エコー画像Pnの右上のイワシの魚群は、次の単位エコー画像Pn+1の左上のイワシの魚群に繋がっていると考えられる。しかし、上記の生成手法では、単位エコー画像ごとに魚群が指定されるため、単位エコー画像Pnと単位エコー画像Pn+1とに跨るイワシの魚群が、単位エコー画像Pnの部分と単位エコー画像Pn+1の部分に分断されて指定される。そして、分断された各々の魚群部分に対して個別にアノテーションデータが生成されることになる。 For example, in the example of FIG. 5, the school of sardines at the top right of the unit echo image Pn is considered to be connected to the school of sardines at the top left of the next unit echo image Pn+1. However, in the above generation method, a school of fish is specified for each unit echo image, so a school of sardines that straddles the unit echo image Pn and the unit echo image Pn+1 is divided into a portion of the unit echo image Pn and a portion of the unit echo image Pn+1. It is divided into two parts and specified. Then, annotation data will be generated individually for each divided fish school portion.

しかしながら、上述の機械学習では、魚種固有に生じるエコーの尾引や分布等、魚群全体から生じる特徴が、機械学習の精度に影響を及ぼし得る。このため、上記のように、魚群の一部について生成されたアノテーションデータが機械学習に用いられると、機械学習の精度が低下してしまう。 However, in the machine learning described above, characteristics arising from the entire school of fish, such as echo tailing and distribution unique to fish species, can affect the accuracy of machine learning. For this reason, as described above, when annotation data generated for a part of a school of fish is used for machine learning, the accuracy of machine learning will decrease.

このような問題を解消するため、本実施形態では、時間的に連続する2つの単位エコー画像のアノテーションデータから、これら単位エコー画像間に跨る魚群のアノテーションデータがそれぞれ抽出され、抽出された2つのアノテーションデータを統合して、当該魚群のアノテーションデータが生成される。すなわち、図5の例では、単位エコー画像Pnの右上のイワシの魚群のアノテーションデータと、単位エコー画像Pn+1の左上のイワシの魚群のアノテーションデータとが統合されて、当該イワシの魚群全体に対するアノテーションデータが生成される。 In order to solve such a problem, in this embodiment, annotation data of a school of fish that spans between these unit echo images is extracted from annotation data of two temporally consecutive unit echo images, and Annotation data for the school of fish is generated by integrating the annotation data. That is, in the example of FIG. 5, the annotation data of the school of sardines at the top right of the unit echo image Pn and the annotation data of the school of sardines at the top left of the unit echo image Pn+1 are integrated to create annotation data for the entire school of sardines. is generated.

図7は、サーバ20の制御部201により実行されるアノテーションデータの統合処理を示すフローチャートである。 FIG. 7 is a flowchart showing the annotation data integration process executed by the control unit 201 of the server 20.

制御部201は、同じエコーIDの単位エコー画像(単位エコーデータ)のうち、時間的に連続する2つの単位エコー画像のアノテーションデータを参照する(S11)。次に、制御部201は、参照したアノテーションデータから、これら2つの単位エコー画像に跨る魚群のアノテーションデータを抽出する(S12)。そして、制御部201は、抽出したアノテーションデータを統合して、2つの単位エコー画像に跨る魚群全体のアノテーションデータを生成し、生成したアノテーションデータを記憶部202に記憶させる(S13)。制御部201は、同じエコーIDの全ての単位エコー画像(単位エコーデータ)に対して、図7の処理を実行する。 The control unit 201 refers to the annotation data of two temporally consecutive unit echo images among the unit echo images (unit echo data) having the same echo ID (S11). Next, the control unit 201 extracts annotation data of a school of fish spanning these two unit echo images from the referenced annotation data (S12). Then, the control unit 201 integrates the extracted annotation data to generate annotation data for the entire school of fish spanning the two unit echo images, and stores the generated annotation data in the storage unit 202 (S13). The control unit 201 executes the process shown in FIG. 7 on all unit echo images (unit echo data) having the same echo ID.

図3の機械学習モデル301の学習には、端末装置50により生成された図6のアノテーションデータと、図7の処理により生成されたアノテーションデータが用いられる。このとき、図7の処理により統合された2つのアノテーションデータは、機械学習に用いるアノテーションデータから除外されてよい。たとえば、図7の処理により統合された2つのアノテーションデータは、記憶部202に構築された図6のデータ構造から消去されてよい。 The annotation data of FIG. 6 generated by the terminal device 50 and the annotation data generated by the process of FIG. 7 are used for learning the machine learning model 301 of FIG. 3. At this time, the two annotation data integrated by the process of FIG. 7 may be excluded from the annotation data used for machine learning. For example, the two annotation data integrated by the process in FIG. 7 may be deleted from the data structure in FIG. 6 constructed in the storage unit 202.

図8は、図7のステップS12における処理の一例を示すフローチャートである。 FIG. 8 is a flowchart showing an example of the process in step S12 of FIG.

便宜上、図8には、図7のステップS11、S13が含まれている。図8のステップS101~S105が、図7のステップS12に対応する。 For convenience, steps S11 and S13 in FIG. 7 are included in FIG. Steps S101 to S105 in FIG. 8 correspond to step S12 in FIG.

制御部201は、ステップS11において、時間的に連続する2つの単位エコー画像のアノテーションデータを参照し、各々のアノテーションデータにおける魚群の範囲を把握する。次に、制御部201は、これら2つの単位エコー画像のうち、時間が古い方の第1単位エコー画像において、右側の境界付近、すなわち、図5の境界B1付近に魚群が存在するか否かを判定する(S101)。第1単位エコーの右側の境界B1付近に魚群が存在しない場合(S101:NO)、制御部201は、図8の処理を終了する。第1単位エコーの右側の境界B1付近に魚群が存在する場合(S101:YES)、制御部201は、この魚群を、統合対象の第1魚群として特定する(S102)。 In step S11, the control unit 201 refers to the annotation data of two temporally consecutive unit echo images and grasps the range of the fish school in each annotation data. Next, the control unit 201 determines whether or not a school of fish exists near the right boundary, that is, near the boundary B1 in FIG. 5, in the first unit echo image that is older among these two unit echo images. is determined (S101). If a school of fish does not exist near the boundary B1 on the right side of the first unit echo (S101: NO), the control unit 201 ends the process of FIG. 8. If a school of fish exists near the boundary B1 on the right side of the first unit echo (S101: YES), the control unit 201 specifies this school of fish as the first school of fish to be integrated (S102).

次に、制御部201は、これら2つの単位エコー画像のうち、時間が新しい方の第2単位エコー画像において、左側の境界付近、すなわち、図5の境界B2付近に魚群が存在するか否かを判定する(S103)。第2単位エコーの左側の境界B2付近に魚群が存在しない場合(S103:NO)、制御部201は、図8の処理を終了する。第2単位エコーの左側の境界B2付近に魚群が存在する場合(S103:YES)、制御部201は、この魚群を、統合対象の第2魚群として特定する(S104)。 Next, the control unit 201 determines whether or not there is a school of fish near the left boundary, that is, near the boundary B2 in FIG. is determined (S103). If there is no school of fish near the left boundary B2 of the second unit echo (S103: NO), the control unit 201 ends the process of FIG. 8. If a school of fish exists near the left boundary B2 of the second unit echo (S103: YES), the control unit 201 specifies this school of fish as a second school of fish to be integrated (S104).

次に、制御部201は、第1魚群の深度範囲と第2魚群の深度範囲とが略合致するか否かを判定する(S105)。より詳細には、制御部201は、第1魚群の深度範囲と第2魚群の深度範囲との合致率が所定の閾値Th1以上であるか否かを判定する。ステップS105の判定がNOの場合、制御部201は、ステップS13の処理を行うことなく図8の処理を終了する。 Next, the control unit 201 determines whether the depth range of the first school of fish and the depth range of the second school of fish substantially match (S105). More specifically, the control unit 201 determines whether the matching rate between the depth range of the first school of fish and the depth range of the second school of fish is greater than or equal to a predetermined threshold Th1. If the determination in step S105 is NO, the control unit 201 ends the process in FIG. 8 without performing the process in step S13.

ステップS105の判定がYESの場合、制御部201は、第1魚群および第2魚群は、第1単位エコー画像と第2単位エコー画像とに跨る魚群を構成するとして、第1魚群および第2魚群のアノテーションデータを統合し、魚群全体のアノテーションデータを生成する(S13)。これにより、制御部201は、これら2つの単位エコー画像のアノテーションデータに対する処理を終了する。 If the determination in step S105 is YES, the control unit 201 determines that the first fish school and the second fish school constitute a fish school spanning the first unit echo image and the second unit echo image. The annotation data of the entire fish school are integrated to generate annotation data of the entire fish school (S13). Thereby, the control unit 201 ends the processing on the annotation data of these two unit echo images.

制御部201は、時間的に連続する次の2つの単位エコー画像のアノテーションデータに対して、図8の処理を実行する。こうして、制御部201は、同じエコーIDが付された全ての単位エコー画像のアノテーションデータに対して、図8の処理を行う。 The control unit 201 executes the process shown in FIG. 8 on the annotation data of the next two temporally consecutive unit echo images. In this way, the control unit 201 performs the process shown in FIG. 8 on the annotation data of all unit echo images assigned the same echo ID.

図9(a)、(b)は、第1単位エコー画像と第2単位エコー画像との境界付近の魚群の状態を模式的に示す図である。 FIGS. 9A and 9B are diagrams schematically showing the state of a school of fish near the boundary between the first unit echo image and the second unit echo image.

図9(a)には、図5の単位エコー画像Pn(第1単位エコー画像)の右上の部分と単位エコー画像Pn+1(第2単位エコー画像)の左上の部分が示されている。Fa、Fbは、イワシの魚群であり、Ra、Rbは、アノテーションデータに含まれる魚群の範囲(時間範囲、深度範囲)である。上記のように、魚群の範囲Ra、Rbは矩形に設定される。 FIG. 9A shows the upper right part of the unit echo image Pn (first unit echo image) and the upper left part of the unit echo image Pn+1 (second unit echo image) in FIG. 5. Fa and Fb are sardine fish schools, and Ra and Rb are ranges (time range, depth range) of the fish schools included in the annotation data. As described above, the ranges Ra and Rb of the school of fish are set to be rectangular.

図8のステップS101では、第1単位エコー画像Pnの境界B1から所定の時間範囲Taに魚群が存在するか否かが判定され、ステップS103では、第2単位エコー画像Pn+1の境界B2から所定の時間範囲Tbに魚群が存在するか否かが判定される。時間範囲Ta、Tbは、1つの魚群において生じ得る、エコー画像上の時間軸方向の隙間の最大値程度に設定される。時間範囲Ta、Tbは、同じ時間幅に設定されてよい。 In step S101 of FIG. 8, it is determined whether a school of fish exists within a predetermined time range Ta from the boundary B1 of the first unit echo image Pn, and in step S103, it is determined whether a school of fish exists within a predetermined time range Ta from the boundary B1 of the second unit echo image Pn+1. It is determined whether a school of fish exists in the time range Tb. The time ranges Ta and Tb are set to approximately the maximum value of the gap in the time axis direction on the echo image that can occur in one school of fish. The time ranges Ta and Tb may be set to the same time width.

図9(a)の例では、魚群Fa(魚群の範囲Ra)が時間範囲Ta内に存在するため、図8のステップS101の判定がYESとなり、魚群Faが第1魚群として特定される。また、図9(a)の例では、魚群Fb(魚群の範囲Rb)が時間範囲Tb内に存在するため、図8のステップS103の判定がYESとなり、魚群Fbが第2魚群として特定される。 In the example of FIG. 9A, since the fish school Fa (fish school range Ra) exists within the time range Ta, the determination in step S101 of FIG. 8 is YES, and the fish school Fa is specified as the first fish school. Furthermore, in the example of FIG. 9(a), since the fish school Fb (fish school range Rb) exists within the time range Tb, the determination in step S103 of FIG. 8 is YES, and the fish school Fb is identified as the second fish school. .

これに対して、図9(b)の例では、魚群Fa(魚群の範囲Ra)が時間範囲Ta内に存在しないため、図8のステップS101の判定がNOとなり、魚群Faは第1魚群として特定されない。また、図9(b)の例では、魚群Fb(魚群の範囲Rb)が時間範囲Tb内に存在しないため、図8のステップS103の判定がNOとなり、魚群Fbは第2魚群として特定されない。 On the other hand, in the example of FIG. 9(b), since the fish school Fa (fish school range Ra) does not exist within the time range Ta, the determination in step S101 of FIG. 8 is NO, and the fish school Fa is the first fish school. Not specified. Further, in the example of FIG. 9(b), since the fish school Fb (fish school range Rb) does not exist within the time range Tb, the determination in step S103 of FIG. 8 is NO, and the fish school Fb is not specified as the second fish school.

また、図8のステップS105では、以下の式(1)による判定が行われる。 Further, in step S105 in FIG. 8, a determination is made using the following equation (1).

Figure 2024027023000002
Figure 2024027023000002

図9(a)に示すように、AmaxおよびAminは、それぞれ、第1単位エコー画像Pnにおける第1魚群Fa(魚群の範囲Ra)の最大深度および最小深度であり、BmaxおよびBminは、それぞれ、第2単位エコー画像Pn+1における第2魚群Fb(魚群の範囲Rb)の最大深度および最小深度である。 As shown in FIG. 9(a), Amax and Amin are the maximum depth and minimum depth, respectively, of the first fish school Fa (fish school range Ra) in the first unit echo image Pn, and Bmax and Bmin are, respectively, These are the maximum depth and minimum depth of the second fish school Fb (fish school range Rb) in the second unit echo image Pn+1.

すなわち、式(1)の左辺の分母は、AminとBminの小さい方(浅い方)からAmaxとBmaxの大きい方(深い方)までの深度範囲であり、図9(a)の例ではAminからBmaxまでの深度範囲である。また、式(1)の左辺の分子は、AminとBminの大きい方(深い方)からAmaxとBmaxの小さい方(浅い方)までの深度範囲であり、図9(a)の例ではBminからAmaxまでの深度範囲である。式(1)の左辺により、第1魚群Faの深度範囲と第2魚群Fbの深度範囲との合致率が算出される。図8のステップS105では、この合致率が閾値Th1以上であるか否かによって、第1魚群Faの深度範囲と第2魚群Fbの深度範囲とが略合致するか否かが判定される。閾値Th1は、統計的に設定されたデフォルト値であってよく、あるいは、サーバ20の管理者により任意に設定されてもよい。 In other words, the denominator on the left side of equation (1) is the depth range from the smaller of Amin and Bmin (shallower) to the larger of Amax and Bmax (deeper), and in the example of FIG. 9(a), from Amin to The depth range is up to Bmax. In addition, the numerator on the left side of equation (1) is the depth range from the larger one of Amin and Bmin (deeper one) to the smaller one of Amax and Bmax (shallower one), and in the example of FIG. 9(a), from Bmin to The depth range is up to Amax. The matching rate between the depth range of the first fish school Fa and the depth range of the second fish school Fb is calculated from the left side of equation (1). In step S105 of FIG. 8, it is determined whether the depth range of the first fish school Fa and the depth range of the second fish school Fb substantially match, depending on whether the matching rate is equal to or greater than the threshold Th1. The threshold Th1 may be a statistically set default value, or may be arbitrarily set by the administrator of the server 20.

図10(a)、(b)は、図8のステップS13における第1魚群および第2魚群のアノテーションデータの統合方法を示す図である。 FIGS. 10A and 10B are diagrams showing a method for integrating the annotation data of the first fish school and the second fish school in step S13 of FIG. 8.

図8のステップS13において、制御部201は、第1魚群Faの魚群の範囲Raおよび第2魚群Fbの魚群の範囲Rbの深度範囲を整合させる。すなわち、制御部201は、図10(a)に示すように、最大深度Amax、Bmaxの小さい方(Amax)を大きい方(Amax)に整合させ、最小深度Amin、Bminの大きい方(Bmin)を小さい方(Amin)に整合させるよう、魚群の範囲Ra、Rbの深度範囲を修正する。そして、制御部201は、図10(b)に示すように、修正後の魚群の範囲Ra、Rbのアノテーションデータを統合して、魚群Fa、Fbにより構成される1つの魚群のアノテーションデータを生成する。 In step S13 of FIG. 8, the control unit 201 matches the depth ranges of the fish school range Ra of the first fish school Fa and the fish school range Rb of the second fish school Fb. That is, as shown in FIG. 10A, the control unit 201 matches the smaller one (Amax) of the maximum depths Amax and Bmax with the larger one (Amax), and matches the larger one (Bmin) of the minimum depths Amin and Bmin. The depth ranges of the fish school ranges Ra and Rb are corrected to match the smaller one (Amin). Then, as shown in FIG. 10(b), the control unit 201 integrates the annotation data of the corrected ranges Ra and Rb of the fish school to generate annotation data of one fish school consisting of the fish schools Fa and Fb. do.

生成されたアノテーションデータは、修正後の魚群の範囲Ra、Rbを統合した魚群の範囲Rabと、この魚群の範囲Rabに含まれるエコーデータと、当該魚群の魚種(ここではイワシ)とから構成される。魚群の範囲Rabも、魚群の範囲Ra、Rbと同様、矩形となり、この矩形の範囲に魚群Fa、Fbが内包される。上記のように、サーバ20の制御部201は、統合後のアノテーションデータを機械学習モデル301の学習に用いる。 The generated annotation data is composed of a fish school range Rab that integrates the corrected fish school ranges Ra and Rb, echo data included in this fish school range Rab, and the fish species of the fish school (in this case, sardines). be done. The fish school range Rab is also rectangular like the fish school ranges Ra and Rb, and the fish schools Fa and Fb are included in this rectangular range. As described above, the control unit 201 of the server 20 uses the integrated annotation data for learning the machine learning model 301.

なお、図9(a)~図10(b)には、第1単位エコー画像Pnの右上の部分と第2単位エコー画像Pn+1の左上の部分の魚群が例示されたが、第1単位エコー画像と第2単位エコー画像とに跨る魚群が複数存在する場合は、それぞれの魚群に対して上記と同様の処理が行われて、統合後のアノテーションデータが複数生成される。 In addition, in FIGS. 9(a) to 10(b), fish schools in the upper right part of the first unit echo image Pn and the upper left part of the second unit echo image Pn+1 are illustrated, but the first unit echo image If there are a plurality of schools of fish extending over the second unit echo image and the second unit echo image, the same processing as described above is performed for each school of fish, and a plurality of pieces of integrated annotation data are generated.

また、3つ以上の単位エコー画像に1つの魚群が跨る場合は、これら単位エコー画像のうち隣り合う単位エコー画像について、上記の処理が順次行われる。これにより、3つ以上の単位エコー画像に分断された魚群の部分のアノテーションデータが統合され、1つの魚群に対するアノテーションデータが生成される。 Furthermore, when one school of fish straddles three or more unit echo images, the above processing is sequentially performed on adjacent unit echo images among these unit echo images. As a result, the annotation data of parts of the fish school divided into three or more unit echo images are integrated, and annotation data for one fish school is generated.

<実施形態の効果>
実施形態によれば、以下の効果が奏され得る。
<Effects of embodiment>
According to the embodiment, the following effects can be achieved.

図7~図10(b)に示したように、第1単位エコー画像Pnと第2単位エコー画像Pn+1との間に跨る魚群のアノテーションデータ(第1アノテーションデータおよび第2アノテーションデータ)が統合されて、当該魚群全体のアノテーションデータが生成される。したがって、魚群全体に対するアノテーションデータを機械学習に用いることができるため、魚種判別のための機械学習の精度を高めることができる。 As shown in FIGS. 7 to 10(b), the annotation data (first annotation data and second annotation data) of the fish school spanning between the first unit echo image Pn and the second unit echo image Pn+1 are integrated. Then, annotation data for the entire school of fish is generated. Therefore, the annotation data for the entire school of fish can be used for machine learning, so the accuracy of machine learning for fish species discrimination can be improved.

図9(a)に示したように、制御部201は、第1単位エコー画像Pn上において第2単位エコー画像Pn+1側の境界B1(第1境界)付近まで延びている魚群Faを第1魚群に特定し、第2単位エコー画像Pn+1上において第1単位エコー画像Pn側の境界B2(第2境界)付近まで延びている魚群Fbを第2魚群に特定し、魚群Fa(第1魚群)の範囲Raと魚群Fb(第2魚群)の範囲Rbとが略合致する場合に、これら魚群Fa、Fb(第1魚群、第2魚群)のアノテーションデータを、統合対象のアノテーションデータ(第1アノテーションデータおよび第2アノテーションデータ)としてそれぞれ抽出する。これにより、1つの魚群を構成する確率が高い魚群Fa、Fb(第1魚群、第2魚群)を、第1単位エコー画像Pnおよび第2単位エコー画像Pn+1において円滑に特定できる。よって、これら魚群のアノテーションデータを統合することにより、1つの魚群全体のアノテーションデータを精度良く生成できる。 As shown in FIG. 9A, the control unit 201 converts the fish school Fa extending to the vicinity of the boundary B1 (first boundary) on the second unit echo image Pn+1 side on the first unit echo image Pn into the first fish group. , the fish school Fb extending to the vicinity of the boundary B2 (second boundary) on the first unit echo image Pn side on the second unit echo image Pn+1 is specified as the second fish school, and the fish school Fa (first fish school) is identified as the second fish school. When the range Ra and the range Rb of the fish school Fb (second fish school) approximately match, the annotation data of these fish schools Fa and Fb (first fish school, second fish school) are combined with the annotation data to be integrated (first annotation data). and second annotation data). Thereby, fish schools Fa and Fb (first fish school, second fish school) that have a high probability of forming one fish school can be smoothly identified in the first unit echo image Pn and the second unit echo image Pn+1. Therefore, by integrating the annotation data of these fish schools, annotation data of one entire fish school can be generated with high accuracy.

図9(a)に示したように、制御部201は、境界B1(第1境界)から所定の時間範囲Taに少なくとも一部が含まれる魚群Faを統合対象の魚群(第1魚群)として抽出し、境界B2(第2境界)から所定の時間範囲Tbに少なくとも一部が含まれる魚群Fbを統合対象の魚群(第2魚群)として抽出する。これにより、境界B1、B2付近で魚の分布が疎らになっている場合も、第1単位エコー画像Pnと第2単位エコー画像Pn+1とに跨る魚群を構成する第1魚群および第2魚群を、第1単位エコー画像Pnおよび第2単位エコー画像Pn+1において取りこぼしなく特定できる。よって、1つの魚群全体のアノテーションデータを適正に生成できる。 As shown in FIG. 9(a), the control unit 201 extracts a school of fish Fa that is at least partially included in a predetermined time range Ta from the boundary B1 (first boundary) as a school of fish to be integrated (first school of fish). Then, a school of fish Fb that is at least partially included in a predetermined time range Tb from the boundary B2 (second boundary) is extracted as a school of fish to be integrated (second school of fish). As a result, even if the distribution of fish is sparse near the boundaries B1 and B2, the first and second schools of fish constituting the school of fish spanning the first unit echo image Pn and the second unit echo image Pn+1 can be separated from each other. It can be specified without missing anything in the 1-unit echo image Pn and the 2nd unit echo image Pn+1. Therefore, annotation data for one entire school of fish can be appropriately generated.

<変更例1>
本発明は、上記実施形態に制限されるものではなく、また、本発明の実施形態は、上記構成の他に種々の変更が可能である。
<Change example 1>
The present invention is not limited to the above embodiments, and the embodiments of the present invention can be modified in various ways in addition to the above configurations.

たとえば、上記実施形態では、アノテーションデータを構成する魚群の範囲(時間範囲、深度範囲)が矩形であったが、アノテーションデータを構成する魚群の範囲は、矩形以外の他の形状であってもよい。 For example, in the above embodiment, the range (time range, depth range) of the fish school that makes up the annotation data is rectangular, but the range of the fish school that makes up the annotation data may have a shape other than a rectangle. .

たとえば、図11(a)に示すように、魚群の範囲Ra、Rbが、魚群Fa、Fbの外縁に沿った形状であってもよい。この場合、上記のように、エコー画像上において、エコー強度が所定の閾値以上であり、且つ、エコー強度に繋がりがある領域が魚群Fa、Fbとして抽出され、抽出された魚群Fa、Fbの外縁に沿った範囲が、魚群の範囲Ra、Rbとして抽出される。端末装置50の制御部501は、オペレータがエコー画像上において魚群の位置を指示すると、指定された位置を含む魚群に対して上記処理により抽出した魚群の範囲を、エコー画像上に重ねて表示する。 For example, as shown in FIG. 11(a), the ranges Ra and Rb of the fish schools may be shaped along the outer edges of the fish schools Fa and Fb. In this case, as described above, areas on the echo image where the echo intensity is equal to or higher than a predetermined threshold and where the echo intensities are connected are extracted as fish schools Fa and Fb, and the outer edges of the extracted fish schools Fa and Fb are extracted as fish schools Fa and Fb. The range along is extracted as the ranges Ra and Rb of the school of fish. When the operator specifies the position of a school of fish on the echo image, the control unit 501 of the terminal device 50 displays the range of the school of fish extracted by the above processing for the school of fish including the specified position, superimposed on the echo image. .

この場合も、上記実施形態1と同様、図8のステップS101では、境界B1から時間範囲Taに魚群が存在するかが判定され、ステップS103では、境界B2から時間範囲Tbに魚群が存在するかが判定される。これにより、図11(a)に示すように、魚群Fa、Fbが、それぞれ、第1魚群および第2魚群に特定される。 In this case, as in the first embodiment, in step S101 of FIG. 8, it is determined whether a school of fish exists in the time range Ta from the boundary B1, and in step S103, it is determined whether a school of fish exists in the time range Tb from the boundary B2. is determined. Thereby, as shown in FIG. 11(a), the fish schools Fa and Fb are specified as the first fish school and the second fish school, respectively.

また、この場合、図11(a)のステップS105では、魚群Fa(第1魚群)の深度範囲と魚群Fb(第2魚群)の深度範囲とがほぼ合致するか否かが、境界B1(第1境界)付近における魚群Fa(第1魚群)の深度範囲と、境界B2(第2境界)付近における魚群Fb(第2魚群)の深度範囲との合致率に基づいて判定される。 In this case, in step S105 of FIG. 11(a), it is determined whether the depth range of the fish school Fa (first fish school) and the depth range of the fish school Fb (second fish school) almost match. The determination is made based on the matching rate between the depth range of the fish school Fa (first fish school) near the first boundary) and the depth range of the fish school Fb (second fish school) near the boundary B2 (second boundary).

すなわち、魚群Faについては、魚群の範囲Raのうち時間範囲Taに含まれる部分に対して最大深度Amaxおよび最小深度Aminが取得され、魚群Fbについては、魚群の範囲Rbのうち時間範囲Tbに含まれる部分に対して最大深度Bmaxおよび最小深度Bminが取得される。 That is, for the fish school Fa, the maximum depth Amax and the minimum depth Amin are obtained for the part included in the time range Ta of the range Ra of the fish school, and for the fish school Fb, the maximum depth Amax and the minimum depth Amin are obtained for the part included in the time range Tb of the range Rb of the fish school. A maximum depth Bmax and a minimum depth Bmin are obtained for the portion that is to be stored.

制御部201は、こうして取得した最大深度Amax、Bmaxおよび最小深度Amin、Bminを上記式(1)に適用して、ステップS105の判定を行う。このように、境界B1(第1境界)および境界B2(第2境界)の付近において、魚群Fa(第1魚群)の深度範囲と魚群Fb(第2魚群)の深度範囲とが略合致するかを判定することにより、これら魚群Fa、Fb(第1魚群、第2魚群)が互いに連続するものであるかを正確に判定できる。よって、魚群Fa、Fb(第1魚群、第2魚群)のアノテーションデータから1つの魚群全体のアノテーションデータを精度良く生成できる。 The control unit 201 applies the maximum depths Amax, Bmax and minimum depths Amin, Bmin thus obtained to the above equation (1) to perform the determination in step S105. In this way, in the vicinity of boundary B1 (first boundary) and boundary B2 (second boundary), the depth range of fish school Fa (first fish school) and the depth range of fish school Fb (second fish school) approximately match. By determining, it is possible to accurately determine whether these fish schools Fa and Fb (first fish school, second fish school) are continuous with each other. Therefore, the annotation data for one entire fish school can be generated with high accuracy from the annotation data for the fish schools Fa and Fb (first fish school, second fish school).

この場合、図11(a)のステップS13では、図11(b)のように、最大深度Amax、Bmaxをそれぞれ取得した魚群の範囲Ra、Rbの位置を互いに接続し、最小深度Amin、Bminをそれぞれ取得した魚群の範囲Ra、Rbの位置を互いに接続することにより、魚群全体の魚群の範囲Rabが設定され得る。これにより、魚群全体のアノテーションデータを構成する魚群の範囲Rabを、円滑かつ適正に設定できる。 In this case, in step S13 of FIG. 11(a), as shown in FIG. 11(b), the positions of the ranges Ra and Rb of the fish schools from which the maximum depths Amax and Bmax have been obtained are connected to each other, and the minimum depths Amin and Bmin are determined. By connecting the positions of the respective acquired fish school ranges Ra and Rb, the fish school range Rab of the entire fish school can be set. Thereby, the range Rab of the fish school that constitutes the annotation data of the entire fish school can be set smoothly and appropriately.

但し、魚群の範囲Rabの設定方法がこれに限られるものではない。たとえば、最大深度Amax、Bmaxをそれぞれ取得した魚群の範囲Ra、Rbの位置よりもやや境界B1、B2側の魚群の範囲Ra、Rbの位置を接続し、最小深度Amin、Bminをそれぞれ取得した魚群の範囲Ra、Rbの位置よりもやや境界B1、B2側の魚群の範囲Ra、Rbの位置を接続することにより、魚群の範囲Rabが設定されてもよい。この場合も、魚群全体のアノテーションデータを構成する魚群の範囲Rabを、円滑かつ適正に設定できる。 However, the method of setting the range Rab of the fish school is not limited to this. For example, by connecting the positions of ranges Ra and Rb of fish schools slightly closer to the boundaries B1 and B2 than the positions of ranges Ra and Rb of fish schools for which maximum depths Amax and Bmax have been obtained, respectively, a school of fish for which minimum depths Amin and Bmin have been obtained, respectively. The range Rab of the fish school may be set by connecting the positions of the ranges Ra and Rb of the fish school that are slightly closer to the boundaries B1 and B2 than the positions of the ranges Ra and Rb. In this case as well, the range Rab of the fish school that constitutes the annotation data of the entire fish school can be set smoothly and appropriately.

<変更例2>
上記実施形態では、第1魚群のアノテーションデータを構成する魚種と、第2魚群のアノテーションデータを構成する魚種とが同じであると想定された。しかしながら、魚群の画像に基づく魚種の判定は、オペレータにおいて困難な場合もある。このため、1つの魚群を構成するとして特定された第1魚群および第2魚群にそれぞれ設定されたアノテーションデータの魚種が互いに相違することが起こり得る。
<Change example 2>
In the embodiment described above, it was assumed that the fish species that constitute the annotation data of the first fish school and the fish species that constitute the annotation data of the second fish school are the same. However, it may be difficult for an operator to determine the species of fish based on images of schools of fish. For this reason, it is possible that the fish species of the annotation data respectively set for the first fish school and the second fish school that are specified as forming one fish school are different from each other.

変更例2では、このような場合に、統合後のアノテーションデータに対して、所定の条件に基づき、魚種が設定される。 In modification example 2, in such a case, the fish species is set for the integrated annotation data based on predetermined conditions.

図12は、図8のステップS13におけるアノテーションデータの統合処理において実行される魚種の設定処理を示すフローチャートである。 FIG. 12 is a flowchart showing the fish species setting process executed in the annotation data integration process in step S13 of FIG.

制御部201は、統合対象の第1魚群および第2魚群のアノテーションデータの魚種が一致するか否かを判定する(S201)。両者が一致する場合(S201:YES)、制御部201は、一致した魚種を、統合後の魚群の魚種に設定する(S202)。他方、両者が一致しない場合、制御部201は、所定の設定条件に従って、統合後の魚群の魚種を設定する(S203)。 The control unit 201 determines whether the fish species in the annotation data of the first fish school and the second fish school to be integrated match (S201). If the two match (S201: YES), the control unit 201 sets the matched fish species as the fish species of the fish group after integration (S202). On the other hand, if the two do not match, the control unit 201 sets the fish species of the integrated fish school according to predetermined setting conditions (S203).

ステップS203の設定条件は、たとえば、第1魚群および第2魚群のアノテーションデータ(第1アノテーションデータ、前記第2アノテーションデータ)のうち新しい方のアノテーションデータの魚種に設定することを含み得る。 The setting conditions in step S203 may include, for example, setting the annotation data to the fish species of the newer one of the annotation data (the first annotation data and the second annotation data) of the first school of fish and the second school of fish.

たとえば、図11(a)の例において、魚群Fa(第1魚群)および魚群Fb(第2魚群)のアノテーションデータをそれぞれ構成する魚種が相違する場合、制御部201は、新しい方の単位エコー画像Pn+1から取得された魚群Fbのアノテーションデータの魚種を、統合後の魚群の範囲Rabに対する魚種として設定する。 For example, in the example of FIG. 11(a), if the fish species constituting the annotation data of fish school Fa (first fish school) and fish school Fb (second fish school) are different, the control unit 201 selects the newer unit echo. The fish species of the annotation data of the fish school Fb acquired from the image Pn+1 is set as the fish species for the range Rab of the fish school after integration.

なお、ステップS203における設定条件は、上記のように、新しい方のアノテーションデータの魚種に設定するとの条件(第1条件)に限られるものではなく、信頼性の高い魚種を統合後のアノテーションデータに設定可能な限りにおいて、他の条件であってもよい。 Note that the setting conditions in step S203 are not limited to the condition that the new annotation data is set to the fish species as described above (the first condition), but the setting condition is that the fish species with high reliability is set to the annotation data after the integration. Other conditions may be used as long as they can be set in the data.

たとえば、統合対象の第1魚群および第2魚群のアノテーションデータ(第1アノテーションデータ、第2アノテーションデータ)のうち魚群の範囲が大きい方のアノテーションデータの魚種を、統合後の魚群のアノテーションデータの魚種に設定するとの条件(第2条件)が、ステップS203の設定条件に含まれてもよい。 For example, among the annotation data of the first and second fish schools to be integrated (first annotation data, second annotation data), the fish species of the annotation data that has a larger range of fish schools can be added to the annotation data of the integrated fish school. The condition of setting the fish species (second condition) may be included in the setting conditions of step S203.

あるいは、統合したアノテーションデータを魚種判別の機械学習モデル301で処理して得られた魚種を、統合後の魚群のアノテーションデータの魚種に設定するとの条件(第3条件)が、ステップS203の設定条件に含まれてもよい。 Alternatively, the condition (third condition) that the fish species obtained by processing the integrated annotation data with the fish species discrimination machine learning model 301 is set as the fish species of the annotation data of the fish school after integration is set in step S203. may be included in the setting conditions.

この場合、たとえば、第2条件により魚種を設定できない場合(たとえば、第1魚群の範囲と第2魚群の範囲とが略同じである場合)に、第1条件または第3条件が適用されて、魚種が設定されてもよい。あるいは、第1条件から第3条件によりそれぞれ取得された魚種のうち、互いに一致する魚種の数が最も多い魚種が、統合後の魚群のアノテーションデータの魚種に設定されてもよい。設定条件は、第1条件から第3条件に限られるものではなく、他の条件をさらに含んでもよい。 In this case, for example, when the fish species cannot be set due to the second condition (for example, when the range of the first fish school and the range of the second fish school are approximately the same), the first condition or the third condition is applied. , fish species may be set. Alternatively, among the fish species obtained according to the first condition to the third condition, the fish species with the largest number of mutually matching fish species may be set as the fish species of the annotation data of the fish school after integration. The setting conditions are not limited to the first to third conditions, and may further include other conditions.

このように、魚群Fa(第1魚群)および魚群Fb(第2魚群)のアノテーションデータをそれぞれ構成する魚種が相違する場合に、ステップS203の処理を行うことで、信頼性の高い魚種を、統合後のアノテーションデータに設定できる。よって、機械学習の精度を高めることができる。 In this way, when the fish species composing the annotation data of fish school Fa (first fish school) and fish school Fb (second fish school) are different, by performing the process of step S203, highly reliable fish species can be selected. , can be set in the annotation data after integration. Therefore, the accuracy of machine learning can be improved.

なお、ステップS201の判定がNOの場合は、第1魚群および第2魚群のアノテーションデータを統合する処理を中止してもよい。この場合、制御部201は、第1魚群および第2魚群のアノテーションデータの両方を、機械学習モデル301の機械学習に用いるアノテーションデータの対象から除外してよく、あるいは、これらアノテーションデータの一方(たとえば、古い方または魚群の範囲が小さい方)を機械学習モデル301の機械学習に用いるアノテーションデータの対象から除外してよい。 Note that if the determination in step S201 is NO, the process of integrating the annotation data of the first school of fish and the second school of fish may be canceled. In this case, the control unit 201 may exclude both the annotation data of the first fish school and the second fish school from the annotation data used for machine learning of the machine learning model 301, or may exclude one of these annotation data (e.g. , the older one or the one with a smaller fish school range) may be excluded from the annotation data used for machine learning in the machine learning model 301.

<その他の変更例>
上記実施形態および変更例1、2では、図7および図8の処理が、サーバ20の制御部201において行われたが、これらの処理が、サーバ20以外の他の装置で行われて、統合後のアノテーションデータがサーバ20に提供されもよい。たとえば、図7および図8の処理が、オペレータによるアノテーションデータの生成後に、端末装置50の制御部501が行い、オペレータが生成したアノテーションデータと、図7および図8の処理により生成したアノテーションデータとを、制御部501がサーバ20に送信してもよい。この場合、端末装置50が、特許請求の範囲に記載の魚種学習装置に対応する。
<Other change examples>
In the above embodiment and modified examples 1 and 2, the processes shown in FIGS. 7 and 8 were performed in the control unit 201 of the server 20, but these processes were performed in a device other than the server 20, and were integrated. Later annotation data may be provided to server 20. For example, the processes in FIGS. 7 and 8 are performed by the control unit 501 of the terminal device 50 after the operator generates annotation data, and the annotation data generated by the operator and the annotation data generated by the processes in FIGS. 7 and 8 are may be transmitted by the control unit 501 to the server 20. In this case, the terminal device 50 corresponds to a fish species learning device described in the claims.

また、上記実施形態および変更例1、2では、上記式(1)によって、第1魚群および第2魚群の深度範囲が略合致するか否かが判定されたが、この判定の方法は、これに限られるものではない。たとえば、図9(a)において、最大深度Amaxと最小深度Aminとの間の第1深度幅と、最大深度Bmaxと最小深度Bminとの間の第2深度幅との差分が所定の閾値より小さく、且つ、第1深度幅の中間深度と第2深度幅の中間深度との差分が所定の閾値より小さいとの条件が満たされる場合に、第1魚群および第2魚群の深度範囲が略合致し、この条件が満たされない場合に、これら魚群の深度範囲が合致しないと判定されてもよい。図11(a)の場合も、同様の判定方法にて、第1魚群および第2魚群の深度範囲が略合致するか否かが判定されてもよい。 In addition, in the above embodiment and modifications 1 and 2, it is determined by the above formula (1) whether the depth ranges of the first fish school and the second fish school substantially match. It is not limited to. For example, in FIG. 9A, the difference between the first depth width between the maximum depth Amax and the minimum depth Amin and the second depth width between the maximum depth Bmax and the minimum depth Bmin is smaller than a predetermined threshold value. , and when the condition that the difference between the intermediate depth of the first depth width and the intermediate depth of the second depth width is smaller than a predetermined threshold is satisfied, the depth ranges of the first fish school and the second fish school substantially match. , if this condition is not met, it may be determined that the depth ranges of these schools of fish do not match. In the case of FIG. 11(a) as well, it may be determined whether the depth ranges of the first fish school and the second fish school substantially match using a similar determination method.

また、第1単位エコー画像と第2単位エコー画像とに跨る魚群のアノテーションデータを抽出する方法は、図8のステップS101~S105に示した方法に限られるものではない。たとえば、第1魚群のエコーデータおよび第2魚群のエコーデータの分布の連続性に基づいて、第1魚群および第2魚群が1つの魚群を構成するかが判定されてもよい。 Further, the method for extracting annotation data of a school of fish across the first unit echo image and the second unit echo image is not limited to the method shown in steps S101 to S105 in FIG. 8. For example, it may be determined whether the first school of fish and the second school of fish constitute one school of fish, based on the continuity of the distribution of the echo data of the first school of fish and the echo data of the second school of fish.

また、上記実施形態および変更例1、2では、送受波部104により送波される送信波の周波数が1つであることが想定されたが、互いに異なる2種類の周波数の送信波が送受波部104から送波されてもよい。この場合、各周波数の受信信号に基づくエコーデータが魚群ごとに機械学習モデル301に適用されて、各魚群の魚種が判別されてもよい。このように2種類の周波数で送受波が行われることにより、機械学習モデル301による魚種判別をより高精度に行うことができる。たとえば、鰾の有無によって、各周波数のエコー強度に差が生じる。このため、魚群からのエコーの強度の差を参照することによって、当該魚群の魚種を精度良く判別できる。 Furthermore, in the above embodiment and modifications 1 and 2, it was assumed that the frequency of the transmission wave transmitted by the wave transmitting/receiving section 104 is one, but the transmission waves of two different frequencies are transmitted and received. The wave may be transmitted from the section 104. In this case, echo data based on received signals of each frequency may be applied to the machine learning model 301 for each school of fish to determine the fish species of each school of fish. By transmitting and receiving waves at two types of frequencies in this way, the machine learning model 301 can discriminate fish species with higher accuracy. For example, the echo intensity of each frequency varies depending on the presence or absence of fins. Therefore, by referring to the difference in the intensity of echoes from a school of fish, the species of fish in the school of fish can be determined with high accuracy.

この場合、単位エコー画像により生成されるアノテーションデータは、それぞれの魚群に対して周波数ごとに生成されればよい。また、図7および図8に示したアノテーションデータの統合処理は、各周波数のエコーデータ(単位エコー画像)に対して個別に行われればよい。 In this case, the annotation data generated from the unit echo image may be generated for each frequency for each school of fish. Further, the annotation data integration process shown in FIGS. 7 and 8 may be performed individually for each frequency of echo data (unit echo image).

また、上記実施形態では、機械学習モデル301を用いた魚種の判別処理がサーバ20側で行われたが、この判別処理が水中探知装置10側で行われてもよい。この場合、アノテーションデータにより更新された機械学習モデル301が、随時、水中探知装置10に送信され、水中探知装置10に記憶される。水中探知装置10の制御部101は、送受波部104および信号処理部105により取得したエコーデータに基づいて、上記サーバ20の制御部201と同様、機械学習モデル301を用いた魚種判別を実行し、判別結果をエコー画像に表示させる。 Further, in the above embodiment, the fish species discrimination process using the machine learning model 301 was performed on the server 20 side, but this discrimination process may be performed on the underwater detection device 10 side. In this case, the machine learning model 301 updated with the annotation data is transmitted to the underwater detection device 10 at any time and stored in the underwater detection device 10. The control unit 101 of the underwater detection device 10 executes fish species discrimination using the machine learning model 301, similar to the control unit 201 of the server 20, based on the echo data acquired by the wave transmitting/receiving unit 104 and the signal processing unit 105. Then, the discrimination results are displayed on the echo image.

また、上記実施形態では、アノテーションデータが端末装置50において生成されたが、アノテーションデータを生成する装置はこれに限られるものではない。たとえば、水中探知装置10のユーザが、自身の漁獲結果からエコー画像上の魚群とその魚種を入力し、この魚群のエコーデータと当該魚群の魚種が、アノテーションデータとしてサーバ20に送信されてもよい。 Further, in the above embodiment, the annotation data is generated in the terminal device 50, but the device that generates the annotation data is not limited to this. For example, a user of the underwater detection device 10 inputs a school of fish on an echo image and its fish species from his own fishing results, and the echo data of this school of fish and the fish species of the school of fish are sent to the server 20 as annotation data. Good too.

また、上記実施形態では、水中探知装置10が魚群探知機であったが、水中探知装置10がソナー等、魚群探知機以外の装置であってもよい。 Further, in the above embodiment, the underwater detection device 10 is a fish finder, but the underwater detection device 10 may be a device other than a fish finder, such as a sonar.

この他、本発明の実施形態は、特許請求の範囲に記載の範囲で適宜種々の変更可能である。 In addition, the embodiments of the present invention can be modified in various ways within the scope of the claims.

20 サーバ(機械学習装置)
201 制御部
202 記憶部
301 機械学習モデル
Pn、Pn+1 単位エコー画像(第1単位エコー画像、第2単位エコー画像)
Fa、Fb 魚群(第1魚群、第2魚群)
B1、B2 境界(第1境界、第2境界)
Ta、Tb 時間範囲
20 Server (machine learning device)
201 Control unit 202 Storage unit 301 Machine learning model Pn, Pn+1 Unit echo image (first unit echo image, second unit echo image)
Fa, Fb Fish school (1st fish school, 2nd fish school)
B1, B2 boundary (first boundary, second boundary)
Ta, Tb time range

Claims (8)

単位エコー画像ごとにアノテーションデータを記憶する記憶部と、
制御部と、を備え、
前記制御部は、
時間的に連続する第1単位エコー画像および第2単位エコー画像の前記アノテーションデータから、前記第1単位エコー画像と前記第2単位エコー画像との間に跨る魚群の第1アノテーションデータおよび第2アノテーションデータをそれぞれ抽出し、
抽出した前記第1アノテーションデータおよび前記第2アノテーションデータを統合して、前記魚群全体のアノテーションデータを生成する、
ことを特徴とする魚種学習装置。
a storage unit that stores annotation data for each unit echo image;
comprising a control unit;
The control unit includes:
From the annotation data of the temporally continuous first unit echo image and second unit echo image, first annotation data and second annotation data of a school of fish spanning between the first unit echo image and the second unit echo image are obtained. Extract each data,
integrating the extracted first annotation data and the second annotation data to generate annotation data for the entire school of fish;
A fish species learning device characterized by:
請求項1に記載の魚種学習装置において、
前記制御部は、
前記第1単位エコー画像上において前記第2単位エコー画像側の第1境界付近まで延びている第1魚群と、前記第2単位エコー画像上において前記第1単位エコー画像側の第2境界付近まで延びている第2魚群とを特定し、
前記第1魚群の深度範囲と前記第2魚群の深度範囲とが略合致する場合に、前記第1魚群および前記第2魚群の前記アノテーションデータを、前記第1アノテーションデータおよび前記第2アノテーションデータとしてそれぞれ抽出する、
ことを特徴とする魚種学習装置。
The fish species learning device according to claim 1,
The control unit includes:
A first school of fish extending to near the first boundary on the second unit echo image side on the first unit echo image, and extending to near the second boundary on the first unit echo image side on the second unit echo image. Identify the second school of fish that is extending,
When the depth range of the first fish school and the depth range of the second fish school substantially match, the annotation data of the first fish school and the second fish school are used as the first annotation data and the second annotation data. Extract each
A fish species learning device characterized by:
請求項2に記載の魚種学習装置において、
前記制御部は、前記第1魚群の深度範囲と前記第2魚群の深度範囲とが略合致するか否かを、前記第1境界付近における前記第1魚群の深度範囲と、前記第2境界付近における前記第2魚群の深度範囲との合致率に基づいて判定する、
ことを特徴とする魚種学習装置。
The fish species learning device according to claim 2,
The control unit determines whether the depth range of the first school of fish and the depth range of the second school of fish substantially match. Determining based on the matching rate with the depth range of the second school of fish,
A fish species learning device characterized by:
請求項2に記載の魚種学習装置において、
前記制御部は、前記第1境界から所定の時間範囲に少なくとも一部が含まれる魚群を前記第1魚群として抽出し、前記第2境界から所定の時間範囲に少なくとも一部が含まれる魚群を前記第2魚群として抽出する、
ことを特徴とする魚種学習装置。
The fish species learning device according to claim 2,
The control unit extracts a school of fish that is at least partially included in a predetermined time range from the first boundary as the first school of fish, and extracts a school of fish that is at least partially included in a predetermined time range from the second boundary as the first school of fish. Extract as the second school of fish,
A fish species learning device characterized by:
請求項1に記載の魚種学習装置において、
前記制御部は、前記第1アノテーションデータに含まれる魚種と前記第2アノテーションデータに含まれる魚種とが相違する場合、所定の設定条件に基づき、前記魚群のアノテーションデータの魚種を設定する、
ことを特徴とする魚種学習装置。
The fish species learning device according to claim 1,
When the fish species included in the first annotation data and the fish species included in the second annotation data are different, the control unit sets the fish species of the annotation data of the fish school based on predetermined setting conditions. ,
A fish species learning device characterized by:
請求項5に記載の魚種学習装置において、
前記設定条件は、
前記第1アノテーションデータおよび前記第2アノテーションデータのうち新しい方のアノテーションデータの魚種に設定することを含む、
ことを特徴とする魚種学習装置。
The fish species learning device according to claim 5,
The setting conditions are:
setting the newer one of the first annotation data and the second annotation data to the fish species;
A fish species learning device characterized by:
時間的に連続する第1単位エコー画像および第2単位エコー画像の前記アノテーションデータから、前記第1単位エコー画像と前記第2単位エコー画像との間に跨る魚群の第1アノテーションデータおよび第2アノテーションデータをそれぞれ抽出し、
抽出した前記第1アノテーションデータおよび前記第2アノテーションデータを統合して、前記魚群全体のアノテーションデータを生成する、
ことを特徴とする魚種学習方法。
From the annotation data of the temporally continuous first unit echo image and second unit echo image, first annotation data and second annotation data of a school of fish spanning between the first unit echo image and the second unit echo image are obtained. Extract each data,
integrating the extracted first annotation data and the second annotation data to generate annotation data for the entire school of fish;
A method of learning about fish species.
コンピュータに、
時間的に連続する第1単位エコー画像および第2単位エコー画像の前記アノテーションデータから、前記第1単位エコー画像と前記第2単位エコー画像との間に跨る魚群の第1アノテーションデータおよび第2アノテーションデータをそれぞれ抽出する機能と、
抽出した前記第1アノテーションデータおよび前記第2アノテーションデータを統合して、前記魚群全体のアノテーションデータを生成する機能と、を実行させるプログラム。
to the computer,
From the annotation data of the temporally continuous first unit echo image and second unit echo image, first annotation data and second annotation data of a school of fish spanning between the first unit echo image and the second unit echo image are obtained. A function to extract each data,
A program that executes a function of integrating the extracted first annotation data and the second annotation data to generate annotation data for the entire school of fish.
JP2022129707A 2022-08-16 2022-08-16 Fish species learning device, fish species learning method, and program Pending JP2024027023A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2022129707A JP2024027023A (en) 2022-08-16 2022-08-16 Fish species learning device, fish species learning method, and program
PCT/JP2023/019775 WO2024038653A1 (en) 2022-08-16 2023-05-26 Device, method, and program for learning fish species

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2022129707A JP2024027023A (en) 2022-08-16 2022-08-16 Fish species learning device, fish species learning method, and program

Publications (1)

Publication Number Publication Date
JP2024027023A true JP2024027023A (en) 2024-02-29

Family

ID=89941763

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022129707A Pending JP2024027023A (en) 2022-08-16 2022-08-16 Fish species learning device, fish species learning method, and program

Country Status (2)

Country Link
JP (1) JP2024027023A (en)
WO (1) WO2024038653A1 (en)

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014190787A (en) * 2013-03-27 2014-10-06 Royal Kogyo Kk Fish detection system
EP3761057A1 (en) * 2019-07-03 2021-01-06 Furuno Electric Co., Ltd. Systems and methods for generating training dataset for discrimination of fish species

Also Published As

Publication number Publication date
WO2024038653A1 (en) 2024-02-22

Similar Documents

Publication Publication Date Title
CN101203747B (en) Method and system for intelligent qualitative and quantitative analysis of digital radiography softcopy reading
JP6702535B2 (en) Same fish judging device, fish counting device, portable terminal for fish counting, same fish judging method, fish counting method, fish number predicting device, fish number predicting method, same fish judging system, fish counting system and fish number predicting system
US20180011457A1 (en) Control device, control method, computer program product, and robot control system
JP6635648B2 (en) Medical image processing apparatus, medical image processing method, and classifier training method
JP2011146796A5 (en)
CA2676903A1 (en) Method and apparatus for determining a threat status for a liquid product
JP6492278B2 (en) Fish finder
RU2018132850A (en) Methods and systems for computer determining the presence of objects
JP7236694B2 (en) Information processing method and information processing system
US10496694B2 (en) Rating and advising for selection of augmented reality markers
JP2024027023A (en) Fish species learning device, fish species learning method, and program
WO2024018989A1 (en) Fish species discrimination system, server, fish species discrimination method and program
JP2007323268A (en) Video providing device
JP6216108B2 (en) Fish species discrimination device, signal processing device, underwater detector, fish species discrimination method, and program
CN107037420B (en) Underwater detection device
KR102340184B1 (en) Apparatus and method for tracking a manual target using AI learning technique in the console terminal
US9729754B2 (en) Image processing apparatus for expansion processing
JP7039621B2 (en) Radar device
JP2024005623A (en) Server, fish species discrimination system, fish species discrimination method, and program
JP7159025B2 (en) Diagnostic device and diagnostic method
JP2022182149A (en) Information processing apparatus and image processing method
JP2024043266A (en) Fish species learning apparatus, fish species learning system, fish species learning method, and program
JP5998952B2 (en) Sign image placement support apparatus and program
JP5851956B2 (en) Mandibular canal extraction device, mandibular canal extraction method, and program
CN113129344B (en) Resolution adaptive method, ultrasonic apparatus, and storage medium