DE102018215096A1 - Autonomous underwater vehicle to support fishing - Google Patents

Autonomous underwater vehicle to support fishing Download PDF

Info

Publication number
DE102018215096A1
DE102018215096A1 DE102018215096.6A DE102018215096A DE102018215096A1 DE 102018215096 A1 DE102018215096 A1 DE 102018215096A1 DE 102018215096 A DE102018215096 A DE 102018215096A DE 102018215096 A1 DE102018215096 A1 DE 102018215096A1
Authority
DE
Germany
Prior art keywords
fish
underwater vehicle
autonomous underwater
school
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102018215096.6A
Other languages
German (de)
Inventor
Jesper Christensen
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
ThyssenKrupp AG
Atlas Maridan ApS
Original Assignee
ThyssenKrupp AG
Atlas Maridan ApS
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ThyssenKrupp AG, Atlas Maridan ApS filed Critical ThyssenKrupp AG
Priority to DE102018215096.6A priority Critical patent/DE102018215096A1/en
Publication of DE102018215096A1 publication Critical patent/DE102018215096A1/en
Pending legal-status Critical Current

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A01AGRICULTURE; FORESTRY; ANIMAL HUSBANDRY; HUNTING; TRAPPING; FISHING
    • A01KANIMAL HUSBANDRY; AVICULTURE; APICULTURE; PISCICULTURE; FISHING; REARING OR BREEDING ANIMALS, NOT OTHERWISE PROVIDED FOR; NEW BREEDS OF ANIMALS
    • A01K79/00Methods or means of catching fish in bulk not provided for in groups A01K69/00 - A01K77/00, e.g. fish pumps; Detection of fish; Whale fishery

Landscapes

  • Life Sciences & Earth Sciences (AREA)
  • Environmental Sciences (AREA)
  • Marine Sciences & Fisheries (AREA)
  • Animal Husbandry (AREA)
  • Biodiversity & Conservation Biology (AREA)
  • Studio Devices (AREA)

Abstract

Die Erfindung sieht ein autonomes Unterwasserfahrzeug vor, das zur Aufnahme eines Klassifizierungsmoduls eingerichtet ist. Das autonome Unterwasserfahrzeug umfasst (100) ein Kamerasystem (126, 200), das zum Aufnehmen digitaler Bilder (310) eingerichtet ist. Das Klassifizierungsmodul ist zum Erfassen von Fischen in den digitalen Bildern (310) und zum Zuordnen einer Fischart zu den erfassten Fischen (208) in den digitalen Bildern trainiert. Ein Prozessor (302) ist zum Steuern des autonomen Unterwasserfahrzeugs eingerichtet, um: das autonome Unterwasserfahrzeug zu steuern (352), durch einen Fischschwarm (208) zu manövrieren; das Kamerasystem zum Aufnehmen der digitalen Bilder zu steuern (354), während das autonome Unterwasserfahrzeug durch den Fischschwarm manövriert; statistische Daten (318) des Fischschwarms unter Verwendung der digitalen Bilder und unter Verwendung eines Klassifizierungsmoduls zu berechnen (356); und die statistischen Fischschwarmdaten im Speicher zu speichern (358).The invention provides an autonomous underwater vehicle that is set up to accommodate a classification module. The autonomous underwater vehicle comprises (100) a camera system (126, 200) which is set up to take digital images (310). The classification module is trained to capture fish in the digital images (310) and to assign a fish species to the captured fish (208) in the digital images. A processor (302) is arranged to control the autonomous underwater vehicle to: control (352) the autonomous underwater vehicle by maneuvering through a school of fish (208); control (354) the camera system for capturing the digital images while the autonomous underwater vehicle is maneuvering through the school of fish; calculate (356) statistical data (318) of the school of fish using the digital images and using a classification module; and store the statistical school of fish data in memory (358).

Description

Gebiet der ErfindungField of the Invention

Die Erfindung bezieht sich auf autonome Unterwasserfahrzeuge, insbesondere die Verwendung von autonomen Unterwasserfahrzeugen zur Unterstützung der Fischerei.The invention relates to autonomous underwater vehicles, in particular the use of autonomous underwater vehicles to support fishing.

Hintergrund und Stand der TechnikBackground and state of the art

Beim Fischen im Meer sind Fischereifahrzeuge in der Regel mit aktiven Sonarsystemen zur Ortung von Fischschwärmen ausgestattet. Während sich das Fischereifahrzeug bewegt, kann es wiederholt Pings mit dem aktiven Sonarsystem erzeugen und ein Echogramm erstellen. Echogramme sind wirksam bei der Lokalisierung von Fischschwärmen. Die Fischer wissen jedoch nicht unbedingt, aus welcher Fischsorte oder welchen Fischsorten der Schwarm besteht.When fishing in the sea, fishing vessels are usually equipped with active sonar systems for locating schools of fish. While the fishing vessel is moving, it can repeatedly ping the active sonar system and generate an echogram. Echograms are effective in locating schools of fish. However, the fishermen do not necessarily know which type of fish or which types of fish the shoal consists of.

Eine Schwierigkeit für die Fischer besteht darin, dass sie erst nach dem Fang der Fische erkennen, aus welchen Fischsorten der Schwarm besteht. Dies kann dazu führen, dass unerwünschte Fische gefangen werden, die nicht wirtschaftlich genutzt werden können und verworfen werden müssen. Diese unerwünschten Fische werden als Beifang bezeichnet. Das Verwerfen des Beifangs kann sich nachteilig auf die Gesundheit einiger Fischbestände auswirken. In einigen Regionen gibt es Beschränkungen für die Gesamtzahl der Fische, die ein Fischereifahrzeug fangen darf. Das Fischereifahrzeug kann daher durch eine Verringerung des Beifangs wirtschaftlicher werden.One problem for the fishermen is that they only recognize which fish the shoal consists of after they have caught the fish. This can lead to unwanted fish being caught that cannot be used economically and must be discarded. These unwanted fish are called bycatch. Discarding bycatch can adversely affect the health of some fish stocks. In some regions there are restrictions on the total number of fish that a fishing vessel can catch. The fishing vessel can therefore become more economical by reducing by-catches.

Der Zeitschriftenartikel Handoko et. al., „Designing embedded fish sensor for underwater robot“, Indian Journal of Marine Science, Vol. 38(3), September 2009, S. 308-315 (nachfolgend „Handoko et. al.“) offenbart einen Unterwasserroboter, der ein künstliches neuronales Netzwerk verwendet, das auf einem integrierten Mikrocontroller implementiert ist, der Sonar zur Identifizierung von Fischen verwendet.The magazine article Handoko et. al., "Designing embedded fish sensor for underwater robot", Indian Journal of Marine Science, vol. 38 (3), September 2009, pp. 308-315 (hereinafter "Handoko et. al.") discloses an underwater robot that uses an artificial neural network that is implemented on an integrated microcontroller that uses sonar to identify fish.

US-Patentanmeldung US 20170105397A1 offenbart eine Vorrichtung, die die Überwachung der Unterwasserumgebung eines Schleppnetzes oder einer anderen Meeresfrüchte-Sammelvorrichtung ermöglicht. Die Vorrichtung besteht aus einer zylindrischen Schale. Die zylindrische Schale umfasst einen Sensor, der Daten bezüglich der Unterwasserumgebung der Vorrichtung erzeugt. Die zylindrische Schale umfasst auch eine Lichtquelle. Die Lichtquelle ist eine lichtemittierende Vorrichtung oder ein reflektierter Lichtstrahl. Der Sensor und die Lichtquelle sind um eine Achse drehbar, die sich bis zu den Enden der zylindrischen Schale erstreckt. Die Vorrichtung umfasst ferner eine oder mehrere elektrische Komponenten, die mit dem Sensor und der Lichtquelle und zusätzlich kommunikativ mit einer Datenverarbeitungsvorrichtung gekoppelt sind. Mindestens ein Teil der zylindrischen Schale ist transparent.U.S. patent application US 20170105397A1 discloses a device that enables monitoring of the underwater environment of a trawl or other seafood collection device. The device consists of a cylindrical shell. The cylindrical shell includes a sensor that generates data regarding the underwater environment of the device. The cylindrical shell also includes a light source. The light source is a light emitting device or a reflected light beam. The sensor and light source are rotatable about an axis that extends to the ends of the cylindrical shell. The device further comprises one or more electrical components, which are coupled to the sensor and the light source and additionally communicatively coupled to a data processing device. At least part of the cylindrical shell is transparent.

KurzdarstellungBrief description

Die Erfindung sieht in den unabhängigen Ansprüchen ein autonomes Unterwasserfahrzeug, ein Fischschwarmortungssystem, ein Verfahren zur Reduzierung des Beifangs und ein Verfahren zur Bereitstellung eines aktualisierten Trainingsmaschinenlernmoduls und eines aktualisierten Klassifizierungsmoduls vor. Ausführungsformen sind in den abhängigen Ansprüchen angegeben.The invention provides in the independent claims an autonomous underwater vehicle, a school of fish location, a method for reducing by-catch and a method for providing an updated training machine learning module and an updated classification module. Embodiments are specified in the dependent claims.

Ausführungsformen können ein System vorsehen, mit dem der Beifang während eines Fangeinsatzes reduziert werden kann. Dies kann durch Verwendung eines autonomen Unterwasserfahrzeugs mit einem Kamerasystem erreicht werden. Das Kamerasystem kann mindestens eine Kamera umfassen. Ein Prozessor innerhalb des autonomen Unterwasserfahrzeugs steuert das autonome Unterwasserfahrzeug, um in einem Fischschwarm zu schwimmen. Vom Kamerasystem aufgenommene digitale Bilder werden in ein Klassifizierungsmodul innerhalb des autonomen Unterwasserfahrzeugs eingegeben, das Fische erfassen und auch ein Identifizierungskennzeichen zuordnen kann. Da die Erkennung und Kennzeichnung innerhalb des autonomen Unterwasserfahrzeugs erfolgt, können diese Informationen schnell an ein Fischereifahrzeug übertragen werden.Embodiments may provide a system that can reduce by-catch during a catch. This can be achieved by using an autonomous underwater vehicle with a camera system. The camera system can include at least one camera. A processor within the autonomous underwater vehicle controls the autonomous underwater vehicle to swim in a school of fish. Digital images taken by the camera system are entered into a classification module within the autonomous underwater vehicle, which can detect fish and also assign an identification number. Since the detection and identification takes place within the autonomous underwater vehicle, this information can be quickly transferred to a fishing vessel.

Normalerweise lassen die Wasserverhältnisse und/oder die Tiefe der Fische im Meer möglicherweise keine fotografischen Verfahren zur korrekten Erfassung von Fischen zu. Handoko et. al. offenbarten einen eingebetteten Fischsensor, der Sonar verwendet, und erwähnten im ersten Absatz von „Materialien und Methoden“, dass visuelle Sensoren wie Kameras normalerweise nicht im Wasser verwendet werden können, da Lichteffekte die Erfassung stören. Ausführungsformen der vorliegenden Erfindung überwinden dies, indem sie das autonome Unterwasserfahrzeug durch den Fischschwarm manövrieren. Selbst bei widrigen Wasser- und Lichtverhältnissen ist das autonome Unterwasserfahrzeug in der Lage, Bilder von Fischen in unmittelbarer Nähe des autonomen Unterwasserfahrzeugs aufzunehmen. Das Manövrieren des autonomen Unterwasserfahrzeugs durch den Fischschwarm und das Aufnehmen digitaler Bilder ist vergleichbar mit der Entnahme von Proben aus der Fischpopulation eines Fischschwarms. Lichtquellen (sichtbar oder sogar infrarot) können am autonomen Unterwasserfahrzeug angebracht werden, um Messungen bei schlechten und fehlenden Lichtverhältnissen zu ermöglichen.Normally, the water conditions and / or the depth of the fish in the sea may not allow photographic methods for the correct detection of fish. Handoko et. al. disclosed an embedded fish sensor using sonar and mentioned in the first paragraph of "Materials and Methods" that visual sensors such as cameras cannot normally be used in water because light effects interfere with the detection. Embodiments of the present invention overcome this by maneuvering the autonomous underwater vehicle through the school of fish. Even in adverse water and light conditions, the autonomous underwater vehicle is able to take pictures of fish in the immediate vicinity of the autonomous underwater vehicle. Maneuvering the autonomous underwater vehicle through the school of fish and taking digital images is comparable to taking samples from the fish population of a school of fish. Light sources (visible or even infrared) can be attached to the autonomous underwater vehicle to enable measurements in poor and missing lighting conditions.

In einem Aspekt sieht die Erfindung ein autonomes Unterwasserfahrzeug vor, das zum Aufnehmen eines Klassifizierungsmoduls eingerichtet ist. Das Klassifizierungsmodul ist dazu eingerichtet, Fische in digitalen Bildern zu erkennen und den erkannten Fischen eine Fischart zuzuordnen. Das Klassifizierungsmodul könnte in Hardware, Software oder einer Kombination aus Hard- und Software implementiert werden. Das Klassifizierungsmodul kann dazu eingerichtet werden, eine Fischart einer begrenzten Anzahl von Fischarten zuzuordnen. So könnten beispielsweise die zugeordneten Fischarten aus einem Satz vorgegebener Fischarten stammen, für die das Klassifizierungsmodul eingerichtet ist. In einigen Ausführungsformen könnte eine unbekannte Fischart eine der verfügbaren Klassifizierungen sein. In diesem Fall wird der Fischart eine Kennzeichnung als unbekannte Fischart zugeordnet, wenn das Klassifizierungsmodul die Fischart eines bestimmten erfassten Fisches nicht erkennt. In one aspect, the invention provides an autonomous underwater vehicle that is set up to accommodate a classification module. The classification module is set up to recognize fish in digital images and to assign a fish species to the recognized fish. The classification module could be implemented in hardware, software or a combination of hardware and software. The classification module can be set up to assign a fish species to a limited number of fish species. For example, the assigned fish species could come from a set of predefined fish species for which the classification module is set up. In some embodiments, an unknown species of fish could be one of the classifications available. In this case, the fish species is assigned a label as an unknown fish species if the classification module does not recognize the fish species of a specific detected fish.

Das Klassifizierungsmodul ist eine Implementierung der Klassifizierungsfunktionalität, die von einem trainierten Maschinenlernmodul bereitgestellt wird, oder es ist das trainierte Maschinenlernmodul.The classification module is an implementation of the classification functionality provided by a trained machine learning module, or it is the trained machine learning module.

Das autonome Unterwasserfahrzeug umfasst ferner ein Kamerasystem, das zum Aufnehmen digitaler Bilder eingerichtet ist. Das Kamerasystem ist dazu eingerichtet, Bilder außerhalb oder im Umfeld des autonomen Unterwasserfahrzeugs aufzunehmen. Das autonome Unterwasserfahrzeug umfasst ferner einen Speicher zum Speichern von statistischen Fischschwarmdaten.The autonomous underwater vehicle also includes a camera system that is set up to take digital images. The camera system is set up to take pictures outside or around the autonomous underwater vehicle. The autonomous underwater vehicle further includes a memory for storing statistical schools of fish.

Das autonome Unterwasserfahrzeug umfasst ferner einen Prozessor zum Steuern des autonomen Unterwasserfahrzeugs. Der Prozessor ist dazu eingerichtet, das autonome Unterwasserfahrzeug zum Manövrieren durch einen Fischschwarm zu steuern. Die Steuerung des autonomen Unterwasserfahrzeugs zum Manövrieren durch den Fischschwarm kann in verschiedenen Beispielen unterschiedlich sein. In einigen Fällen kann die Position des Fischschwarms vorprogrammiert oder an das autonome Unterwasserfahrzeug übertragen werden. In anderen Fällen kann das autonome Unterwasserfahrzeug eine Suchroutine durchlaufen und zuerst nach dem Fischschwarm suchen, bevor es durch ihn hindurchfährt. Der Prozessor ist ferner dazu eingerichtet, das Kamerasystem zum Aufnehmen der digitalen Bilder zu steuern, während das autonome Unterwasserfahrzeug durch den Fischschwarm manövriert.The autonomous underwater vehicle further includes a processor for controlling the autonomous underwater vehicle. The processor is set up to control the autonomous underwater vehicle for maneuvering through a school of fish. The control of the autonomous underwater vehicle for maneuvering by the school of fish can be different in different examples. In some cases, the location of the school of fish can be preprogrammed or transferred to the autonomous underwater vehicle. In other cases, the autonomous underwater vehicle can go through a search routine and first look for the school of fish before passing through it. The processor is also configured to control the camera system for capturing the digital images while the autonomous underwater vehicle is maneuvering through the school of fish.

Der Prozessor ist ferner dazu eingerichtet, statistische Fischschwarmdaten unter Verwendung der digitalen Bilder und des Klassifizierungsmoduls zu berechnen. Wenn das Klassifizierungsmodul als Software implementiert ist, könnte dies den Zugriff auf den Speicher durch den Prozessor umfassen, um die statistischen Fischschwarmdaten mithilfe des trainierten Maschinenlernmoduls bereitzustellen, indem Fische in den digitalen Bildern erfasst und den erfassten Fischen die Fischart zugewiesen wird.The processor is also configured to calculate shoal statistical data using the digital images and the classification module. If the classification module is implemented as software, this could include access to the memory by the processor to provide the shoal statistical data using the trained machine learning module by capturing fish in the digital images and assigning the species to the captured fish.

Das trainierte Maschinenlernmodul könnte dazu eingerichtet sein, die Erfassung der Fische und die Zuordnung der Art zu den erfassten Fischen zum Berechnen der statistischen Fischschwarmdaten zu verwenden, oder das trainierte Maschinenlernmodul könnte seine Ausgabe an den Prozessor liefern, der ferner zum Berechnen der statistischen Fischschwarmdaten eingerichtet ist.The trained machine learning module could be configured to use the detection of the fish and the assignment of the species to the detected fish to calculate the statistical shoal of fish data, or the trained machine learning module could provide its output to the processor, which is also configured to calculate the statistical fish shoal data .

In anderen Beispielen ist der Prozessor dazu eingerichtet, statistische Fischschwarmdaten unter Verwendung der digitalen Bilder zu berechnen, und das trainierte Maschinenlernmodul könnte in einigen Fällen alternativ wie folgt formuliert sein: Der Prozessor ist ferner dazu eingerichtet, statistische Fischschwarmdaten zu berechnen, indem er Fische in den digitalen Bildern erfasst und die Fischart der Fische in den digitalen Bildern mithilfe des trainierten Maschinenlernmoduls bestimmt.In other examples, the processor is configured to calculate shoal statistical data using the digital images, and in some cases the trained machine learning module could alternatively be formulated as follows: The processor is also configured to calculate shoal statistical data by including fish in the digital images and the fish species of the fish in the digital images determined with the trained machine learning module.

Der Prozessor ist ferner dazu eingerichtet, die statistischen Fischschwarmdaten im Speicher zu speichern. Diese Ausführungsform kann vorteilhaft sein, da sie ein wirksames Mittel zur Bestimmung der Zusammensetzung eines Fischschwarms liefern kann. Dies kann beispielsweise zum Fischen bestimmter, wirtschaftlich wertvoller Arten nützlich sein und auch dazu, den Fang von Fischen zu vermeiden, die nicht kommerziell genutzt werden dürfen. Dies kann bewirken, die Belastung einer Fischerei zu verringern.The processor is also set up to store the statistical shoal of fish data in the memory. This embodiment can be advantageous because it can provide an effective means of determining the composition of a school of fish. This can be useful, for example, for fishing certain economically valuable species and also for avoiding fishing for fish that cannot be used commercially. This can reduce the burden on fisheries.

Das Bewegen des autonomen Unterwasserfahrzeugs durch den Fischschwarm kann bewirken, eine Stichprobe der statistischen Fischschwarmdaten zu liefern, während sich das autonome Unterwasserfahrzeug bewegt und die digitalen Bilddaten aufnimmt. Die digitalen Bilder können als eine Stichprobe einer Verteilung betrachtet werden, die periodisch aufgenommen wird. Die Genauigkeit dieser Daten kann beispielsweise dadurch erhöht werden, dass das autonome Unterwasserfahrzeug wiederholt durch den Fischschwarm manövriert wird.Moving the autonomous underwater vehicle through the school of fish can provide a sample of the statistical school of fish data while the autonomous underwater vehicle is moving and capturing the digital image data. The digital images can be viewed as a sample of a distribution that is recorded periodically. The accuracy of this data can be increased, for example, by repeatedly maneuvering the autonomous underwater vehicle through the school of fish.

In einer anderen Ausführungsform umfasst das autonome Unterwasserfahrzeug das Klassifizierungsmodul. So können beispielsweise softwareimplementierte Komponenten des Klassifizierungsmoduls im Speicher des autonomen Unterwasserfahrzeugs gespeichert werden. Alle Hardwarekomponenten des Klassifizierungsmoduls, wie beispielsweise spezielle integrierte Schaltungen, können in das autonome Unterwasserfahrzeug eingebaut werden.In another embodiment, the autonomous underwater vehicle comprises the classification module. For example, software-implemented components of the classification module can be stored in the memory of the autonomous underwater vehicle. All hardware components of the classification module, such as special integrated circuits, can be installed in the autonomous underwater vehicle.

Ist das Klassifizierungsmodul noch nicht eingebaut, so ist das autonome Unterwasserfahrzeug für das Aufnehmen von digitalen Bildern eingerichtet, die für das Trainieren eines trainierten Maschinenlernmoduls verwendet werden können. In einem Beispiel würde dies umfassen, dass der Prozessor die Schritte zum Steuern des autonomen Unterwasserfahrzeugs zum Manövrieren durch einen Fischschwarm und zum Steuern des Kamerasystems zum Aufnehmen der digitalen Bilder durchführt, während das autonome Unterwasserfahrzeug durch den Fischschwarm manövriert, wenn das Klassifizierungsmodul nicht eingebaut ist. Dies kann vorteilhaft sein, da das autonome Unterwasserfahrzeug vor der Bereitstellung des Klassifizierungsmoduls geliefert und zum Aufnehmen digitaler Trainingsbilder in der realen Umgebung, in der das autonome Unterwasserfahrzeug verwendet wird, verwendet werden kann. If the classification module has not yet been installed, the autonomous underwater vehicle is set up for taking digital images, which can be used for training a trained machine learning module. In one example, this would include the processor performing the steps of controlling the autonomous underwater vehicle to maneuver through a school of fish and controlling the camera system to capture the digital images while the autonomous underwater vehicle is maneuvering through the school of fish when the classification module is not installed. This can be advantageous since the autonomous underwater vehicle can be delivered before the classification module is provided and can be used to record digital training images in the real environment in which the autonomous underwater vehicle is used.

In einer anderen Ausführungsform ist das autonome Unterwasserfahrzeug ein leichtes autonomes Unterwasserfahrzeug oder LAUV. Ein LAUV ist hierin als ein tragbares, autonomes Ein-Mann-Unterwasserfahrzeug definiert. Dies ist ein autonomes Unterwasserfahrzeug, das von einem einzelnen erwachsenen Menschen zwecks Ausbringung und Bergung gehoben werden kann.In another embodiment, the autonomous underwater vehicle is a light autonomous underwater vehicle or LAUV. A LAUV is defined herein as a portable, autonomous, one-man underwater vehicle. This is an autonomous underwater vehicle that can be lifted by a single adult for deployment and recovery.

In einer anderen Ausführungsform wird die Berechnung der statistischen Fischschwarmdaten mindestens teilweise während der Aufnahme der digitalen Bilder durchgeführt. Dies kann den Vorteil haben, dass die Zeitdauer zur Berechnung der statistischen Fischschwarmdaten reduziert wird. In einigen Ausführungsformen wird die Berechnung der statistischen Fischschwarmdaten durchgeführt, nachdem Gruppen von digitalen Bildern aufgenommen wurden. Mit zunehmender Anzahl von Gruppen digitaler Bilder werden die statistischen Fischschwarmdaten laufend mit größeren Stichproben von abgebildeten Fischen verbessert.In another embodiment, the calculation of the statistical schooling fish data is carried out at least partially during the acquisition of the digital images. This can have the advantage that the time for calculating the statistical fish school data is reduced. In some embodiments, the calculation of the schooling statistical fish data is performed after groups of digital images are captured. With an increasing number of groups of digital images, the statistical shoal data are continuously improved with larger samples of fish depicted.

In einer anderen Ausführungsform ist die Fischart eine eines Satzes vorbestimmter Fischarten. Der Prozessor ist dazu eingerichtet, eine Auswahl einer oder mehrerer ausgewählter Arten zu empfangen. Der Satz vorbestimmter Fischarten umfasst die eine oder die mehreren ausgewählte Arten. Die Berechnung der statistischen Fischschwarmdaten wird für die eine oder die mehreren ausgewählten Arten durchgeführt. Diese Ausführungsform kann vorteilhaft sein, da das autonome Unterwasserfahrzeug so programmiert werden kann, dass es nur die statistischen Fischschwarmdaten für die eine oder die mehreren ausgewählten Arten berechnet. Dies kann die Rechenleistung reduzieren, die zur Berechnung der statistischen Fischschwarmdaten benötigt wird. Es kann auch den Vorteil haben, dass die Datenmenge, die übermittelt werden muss, um die statistischen Fischschwarmdaten an ein Fischereifahrzeug zu übertragen, reduziert wird. Die Reduzierung der zu übermittelnden Datenmenge wäre besonders vorteilhaft, wenn ein akustisches Modem verwendet wird.In another embodiment, the fish species is one of a set of predetermined fish species. The processor is configured to receive a selection of one or more selected types. The set of predetermined fish species includes the one or more selected species. Statistical shoal data are calculated for the one or more selected species. This embodiment can be advantageous because the autonomous underwater vehicle can be programmed to only compute statistical shoal data for the one or more selected species. This can reduce the computing power required to calculate the statistical schooling fish data. It can also have the advantage of reducing the amount of data that has to be transmitted in order to transmit the statistical shoal of fish data to a fishing vessel. The reduction in the amount of data to be transmitted would be particularly advantageous if an acoustic modem is used.

Der Satz vorbestimmter Fischarten kann durch den Trainingsprozess bestimmt werden, der zur Herstellung des Klassifizierungsmoduls oder des trainierten Maschinenlernmoduls verwendet wird. Weiteres Training des trainierten Maschinenlernmoduls kann beispielsweise dazu genutzt werden, die Anzahl der identifizierten Arten zu erweitern. In einigen Fällen kann eine engere Auswahlliste von Fischsorten wie Makrele und Hering vorhanden sein. Andere Arten, die in diesem Beispiel keine Makrele oder Hering sind, können als andere Arten oder Beifangart identifiziert werden.The set of predetermined fish species can be determined by the training process used to manufacture the classification module or the trained machine learning module. Further training of the trained machine learning module can be used, for example, to expand the number of identified types. In some cases there may be a shortlist of fish such as mackerel and herring. Other species that are not mackerel or herring in this example can be identified as other species or bycatch species.

Der Prozessor ist dazu eingerichtet, eine Auswahl einer oder mehrerer ausgewählter Arten zu empfangen. Der Satz vorbestimmter Fischarten umfasst die eine oder die mehreren ausgewählten Arten. Die Auswahl kann auf unterschiedliche Weise erfolgen; in einigen Fällen wird das autonome Unterwasserfahrzeug über eine Benutzeroberfläche, ein Netzwerk oder ein anderes Datensystem bereitgestellt. In anderen Fällen kann das autonome Unterwasserfahrzeug vorprogrammiert sein und die Auswahl aus dem Speicher abgerufen werden.The processor is configured to receive a selection of one or more selected types. The set of predetermined fish species includes the one or more selected species. The selection can be made in different ways; in some cases, the autonomous underwater vehicle is provided through a user interface, network, or other data system. In other cases, the autonomous underwater vehicle can be pre-programmed and the selection can be called up from the memory.

In einer anderen Ausführungsform umfasst das autonome Unterwasserfahrzeug das Klassifizierungsm odul.In another embodiment, the autonomous underwater vehicle comprises the classification module.

In einer anderen Ausführungsform ist das Klassifizierungsmodul als Hardware, als Software, ausführbare Anweisungen und/oder eine Datenstruktur ausgeführt.In another embodiment, the classification module is implemented as hardware, as software, executable instructions and / or a data structure.

In einer anderen Ausführungsform ist das Klassifizierungsmodul ein trainiertes Maschinenlernmodul.In another embodiment, the classification module is a trained machine learning module.

In einer anderen Ausführungsform speichert der Speicher das trainierte Maschinenlernmodul.In another embodiment, the memory stores the trained machine learning module.

In einer anderen Ausführungsform umfasst das trainierte Maschinenlernmodul mindestens ein Convolutional Neural Network. In einem Beispiel kann ein Convolutional Neural Network, das dazu verwendet wird, zuerst die Position der einzelnen Fische zu erfassen und Begrenzungsrahmen liefern, und anschließend ein zweites Convolutional Neural Network vorhanden sein, das das Bild innerhalb jedes Begrenzungsrahmens betrachtet und eine Fischsorte oder eine Fischart zuordnet. In einem anderen Beispiel führt ein einzelnes Convolutional Neural Network beide Aktionen aus. In another embodiment, the trained machine learning module comprises at least one convolutional neural network. In one example, there may be a convolutional neural network used to first capture the position of each fish and provide bounding frames, and then a second convolutional neural network that looks at the image within each bounding frame and assigns a species or species of fish . In another example, a single convolutional neural network performs both actions.

In einer anderen Ausführungsform umfasst das trainierte Maschinenlernmodul ein neuronales Netzwerk.In another embodiment, the trained machine learning module comprises a neural network.

In einer anderen Ausführungsform umfasst das trainierte Maschinenlernmodul einen deformierbaren Schablonenvergleichsalgorithmus. Verschiedene Bildschablonen, die zur Darstellung einzelner Fischarten verwendet werden können, werden verwendet und können entsprechend den in den digitalen Bildern erfassten Fischen deformiert werden.In another embodiment, the trained machine learning module comprises a deformable template comparison algorithm. Various image templates that can be used to represent individual fish species are used and can be deformed according to the fish captured in the digital images.

In einer anderen Ausführungsform umfasst das trainierte Maschinenlernmodul ein lokales Orientierungshistogramm mit einem Support Vector Machine-Algorithmus, der zum Identifizieren der verschiedenen Fischarten trainiert wird.In another embodiment, the trained machine learning module comprises a local orientation histogram with a support vector machine algorithm that is trained to identify the different fish species.

In einer anderen Ausführungsform umfasst das autonome Unterwasserfahrzeug ferner mindestens eine Lichtquelle, die dazu eingerichtet ist, ein Sichtfeld mindestens einer Kamera des Kamerasystems während der Aufnahme der digitalen Bilder zu beleuchten. Diese Ausführungsform kann vorteilhaft sein, da das autonome Unterwasserfahrzeug in Tiefen vordringen kann, in denen nicht genügend Licht für die Aufnahme klarer Bilder oder klarer digitaler Bilder vorhanden ist. Die Verwendung einer Lichtquelle kann daher die Verwendung des autonomen Unterwasserfahrzeugs zum Bereitstellen der statistischen Fischschwarmdaten bei schlechter Sicht oder schlechten Wasserverhältnissen ermöglichen. Auf offener See ist es möglich, dass Lichtmangel, unruhige oder raue Wetterbedingungen über dem Meer oder Schadstoffe oder andere Stoffe im Wasser die Bildgebung über größere Entfernungen erschweren. Wenn das autonome Unterwasserfahrzeug durch einen Fischschwarm schwimmt oder manövriert, hängt die Wirkung der Probennahme zum Erfassen von Fischen nicht von der Bildaufnahme von Fischen ab, die sich weit entfernt vom autonomen Unterwasserfahrzeug befinden. Selbst unter Bedingungen, unter denen Kameras des Kamerasystems eine begrenzte Reichweite haben, können sie immer noch eine signifikante statistische Stichprobe aufnehmen, während das autonome Unterwasserfahrzeug durch den Fischschwarm manövriert.In another embodiment, the autonomous underwater vehicle further comprises at least one light source, which is set up to illuminate a field of view of at least one camera of the camera system during the recording of the digital images. This embodiment can be advantageous because the autonomous underwater vehicle can penetrate to depths in which there is insufficient light for taking clear images or clear digital images. The use of a light source can therefore enable the use of the autonomous underwater vehicle to provide the statistical school of fish data in poor visibility or poor water conditions. On the open sea it is possible that a lack of light, restless or rough weather conditions above the sea or pollutants or other substances in the water make imaging over long distances difficult. If the autonomous underwater vehicle swims or maneuvers through a shoal of fish, the effect of sampling to detect fish does not depend on the image capture of fish that are far from the autonomous underwater vehicle. Even under conditions where cameras of the camera system have a limited range, they can still take a significant statistical sample while the autonomous underwater vehicle maneuvers through the school of fish.

In einigen Ausführungsformen ist pro Kamera des Kamerasystems mindestens eine Lichtquelle vorhanden. Diese können dazu verwendet werden, einen Teil oder das gesamte Sichtfeld der Kamera zu beleuchten.In some embodiments, there is at least one light source per camera of the camera system. These can be used to illuminate part or all of the camera's field of view.

In einer anderen Ausführungsform ist die Lichtquelle eine sichtbare Lichtquelle.In another embodiment, the light source is a visible light source.

In einer anderen Ausführungsform ist die Lichtquelle eine Infrarotlichtquelle. Bei Verwendung einer Infrarotlichtquelle kann die Kamera, mit der die Infrarotlichtquelle gekoppelt ist, auch eine Kamera sein, die in der Lage ist, Infrarotlicht abzubilden. In another embodiment, the light source is an infrared light source. When using an infrared light source, the camera with which the infrared light source is coupled can also be a camera that is capable of imaging infrared light.

Die Verwendung einer Infrarotkamera kann vorteilhaft sein, da sie die Fische im Fischschwarm möglicherweise weniger stark stört. Dies kann dazu beitragen, dass sich das autonome Unterwasserfahrzeug durch den Fischschwarm bewegen kann, ohne die Fische zu erschrecken oder deren Verhalten zu ändern. Dies kann eine genauere statistische Stichprobe der Fischsorte ermöglichen.Using an infrared camera can be beneficial because it may be less of a nuisance to fish in the school of fish. This can help the autonomous underwater vehicle to move through the school of fish without frightening the fish or changing their behavior. This can allow a more accurate statistical sample of the fish species.

In einer anderen Ausführungsform umfasst das autonome Unterwasserfahrzeug einen Rumpf. Der Rumpf kann beispielsweise verschiedene Formen annehmen. In einer Ausführungsform ist der Rumpf ein zylinderförmiger Rumpf.In another embodiment, the autonomous underwater vehicle comprises a hull. The hull can take various forms, for example. In one embodiment, the fuselage is a cylindrical fuselage.

In einer anderen Ausführungsform hat der Rumpf eine Länge von weniger als 1,5 Metern.In another embodiment, the hull is less than 1.5 meters in length.

In einer anderen Ausführungsform hat der Rumpf eine Länge von weniger als 1 Meter.In another embodiment, the hull is less than 1 meter in length.

In einer anderen Ausführungsform hat der Rumpf eine Länge von weniger als 0,5 Meter.In another embodiment, the hull is less than 0.5 meters in length.

Ein kürzerer Rumpf kann vorteilhaft sein, da das autonome Unterwasserfahrzeug beim Durchfahren des Fischschwarms den Fischschwarm weniger stört und dies zu einer besseren Messung der statistischen Fischschwarmdaten führen kann.A shorter hull can be advantageous since the autonomous underwater vehicle interferes less with the school of fish when passing through the school of fish and this can lead to a better measurement of the statistical school of fish data.

In einer anderen Ausführungsform hat der Rumpf einen Umfang, der weniger als 80 cm beträgt.In another embodiment, the hull has a circumference that is less than 80 cm.

In einer anderen Ausführungsform hat der Rumpf einen Umfang, der weniger als 50 cm beträgt.In another embodiment, the hull has a circumference that is less than 50 cm.

In einer anderen Ausführungsform hat der Rumpf einen Umfang von weniger als 20 cm.In another embodiment, the hull is less than 20 cm in circumference.

In einer anderen Ausführungsform hat der Rumpf einen Umfang von weniger als 10 cm.In another embodiment, the hull has a circumference of less than 10 cm.

Ein Rumpf mit einem kleineren Umfang kann vorteilhaft sein, da die Gesamtgröße des autonomen Unterwasserfahrzeugs kleiner ist. Je kleiner das autonome Unterwasserfahrzeug, desto geringer ist die Wahrscheinlichkeit, dass das autonome Unterwasserfahrzeug den Fischschwarm bei der Durchführung von Messungen stört.A hull with a smaller circumference can be advantageous because the overall size of the autonomous underwater vehicle is smaller. The smaller the autonomous underwater vehicle, the less likely it is that the autonomous underwater vehicle will interfere with the school of fish when taking measurements.

In einer anderen Ausführungsform ist der Prozessor ferner dazu eingerichtet, das autonome Unterwasserfahrzeug so zu steuern, dass es zumindest einen Teil der Zeit beim Fahren durch den Fischschwarm gleitet. Gleiten wie hierin verwendet bedeutet hier ein Gleiten in einem antriebslosen Zustand. Zum Beispiel kann das autonome Unterwasserfahrzeug Strahlruder oder Propeller aufweisen, die zum Antrieb des autonomen Unterwasserfahrzeugs verwendet werden. Die Verwendung der Propeller oder Strahlruder kann jedoch die Fische stören, indem sie Lärm erzeugen oder diese warnen. Durch das Gleiten während mindestens eines Teils der Zeit kann die Genauigkeit der Messung der statistischen Fischschwarmdaten verbessert werden.In another embodiment, the processor is further configured to control the autonomous underwater vehicle so that it glides through the school of fish at least part of the time when driving. Sliding as used herein means sliding in an idle state. For example, the autonomous Have underwater vehicle thrusters or propellers that are used to propel the autonomous underwater vehicle. However, using the propellers or thrusters can interfere with the fish by making noise or warning them. By sliding for at least part of the time, the accuracy of the measurement of the statistical fish school data can be improved.

In einer anderen Ausführungsform ist der Prozessor ferner dazu eingerichtet, das autonome Unterwasserfahrzeug zum Verwenden eines intermittierenden Antriebs beim Manövrieren durch den Fischschwarm zu steuern. Diese Ausführungsform kann vorteilhaft sein, da sie die Verwendung des Antriebssystems des autonomen Unterwasserfahrzeugs minimieren kann. Dies kann dazu wirksam sein, die Fische im Fischschwarm weniger zu verängstigen oder zu erschrecken. Dies kann die Qualität der statistischen Fischschwarmdaten verbessern.In another embodiment, the processor is further configured to control the autonomous underwater vehicle to use an intermittent drive when maneuvering through the school of fish. This embodiment may be advantageous because it can minimize the use of the autonomous underwater vehicle propulsion system. This can be effective in less frightening or scaring the fish in the school of fish. This can improve the quality of the schooling fish statistical data.

In einer anderen Ausführungsform umfasst der Speicher eine herausnehmbare Speicherkomponente. Die digitalen Bilder werden auf der herausnehmbaren Speicherkomponente aufgezeichnet. Beispielsweise kann eine Speicherkarte oder ein anderer herausnehmbarer Speicher vorhanden sein, der aus dem autonomen Unterwasserfahrzeug herausgenommen werden kann. Dies kann ein effizientes Mittel zum Auslesen der digitalen Bilder sein. Dies kann beispielsweise für weiteres Trainieren des trainierten Maschinenlernmoduls nützlich sein.In another embodiment, the memory comprises a removable memory component. The digital images are recorded on the removable memory component. For example, there may be a memory card or other removable memory that can be removed from the autonomous underwater vehicle. This can be an efficient means of reading out the digital images. This can be useful, for example, for further training of the trained machine learning module.

In einigen weiteren Ausführungsformen können mehr als nur die digitalen Bilder vorhanden sein, die auf der herausnehmbaren Speicherkomponente gespeichert sind. Die statistischen Fischschwarmdaten sowie die Daten, die die Erfassung von Fischen wie beispielsweise Begrenzungsrahmen und die Identifizierung der Fischarten für jeden der Begrenzungsrahmen angeben, können auch auf der herausnehmbaren Speicherkomponente aufgezeichnet werden. Dies kann bei der Beurteilung der Genauigkeit des trainierten Maschinenlernmoduls hilfreich sein.In some other embodiments, there may be more than just the digital images stored on the removable storage component. The shoal statistical data as well as the data indicating the detection of fish such as bounding frames and the identification of fish species for each of the bounding frames can also be recorded on the removable memory component. This can be helpful when assessing the accuracy of the trained machine learning module.

Der Prozessor ist ferner dazu eingerichtet, Schwarmpositionsdaten zu empfangen, die die Größe und die Position des Fischschwarms beschreiben. Die Schwarmpositionsdaten umfassen beliebige der folgenden Punkte: einen Tiefenbereich des Fischschwarms, eine Größe des Fischschwarms, ein Echogramm des Fischschwarms und Kombinationen davon. Der Prozessor ist ferner dazu eingerichtet, das Manövrieren des autonomen Unterwasserfahrzeugs durch den Fischschwarm mindestens teilweise unter Verwendung der Schwarmpositionsdaten zu steuern. Diese Ausführungsform kann vorteilhaft sein, da sie einige erste Daten für das autonome Unterwasserfahrzeug liefert, um den Fischschwarm effizienter und schneller zu finden.The processor is also configured to receive shoal position data describing the size and position of the shoal of fish. The swarm position data includes any of the following: a depth range of the school of fish, a size of the school of fish, an echogram of the school of fish, and combinations thereof. The processor is further configured to at least partially control the maneuvering of the autonomous underwater vehicle by the school of fish using the swarm position data. This embodiment can be advantageous since it provides some initial data for the autonomous underwater vehicle in order to find the school of fish more efficiently and quickly.

Die Schwarmpositionsdaten können beispielsweise in eine Benutzeroberfläche eingegeben werden, in der der Tiefenbereich und die Breite oder Größe des Fischschwarms eingegeben wird. In anderen Beispielen könnte das Echogramm selbst auf das autonome Unterwasserfahrzeug übertragen werden, und dies könnte als Anhalt für die Suche nach dem Fischschwarm dienen. So könnte beispielsweise das Sonarsystem auf einem Fischereifahrzeug das autonome Unterwasserfahrzeug verbinden oder steuern.The shoal position data can be entered, for example, into a user interface in which the depth range and the width or size of the shoal of fish are entered. In other examples, the echogram itself could be transferred to the autonomous underwater vehicle, and this could serve as a guide for the search for the school of fish. For example, the sonar system on a fishing vessel could connect or control the autonomous underwater vehicle.

In einer anderen Ausführungsform umfasst das autonome Unterwasserfahrzeug ferner ein Sonarsystem, das zur Erfassung von Sonardaten eingerichtet ist. Der Prozessor ist ferner dazu eingerichtet, das Antriebssystem zu steuern, um das autonome Unterwasserfahrzeug durch den Fischschwarm mindestens teilweise mittels der Sonardaten zu manövrieren. Die Sonardaten können beispielsweise nützlich sein, um die Anzahl der Fische in einem bestimmten Gebiet sowie die Größe der dort befindlichen Fische zu bestimmen. Die Position der Fische kann verwendet werden, um eine Richtung zu wählen, in die das autonome Unterwasserfahrzeug bewegt werden soll.In another embodiment, the autonomous underwater vehicle further comprises a sonar system that is set up to acquire sonar data. The processor is also set up to control the drive system in order to at least partially maneuver the autonomous underwater vehicle through the school of fish using the sonar data. For example, sonar data can be useful in determining the number of fish in a particular area and the size of the fish located there. The position of the fish can be used to choose a direction in which the autonomous underwater vehicle is to be moved.

In einer anderen Ausführungsform werden die Sonardaten dazu verwendet, die Berechnung der statistischen Fischschwarmdaten anhand der Sonardaten zu ergänzen. Wie bereits erwähnt, kann die relative Anzahl und Größe der Fische verwendet werden, um weitere bessere Statistiken zu liefern. So kann beispielsweise die Verwendung der Sonardaten eine genaue Bestimmung der relativen Größenverteilung der Fische ohne Verwendung einer Kamera ermöglichen.In another embodiment, the sonar data are used to supplement the calculation of the statistical fish school data on the basis of the sonar data. As mentioned earlier, the relative number and size of fish can be used to provide further better statistics. For example, the use of sonar data can enable an accurate determination of the relative size distribution of the fish without the use of a camera.

In einer anderen Ausführungsform ist der Prozessor ferner dazu eingerichtet, eine Position des Fischschwarms mittels Erfassung der einzelnen Fische in den digitalen Bildern zu bestimmen. Der Prozessor ist ferner dazu eingerichtet, das Manövrieren des autonomen Unterwasserfahrzeugs zu ändern, um in Richtung des Fischschwarms zu schwimmen, indem er die anhand der digitalen Bilder ermittelte Position des Fischschwarms verwendet. So können beispielsweise die Bilddaten darauf hindeuten, dass in einer bestimmten Richtung eine größere Konzentration von Fischen auftreten kann. In weiteren Ausführungsformen können sowohl die Position der Fische auf den Bildern als auch Sonardaten verwendet werden, um das autonome Unterwasserfahrzeug präzise zu lenken und die Anzahl der Begegnungen mit Fischen zu maximieren.In another embodiment, the processor is further configured to determine a position of the school of fish by capturing the individual fish in the digital images. The processor is also configured to change the maneuvering of the autonomous underwater vehicle to swim in the direction of the school of fish by using the position of the school of fish determined on the basis of the digital images. For example, the image data can indicate that a greater concentration of fish can occur in a certain direction. In further embodiments, both the position of the fish in the images and sonar data can be used to precisely steer the autonomous underwater vehicle and to maximize the number of encounters with fish.

In einer anderen Ausführungsform umfasst das Kamerasystem eine vorwärts gerichtete Kamera, deren Sichtfeld auf eine Antriebsrichtung des autonomen Unterwasserfahrzeugs ausgerichtet ist. Das autonome Unterwasserfahrzeug kann beispielsweise in eine Richtung angetrieben werden, die eine Symmetrieachse mit einem zylindrischen Rumpf aufweist. Die Verwendung der vorwärts gerichteten Kamera kann vorteilhaft sein, da sie Bilder von Fischen aufnehmen kann, die in einer Menge vorhanden sind, die durch das autonome Unterwasserfahrzeug potenziell noch nicht gestört wurde.In another embodiment, the camera system includes a forward-facing one Camera, the field of vision of which is aligned with a drive direction of the autonomous underwater vehicle. The autonomous underwater vehicle can be driven, for example, in a direction that has an axis of symmetry with a cylindrical hull. The use of the forward camera can be advantageous because it can take pictures of fish that are present in an amount that has not been potentially disturbed by the autonomous underwater vehicle.

In einer anderen Ausführungsform umfasst das Kamerasystem mindestens eine seitlich montierte Kamera, deren Sichtfeld im Wesentlichen senkrecht zur Antriebsrichtung des autonomen Unterwasserfahrzeugs ausgerichtet ist. Dies kann vorteilhaft sein, da eine weitere zusätzliche oder mehrere Kameras hinzugefügt werden können und ein größeres räumliches Volumen im Umfeld des autonomen Unterwasserfahrzeugs aufnehmen können. Die Bildaufnahme dieses größeren Volumens kann die Qualität der statistischen Fischschwarmdaten verbessern.In another embodiment, the camera system comprises at least one laterally mounted camera, the field of vision of which is oriented essentially perpendicular to the drive direction of the autonomous underwater vehicle. This can be advantageous since a further additional or more cameras can be added and can take up a larger spatial volume in the vicinity of the autonomous underwater vehicle. Imaging this larger volume can improve the quality of the statistical schooling fish data.

In einer anderen Ausführungsform umfassen die statistischen Fischschwarmdaten eine Fischmengenstatistik, die unter Verwendung der Erkennung der einzelnen Fische in den digitalen Bildern berechnet wird. So kann beispielsweise die Anzahl der Begrenzungsrahmen, die Fische in den digitalen Bildern anzeigen, als Statistik, entweder als Mittelwert oder als Summenwert, verwendet werden, mit dem die Gesamtzahl der Fische in einem Fischschwarm geschätzt werden kann.In another embodiment, the shoal statistical data includes fish quantity statistics calculated using the recognition of the individual fish in the digital images. For example, the number of bounding frames that fish display in the digital images can be used as statistics, either as a mean or as a total, to estimate the total number of fish in a school of fish.

In einer anderen Ausführungsform umfassen die statistischen Fischschwarmdaten eine Fischgrößenstatistik, die unter Verwendung der Erfassung der einzelnen Fische in den digitalen Bildern berechnet wird. So kann beispielsweise abgeschätzt werden, inwieweit die Fische auf der Sichtbarkeit im Wasser basieren, oder eine Stereokamera kann verwendet werden, und eine genaue Abschätzung der Verteilung der Fischgrößen kann berechnet werden. In einigen Fällen können diese Daten durch Sonardaten ergänzt oder ersetzt werden, die auch zur Messung der durchschnittlichen Größe oder Verteilung der Fischgrößen verwendet werden können.In another embodiment, the shoal statistical data includes fish size statistics calculated using the capture of the individual fish in the digital images. For example, the extent to which the fish are based on visibility in the water can be estimated, or a stereo camera can be used, and an accurate estimate of the distribution of the fish sizes can be calculated. In some cases, this data can be supplemented or replaced with sonar data, which can also be used to measure the average size or distribution of fish sizes.

In einer anderen Ausführungsform umfassen die statistischen Fischschwarmdaten ferner eine Fischsortenstatistik, die die Identifizierung der einen oder die mehreren ausgewählten Arten in den digitalen Bildern beschreibt. Dies kann beispielsweise nach den erkannten Fischsorten aufgeschlüsselt werden und auch Fische identifizieren, die nicht mit denen übereinstimmen, die in dem Satz vorgegebener Fischarten enthalten sind.In another embodiment, the shoal statistical data further includes fish species statistics describing the identification of the one or more selected species in the digital images. This can be broken down, for example, according to the recognized types of fish and also identify fish that do not match those contained in the set of predefined fish species.

In einer anderen Ausführungsform umfasst das autonome Unterwasserfahrzeug ein Kommunikationsmodul, das zur Kommunikation mit einem entfernten Computergerät eingerichtet ist. Das entfernte Computergerät kann beispielsweise ein AUV-Steuerungssystem sein. Das Kommunikationsmodul kann eines des Folgenden umfassen: ein akustisches Modem, ein WLAN-System, ein LoRa-System und Kombinationen davon. Das WLAN-System und das LoRa-System arbeiten mit Funkkommunikation und können verlangen, dass das autonome Unterwasserfahrzeug vor dem Einsatz auftaucht. Das akustische Modem hingegen kann verwendet werden, um Informationen mit einer geringeren Bandbreite zu übertragen, während es komplett oder vollständig eingetaucht ist.In another embodiment, the autonomous underwater vehicle comprises a communication module that is set up to communicate with a remote computing device. The remote computing device can be, for example, an AUV control system. The communication module may include one of the following: an acoustic modem, a WLAN system, a LoRa system, and combinations thereof. The WLAN system and the LoRa system work with radio communication and can require that the autonomous underwater vehicle shows up before use. The acoustic modem, on the other hand, can be used to transmit information with a smaller bandwidth while it is completely or completely submerged.

In einer anderen Ausführungsform ist der Prozessor ferner dazu eingerichtet, die statistischen Fischschwarmdaten unter Verwendung des Kommunikationsmoduls zu übertragen. Diese Ausführungsform kann vorteilhaft sein, da die statistischen Fischschwarmdaten dann dem Bediener oder dem Fischereifahrzeug bereitgestellt werden, um eine Entscheidung darüber zu treffen, ob der Fischschwarm gefangen werden soll, bevor der Fischschwarm sich verstreut hat oder weitergezogen ist.In another embodiment, the processor is further configured to transmit the statistical schooling fish data using the communication module. This embodiment may be advantageous because the school of shoal statistical data is then provided to the operator or the fishing vessel to make a decision as to whether the school of fish should be caught before the school of fish has dispersed or moved on.

In einer anderen Ausführungsform ist der Prozessor ferner dazu eingerichtet, eine Fangentscheidung zu berechnen, indem er die statistischen Fischschwarmdaten mit einem vorbestimmten Kriterium vergleicht. Die Fangentscheidung besteht aus einer Anweisung, den Fischschwarm zu fangen oder den Fischschwarm zu meiden. Der Prozessor ist ferner dazu eingerichtet, die Fangentscheidung an die statistischen Fischschwarmdaten anzuhängen. Diese Ausführungsform kann vorteilhaft sein, da sie eine Orientierungshilfe für einen Fischer ohne den Einsatz eines teuren Computersystems bieten kann.In another embodiment, the processor is further configured to calculate a catch decision by comparing the statistical fish school data with a predetermined criterion. The fishing decision consists of an instruction to catch the school of fish or to avoid the school of fish. The processor is also set up to append the catch decision to the statistical schooling fish data. This embodiment can be advantageous because it can provide guidance to a fisherman without the use of an expensive computer system.

In einer anderen Ausführungsform ist der Prozessor ferner dazu eingerichtet, das autonome Unterwasserfahrzeug zu Halten einer vorbestimmten Position innerhalb des Fischschwarms zu steuern, wenn die Fangentscheidung den Befehl umfasst, den Fischschwarm nach der Bereitstellung der Fangentscheidung zu fangen. Diese Ausführungsform kann vorteilhaft sein, da das autonome Unterwasserfahrzeug in eine Position gebracht werden kann, in der es von den Fischernetzen erfasst oder zurückgeholt wird. Dies kann für die Betreiber eines Fischereifahrzeugs effizienter sein, da sie das autonome Unterwasserfahrzeug nicht verfolgen oder einholen müssen. Sie können einfach den Fischschwarm fangen, und es wird in den Fischernetzen eingeholt.In another embodiment, the processor is further configured to control the autonomous underwater vehicle to hold a predetermined position within the school of fish if the catch decision includes the command to catch the school of fish after providing the catch decision. This embodiment can be advantageous since the autonomous underwater vehicle can be brought into a position in which it is caught or retrieved by the fishing nets. This can be more efficient for operators of a fishing vessel as they do not have to track or catch up with the autonomous underwater vehicle. You can just catch the school of fish and it will be caught up in the fishing nets.

In einer anderen Ausführungsform ist der Prozessor ferner dazu eingerichtet, das autonome Unterwasserfahrzeug zum Halten einer vorbestimmten Position innerhalb des Fischschwarms zu steuern. Diese Ausführungsform kann vorteilhaft sein, da es für das autonome Unterwasserfahrzeug wünschenswert sein kann, eine größere Datenprobe zu erhalten oder in der vorbestimmten Position zu bleiben, um ein Erschrecken der Fische zu vermeiden.In another embodiment, the processor is further configured to control the autonomous underwater vehicle to hold a predetermined position within the school of fish. This embodiment may be advantageous since it is desirable for the autonomous underwater vehicle may be to get a larger sample of data or to stay in the predetermined position to avoid frightening the fish.

In einem weiteren Aspekt sieht die Erfindung ein Fischschwarmortungssystem vor. Ein Fischschulortungssystem wie hierin verwendet umfasst ein Gerät, das zum Lokalisieren oder Identifizieren von Fischen verwendet werden kann. Das Fischschulortungssystem umfasst ein autonomes Unterwasserfahrzeug gemäß einer Ausführungsform. Das Fischschwarmortungssystem umfasst ferner ein entferntes Computergerät. Das entfernte Computergerät kann hierin auch als AUV-Steuerungssystem bezeichnet werden. Das entfernte Computergerät umfasst ein Kommunikationssystem, das zum Herstellen einer Kommunikationsverbindung mit dem Kommunikationsmodul des autonomen Unterwasserfahrzeugs eingerichtet ist. Das entfernte Computergerät ist zum Empfangen der statistischen Fischschwarmdaten vom autonomen Unterwasserfahrzeug über die Kommunikationsverbindung eingerichtet. Diese Ausführungsform ist vorteilhaft, da sie ein Mittel vorsehen kann, um dem Betreiber eines Fischereifahrzeugs schnell die statistischen Fischschwarmdaten bereitzustellen.In a further aspect, the invention provides a school of fish location. A fish school location system as used herein includes a device that can be used to locate or identify fish. The fish school tracking system includes an autonomous underwater vehicle according to one embodiment. The school of fish location system further includes a remote computing device. The remote computing device may also be referred to herein as an AUV control system. The remote computer device comprises a communication system that is set up to establish a communication connection with the communication module of the autonomous underwater vehicle. The remote computer device is set up to receive the statistical shoal of fish data from the autonomous underwater vehicle via the communication link. This embodiment is advantageous because it can provide a means to quickly provide the shoal statistical data to the operator of a fishing vessel.

In einer anderen Ausführungsform ist das entfernte Computergerät eines des Folgenden: ein Tablet-Computer, ein Laptop-Computer, ein Computer, ein Smartphone und ein Echolocator. Die Integration des entfernten Computergeräts in einen Echolocator kann vorteilhaft sein, da die Funktionen des Sonarsystems, mit dem die Fische geortet werden, auch als Steuerungs- und Analysesystem für das autonome Unterwasserfahrzeug verwendet werden können. So könnte beispielsweise der Echolocator eines Fischtrawlers über ein WLAN-System verfügen oder mit einem akustischen Modem verbunden sein. Nachdem der Fischschwarm mit dem Sonar lokalisiert wurde, kann der Echolocator das Echogramm oder Daten über das Echogramm je nach Art der zwischen den beiden aufgebauten Kommunikation entweder vor oder nach einem Einsatzstart auf das autonome Unterwasserfahrzeug herunterladen.In another embodiment, the remote computing device is one of the following: a tablet computer, a laptop computer, a computer, a smartphone, and an echolocator. The integration of the remote computer device into an echolocator can be advantageous since the functions of the sonar system with which the fish are located can also be used as a control and analysis system for the autonomous underwater vehicle. For example, the echolocator of a fish trawler could have a WLAN system or be connected to an acoustic modem. After the school of fish has been located with the sonar, the echolocator can download the echogram or data about the echogram to the autonomous underwater vehicle either before or after a start, depending on the type of communication established between the two.

In einer anderen Ausführungsform umfasst das Computersystem eine Anzeige. Das Computersystem ist dazu eingerichtet, um aus den statistischen Fischschwarmdaten geschätzte Fischschwarmdaten zu berechnen. Die Fischschwarmdaten umfassen beliebige der folgenden Daten: eine geschätzte Anzahl der einen oder der mehreren ausgewählten Arten des Fischschwarms, eine geschätzte Masse der einen oder der mehreren ausgewählten Arten des Fischschwarms, eine geschätzte Größe der Fische innerhalb des Fischschwarms, eine geschätzte Anzahl von Beifangfischen im Fischschwarm, eine Schätzung der Masse von Beifangfischen im Fischschwarm, die Fischsorten in Prozent und Kombinationen davon. In dieser Ausführungsform ist der Prozessor ferner dazu eingerichtet, die geschätzten Fischschwarmdaten auf der Anzeige anzuzeigen. Diese Ausführungsform kann vorteilhaft sein, da sie dazu verwendet werden kann, die statistischen Fischschwarmdaten in eine Form umzuwandeln, die für eine Entscheidung darüber, ob ein Fischschwarm gefangen wird oder nicht, nützlich sein kann.In another embodiment, the computer system includes a display. The computer system is set up to calculate estimated shoal of fish data from the statistical shoal of fish data. The school of fish data includes any of the following: an estimated number of the one or more selected species of the school of fish, an estimated mass of the one or more selected species of the school of fish, an estimated size of the fish within the school of fish, an estimated number of by-catch fish in the school of fish , an estimate of the mass of by-catch fish in the school of fish, the types of fish in percent and combinations thereof. In this embodiment, the processor is further configured to display the estimated shoal of fish data on the display. This embodiment can be advantageous because it can be used to convert the school of fish statistical data into a form that can be useful in deciding whether or not a school of fish is caught.

In einer anderen Ausführungsform umfasst das Fischschwarmortungssystem ferner einen zentralen Trainingsserver. Der zentrale Trainingsserver ist dazu eingerichtet, die aufgenommenen digitalen Bilder vom autonomen Unterwasserfahrzeug über das entfernte Computergerät zu sammeln. In dieser Ausführungsform kann beispielsweise eine Netzwerkverbindung vorhanden sein, die kontinuierlich oder intermittierend zwischen dem entfernten Computergerät und dem zentralen Trainingsserver aufgebaut wird. Der zentrale Trainingsserver ist ferner dazu eingerichtet, Markierungen zu empfangen, die die Position einzelner Fische in den aufgenommenen digitalen Bildern und/oder eine Zuordnung der Fischarten zu den einzelnen Fischen in den aufgenommenen digitalen Bildern anzeigen. Diese können beispielsweise von einer anderen Quelle heruntergeladen oder von einem Bediener auf einer Benutzeroberfläche eingegeben werden. Der zentrale Trainingsserver ist ferner dazu eingerichtet, aus den Markierungen und den aufgenommenen digitalen Bildern ein aktualisiertes trainiertes Maschinenlernmodul zu generieren. Wenn es sich bei dem oder den aktualisierten trainierten Maschinenlernmodulen um ein neuronales Netzwerk wie beispielsweise ein Convolutional Neural Network handelt, kann dies beispielsweise durch tiefes Lernen erfolgen. Diese Ausführungsform kann vorteilhaft sein, da die während den tatsächlichen Fangtätigkeiten gewonnenen Daten dazu verwendet werden können, ein trainiertes Maschinenlernmodul bereitzustellen.In another embodiment, the school of fish location system further comprises a central training server. The central training server is set up to collect the recorded digital images from the autonomous underwater vehicle via the remote computer device. In this embodiment, for example, there may be a network connection that is established continuously or intermittently between the remote computing device and the central training server. The central training server is also set up to receive markings which indicate the position of individual fish in the recorded digital images and / or an assignment of the fish species to the individual fish in the recorded digital images. For example, these can be downloaded from another source or entered by an operator on a user interface. The central training server is also set up to generate an updated, trained machine learning module from the markings and the recorded digital images. If the updated trained machine learning module (s) is a neural network, such as a convolutional neural network, this can be done, for example, by deep learning. This embodiment can be advantageous since the data obtained during the actual fishing activities can be used to provide a trained machine learning module.

In einer anderen Ausführungsform ist der zentrale Trainingsserver ferner dazu eingerichtet, das aktualisierte trainierte Maschinenlernmodul über das entfernte Computergerät an das autonome Unterwasserfahrzeug zu übertragen. Das autonome Unterwasserfahrzeug ist dazu eingerichtet, das aktualisierte trainierte Maschinenlernmodul als trainiertes Maschinenlernmodul zu installieren. In einigen Ausführungsformen kann der zentrale Trainingsserver ferner dazu eingerichtet werden, das aktualisierte trainierte Maschinenlernmodul durch Trainieren eines untrainierten Maschinenlernmoduls aus dem autonomen Unterwasserfahrzeug unter Verwendung der Markierungen und der aufgenommenen digitalen Bilder zu erzeugen. Das untrainierte Maschinenlernmodul kann sich in einem Anfangszustand befinden, bevor es trainiert wird. Wenn beispielsweise das untrainierte Maschinenlernmodul ein neuronales Netzwerk ist, kann die Struktur des untrainierten Maschinenlernmoduls im Voraus definiert sein, aber die verschiedenen Gewichtungen für die neuronalen Verbindungen können noch nicht trainiert sein.In another embodiment, the central training server is also set up to transmit the updated trained machine learning module to the autonomous underwater vehicle via the remote computer device. The autonomous underwater vehicle is set up to install the updated trained machine learning module as a trained machine learning module. In some embodiments, the central training server may also be configured to generate the updated trained machine learning module by training an untrained machine learning module from the autonomous underwater vehicle using the markers and the captured digital images. The untrained machine learning module may be in an initial state before being trained. For example, if the untrained machine learning module is a neural Network is, the structure of the untrained machine learning module can be defined in advance, but the different weights for the neural connections cannot be trained yet.

In einigen Ausführungsformen kann der zentrale Trainingsserver ferner dazu eingerichtet sein, das aktualisierte trainierte Maschinenlernmodul durch Trainieren einer Kopie des trainierten Maschinenlernmoduls aus dem autonomen Unterwasserfahrzeug unter Verwendung der Markierungen und der aufgenommenen digitalen Bilder zu erzeugen. Diese Ausführungsform kann vorteilhaft sein, da bei Verwendung des Fischschwarmortungssystems die Leistung des trainierten Maschinenlernmoduls laufend verbessert wird. Dies kann nützlich sein, um die Genauigkeit der statistischen Fischschwarmdaten zu verbessern.In some embodiments, the central training server may further be configured to generate the updated trained machine learning module by training a copy of the trained machine learning module from the autonomous underwater vehicle using the markings and the captured digital images. This embodiment can be advantageous since the performance of the trained machine learning module is continuously improved when using the schooling fish location system. This can be useful to improve the accuracy of the schooling fish statistical data.

In einem weiteren Aspekt sieht die Erfindung ein Verfahren zum Reduzieren des Beifangs gemäß einer Ausführungsform vor. Das Verfahren umfasst das Orten eines Fischschwarms. Das Verfahren umfasst ferner das Ausbringen des autonomen Unterwasserfahrzeugs. Das Verfahren umfasst ferner die Steuerung des autonomen Unterwasserfahrzeugs durch den Prozessor gemäß einer Ausführungsform. Das Verfahren umfasst ferner das Empfangen der statistischen Fischschwarmdaten über das entfernte Computergerät. Das Verfahren umfasst ferner das Ausgeben eines Signals, ob der Fischschwarm gefangen werden soll. Das Signal kann beispielsweise eine Meldung auf einem Display oder ein anderes Signal wie eine optische oder akustische Anzeige sein. Diese Ausführungsform kann vorteilhaft sein, da sie ein wirksames Mittel zur Alarmierung eines Fischereifahrzeugs bereitstellen kann, ob ein bestimmter Fischschwarm gefangen werden soll oder nicht.In another aspect, the invention provides a method of reducing bycatch in accordance with one embodiment. The method involves locating a school of fish. The method also includes deploying the autonomous underwater vehicle. The method further includes control of the autonomous underwater vehicle by the processor according to one embodiment. The method further includes receiving the shoal statistical data via the remote computing device. The method further includes outputting a signal as to whether the school of fish should be caught. The signal can be, for example, a message on a display or another signal such as an optical or acoustic display. This embodiment can be advantageous because it can provide an effective means of alerting a fishing vessel whether or not to catch a particular school of fish.

In einer anderen Ausführungsform umfasst das Verfahren ferner das Steuern des autonomen Unterwasserfahrzeugs, um eine vorbestimmte Position innerhalb des Fischschwarms zu halten, wenn der Fischschwarm gefangen wird. Das Verfahren umfasst ferner das Einholen des autonomen Unterwasserfahrzeugs durch Fangen des Fischschwarms mit einem Netz, wenn das Unterwasserfahrzeug die vorbestimmte Position innerhalb des Fischschwarms halten soll. Dies kann vorteilhaft sein, da es ein Mittel zum einfachen Einholen des autonomen Unterwasserfahrzeugs bieten kann.In another embodiment, the method further comprises controlling the autonomous underwater vehicle to maintain a predetermined position within the school of fish when the school of fish is caught. The method further includes retrieving the autonomous underwater vehicle by catching the school of fish with a net when the underwater vehicle is to maintain the predetermined position within the school of fish. This can be advantageous as it can provide a means of easily retrieving the autonomous underwater vehicle.

In einem anderen Aspekt sieht die Erfindung ein Verfahren zum Bereitstellen eines aktualisierten trainierten Maschinenlernmoduls vor. Das aktualisierte trainierte Maschinenlernmodul ist für das Erfassen von Fischen in digitalen Bildern trainiert. Das trainierte Maschinenlernmodul ist für die Zuordnung einer Fischart zu den Fischen in den digitalen Bildern trainiert. Das Verfahren umfasst ferner das Sammeln aufgenommener digitaler Bilder aus einer Flotte von autonomen Unterwasserfahrzeugen, die alle einer Ausführungsform entsprechen. Die aufgenommenen digitalen Bilder werden von den autonomen Unterwasserfahrzeugen im Meer bei den Fangabläufen aufgenommen. Dies kann vorteilhaft sein, da eine bestimmte Fischart und auch die optischen Bedingungen, unter denen die Bilder aufgenommen werden, dann die gleichen sind, die bei weiteren Fangabläufen verwendet werden würden.In another aspect, the invention provides a method for providing an updated trained machine learning module. The updated trained machine learning module is trained to capture fish in digital images. The trained machine learning module is trained to assign a fish species to the fish in the digital images. The method further includes collecting captured digital images from a fleet of autonomous underwater vehicles, all of which correspond to one embodiment. The captured digital images are taken by the autonomous underwater vehicles in the sea during the catch processes. This can be advantageous since a certain type of fish and also the optical conditions under which the images are taken are then the same ones that would be used in further capture processes.

Das Verfahren umfasst ferner das Empfangen von Markierungen, die die Position einzelner Fische in den aufgenommenen digitalen Bildern und/oder eine Zuordnung der Fischarten zu den einzelnen Fischen in den aufgenommenen digitalen Bildern angeben. Das Verfahren ermöglicht dann das Erzeugen des aktualisierten trainierten Maschinenlernmoduls durch Verwenden der Markierungen und der aufgenommenen digitalen Bilder. Wenn das trainierte Maschinenlernmodul ein neuronales Netzwerk ist, kann dieses Trainieren durch tiefes Lernen durchgeführt werden. Das Verfahren umfasst ferner das Übertragen des aktualisierten trainierten Maschinenlernmoduls auf mindestens eines der Flotte der autonomen Unterwasserfahrzeuge der Flotte. Das Verfahren umfasst ferner das Installieren des aktualisierten trainierten Maschinenlernmoduls des mindestens einen aus der Flotte der autonomen Unterwasserfahrzeuge als trainiertes Maschinenlernmodul. Diese Ausführungsform kann vorteilhaft sein, da sie ein wirksames Mittel zum laufenden Aktualisieren des trainierten Maschinenlernmoduls bietet, was zu einer besseren Schätzung der statistischen Fischschwarmdaten führt.The method further includes receiving markings that indicate the position of individual fish in the recorded digital images and / or an association of the fish species with the individual fish in the recorded digital images. The method then enables the updated trained machine learning module to be generated using the markers and the captured digital images. If the trained machine learning module is a neural network, this training can be accomplished through deep learning. The method further includes transferring the updated trained machine learning module to at least one of the fleet of autonomous underwater vehicles in the fleet. The method further includes installing the updated trained machine learning module of the at least one from the fleet of autonomous underwater vehicles as a trained machine learning module. This embodiment can be advantageous because it provides an effective means of continuously updating the trained machine learning module, which leads to a better estimate of the statistical schooling fish data.

In einer anderen Ausführungsform umfasst das Verfahren ferner das Bereitstellen eines untrainierten Maschinenlernmoduls. Das aktualisierte trainierte Maschinenlernmodul wird durch Trainieren des untrainierten Maschinenlernmoduls und Verwenden der Markierungen und der aufgenommenen digitalen Bilder erzeugt. Das untrainierte Maschinenlernmodul kann sich in einem Anfangszustand befinden, bevor es trainiert wird. Wenn beispielsweise das untrainierte Maschinenlernmodul ein neuronales Netzwerk ist, kann die Struktur des untrainierten Maschinenlernmoduls im Voraus definiert sein, aber die verschiedenen Gewichtungen für die neuronalen Verbindungen können noch nicht trainiert sein.In another embodiment, the method further comprises providing an untrained machine learning module. The updated trained machine learning module is generated by training the untrained machine learning module and using the markers and the captured digital images. The untrained machine learning module may be in an initial state before being trained. For example, if the untrained machine learning module is a neural network, the structure of the untrained machine learning module can be defined in advance, but the various weights for the neural connections cannot yet be trained.

In einer anderen Ausführungsform umfasst das Verfahren ferner das Bereitstellen eines trainierten Maschinenlernmoduls. Das aktualisierte trainierte Maschinenlernmodul wird durch Trainieren einer Kopie des trainierten Maschinenlernmoduls und Verwenden der Markierungen und der aufgenommenen digitalen Bilder erzeugt.In another embodiment, the method further comprises providing a trained machine learning module. The updated trained machine learning module is created by training a copy of the trained machine learning module and using the markers and the captured digital images.

Es versteht sich, dass eine oder mehrere der vorgenannten Ausführungsformen der Erfindung kombiniert werden können, solange sich die kombinierten Ausführungsformen nicht gegenseitig ausschließen. It goes without saying that one or more of the aforementioned embodiments of the invention can be combined as long as the combined embodiments are not mutually exclusive.

Wie durch den Fachmann verstanden wird, können Aspekte der vorliegenden Erfindung als Vorrichtung, Verfahren oder Computerprogrammprodukt ausgeführt werden. Dementsprechend können Aspekte der vorliegenden Erfindung die Form einer vollständigen Hardware-Ausführungsform, einer vollständigen Software-Ausführungsform (einschließlich Firmware, residenter Software, Mikrocode usw.) oder einer Ausführungsform annehmen, die Software und Hardware kombiniert, die hierin alle als „Schaltung“, „Modul“ oder „System“ bezeichnet werden können. Außerdem können Aspekte der vorliegenden Erfindung die Form eines Computerprogrammprodukts annehmen, das in einem oder mehreren computerlesbaren Medien mit darauf enthaltenem ausführbarem Programmcode enthalten ist.As understood by those skilled in the art, aspects of the present invention can be embodied as an apparatus, method, or computer program product. Accordingly, aspects of the present invention may take the form of a full hardware embodiment, a full software embodiment (including firmware, resident software, microcode, etc.), or an embodiment that combines software and hardware, all herein as "circuitry," " Module ”or“ System ”can be called. In addition, aspects of the present invention may take the form of a computer program product contained in one or more computer-readable media with executable program code contained thereon.

Jede Kombination eines oder mehrerer computerlesbarer Medien kann verwendet werden. Das computerlesbare Medium kann ein computerlesbares Signalmedium oder ein computerlesbares Speichermedium sein. Ein „computerlesbares Speichermedium“ wie hierin verwendet umfasst jedes physische Speichermedium, das Anweisungen speichern kann, die von einem Prozessor eines Computergerätes ausführbar sind. Das computerlesbare Speichermedium kann als computerlesbares, nichtflüchtiges Speichermedium bezeichnet werden. Das computerlesbare Speichermedium kann auch als physisches, computerlesbares Medium bezeichnet werden. In einigen Ausführungsformen kann ein computerlesbares Speichermedium auch Daten speichern, auf die der Prozessor des Computergerätes zugreifen kann. Beispiele für computerlesbare Speichermedien sind unter anderem: eine Diskette, ein magnetisches Festplattenlaufwerk, eine Solid-State-Festplatte, ein Flash-Speicher, ein USB-Stick, Direktzugriffsspeicher (RAM), Nur-Lese-Speicher (ROM), eine optische Disk, eine magneto-optische Disk und die Registerdatei des Prozessors. Beispiele für optische Disks sind Compact Disks (CD) und Digital Versatile Disks (DVD), z. B. CD-ROM, CD-RW, CD-R, CD-R, DVD-ROM, DVD-RW oder DVD-R Disks. Der Begriff computerlesbares Speichermedium bezieht sich auch auf verschiedene Arten von Aufzeichnungsmedien, auf die das Computergerät über eine Netzwerk- oder Kommunikationsverbindung zugreifen kann. So können beispielsweise Daten über ein Modem, über das Internet oder über ein lokales Netzwerk abgerufen werden. Computerausführbarer Code auf einem computerlesbaren Medium kann mittels eines geeigneten Mediums übertragen werden, einschließlich, aber nicht beschränkt auf, Drahtlos, Drahtleitung, Glasfaserkabel, HF usw. oder eine geeignete Kombination davon.Any combination of one or more computer readable media can be used. The computer readable medium can be a computer readable signal medium or a computer readable storage medium. A "computer readable storage medium" as used herein includes any physical storage medium that can store instructions that are executable by a processor of a computing device. The computer-readable storage medium can be referred to as a computer-readable, non-volatile storage medium. The computer-readable storage medium can also be referred to as a physical, computer-readable medium. In some embodiments, a computer readable storage medium may also store data that is accessible by the processor of the computing device. Examples of computer-readable storage media include: a floppy disk, a magnetic hard disk drive, a solid-state hard disk, a flash memory, a USB stick, random access memory (RAM), read-only memory (ROM), an optical disk, a magneto-optical disc and the register file of the processor. Examples of optical disks are compact disks (CD) and digital versatile disks (DVD), e.g. B. CD-ROM, CD-RW, CD-R, CD-R, DVD-ROM, DVD-RW or DVD-R discs. The term computer readable storage medium also refers to various types of recording media that the computing device can access via a network or communication link. For example, data can be accessed via a modem, the Internet or a local network. Computer executable code on a computer readable medium can be transmitted using any suitable medium, including, but not limited to, wireless, wireline, fiber optic cable, RF, etc., or a suitable combination thereof.

Ein computerlesbares Signalmedium kann ein ausgebreitetes Datensignal mit darin, zum Beispiel im Basisband oder als Teil einer Trägerwelle, enthaltenem computerausführbarem Code umfassen. Solch ein ausgebreitetes Signal kann eine Vielfalt von Formen annehmen, einschließlich, aber nicht beschränkt auf, elektromagnetisch, optisch oder jede geeignete Kombination davon. Ein computerlesbares Signalmedium kann jedes computerlesbare Medium sein, das kein computerlesbares Speichermedium ist und das ein Programm zur Verwendung durch oder in Verbindung mit einem Befehlsausführungssystem, einer Vorrichtung oder einem Gerät kommunizieren, übertragen oder transportieren kann.A computer readable signal medium may comprise a spread data signal with computer executable code contained therein, for example in the baseband or as part of a carrier wave. Such a propagated signal can take a variety of forms including, but not limited to, electromagnetic, optical, or any suitable combination thereof. A computer readable signal medium can be any computer readable medium that is not a computer readable storage medium and that can communicate, transmit, or transport a program for use by or in connection with an instruction execution system, device, or device.

„Computermemory“ oder „Memory“ ist ein Beispiel für ein computerlesbares Speichermedium. Computermemory ist jeder Speicher, der für einen Prozessor direkt zugreifbar ist. „Computerspeicher“ oder „Speicher“‘ ist ein weiteres Beispiel für ein computerlesbares Speichermedium. Computerspeicher ist jedes nichtflüchtige, computerlesbare Speichermedium. In einigen Ausführungsformen kann der Computerspeicher auch ein Computermemory sein oder umgekehrt."Computer memory" or "memory" is an example of a computer-readable storage medium. Computer memory is any memory that is directly accessible to a processor. "Computer memory" or "memory" is another example of a computer-readable storage medium. Computer memory is any non-volatile, computer-readable storage medium. In some embodiments, the computer memory can also be a computer memory or vice versa.

Ein „Prozessor“ wie hierin verwendet umfasst eine elektronische Komponente, die in der Lage ist, ein Programm oder eine maschinenausführbare Anweisung oder einen computerausführbaren Code auszuführen. Verweise auf das Computergerät mit „einem Prozessor“ sind so zu interpretieren, dass sie möglicherweise mehr als einen Prozessor oder Verarbeitungskern enthalten. Der Prozessor kann beispielsweise ein Multicore-Prozessor sein. Ein Prozessor kann sich auch auf eine Sammlung von Prozessoren innerhalb eines einzelnen Computersystems oder auf mehrere Computersysteme verteilt beziehen. Der Begriff „Computergerät“ sollte auch so interpretiert werden, dass er sich möglicherweise auf eine Sammlung oder ein Netzwerk von Computergeräten bezieht, die jeweils einen Prozessor oder Prozessoren umfassen. Der computerausführbare Code kann von mehreren Prozessoren ausgeführt werden, die sich innerhalb desselben Computergerätes befinden können oder die sogar über mehrere Computergeräte verteilt sein können.A "processor" as used herein includes an electronic component capable of executing a program or a machine-executable instruction or a computer-executable code. References to the computing device with "one processor" are to be interpreted as possibly containing more than one processor or processing core. The processor can be a multicore processor, for example. A processor can also refer to a collection of processors within a single computer system or distributed across multiple computer systems. The term "computing device" should also be interpreted to refer to a collection or network of computing devices, each comprising a processor or processors. The computer-executable code can be executed by several processors, which can be located within the same computer device or which can even be distributed over several computer devices.

Computerausführbarer Code kann maschinenausführbare Anweisungen oder ein Programm umfassen, das einen Prozessor veranlasst, einen Aspekt der vorliegenden Erfindung auszuführen. Computerausführbarer Code zur Durchführung von Abläufen für Aspekte der vorliegenden Erfindung kann in jeder beliebigen Kombination einer oder mehrerer Programmiersprachen, einschließlich einer objektorientierten Programmiersprache wie Java, Smalltalk, C++ oder dergleichen, und herkömmlicher prozeduraler Programmiersprachen wie der Programmiersprache „C“ oder ähnlicher Programmiersprachen geschrieben sein, und in maschinenausführbare Anweisungen kompiliert sein. In einigen Fällen kann der computerausführbare Code in Form einer Hochsprache oder in einer vorkompilierten Form vorliegen und in Verbindung mit einem Interpreter verwendet werden, der die maschinenausführbaren Anweisungen während der Ausführung generiert.Computer executable code may include machine executable instructions or a program that causes a processor to execute an aspect of the present invention. Computer-executable code for performing operations for aspects of the present invention can be in any combination of one or more programming languages, including an object-oriented programming language such as Java, Smalltalk, C ++ or the like, and conventional procedural programming languages such as the "C" programming language or similar programming languages, and compiled into machine-executable instructions. In some cases, the computer-executable code can be in the form of a high-level language or in a precompiled form and can be used in conjunction with an interpreter that generates the machine-executable instructions during execution.

Der computerausführbare Code kann auch ausführbaren Code aus einer Skriptsprache und/oder vorkompilierten Code aus der Skriptsprache umfassen. So kann beispielsweise der computerausführbare Code mindestens teilweise in einer Skriptsprache wie Python, Ruby, Pearl, Lua oder als Shell-Skript implementiert sein.The computer-executable code can also include executable code from a script language and / or precompiled code from the script language. For example, the computer-executable code can be implemented at least partially in a scripting language such as Python, Ruby, Pearl, Lua or as a shell script.

Der computerausführbare Code kann vollständig auf dem Computer des Benutzers ausgeführt werden, teilweise auf dem Computer des Benutzers ausgeführt werden, als ein eigenständiges Softwarepaket, teilweise auf dem Computer des Benutzers und teilweise auf einem Remotecomputer oder vollständig auf dem Remotecomputer oder -Server. In dem letztgenannten Szenario kann der Remotecomputer mit dem Computer des Benutzers durch jeden Netzwerktyp verbunden werden, einschließlich eines lokalen Netzwerks (LAN) oder eines Weitverkehrsnetzwerks (WAN), oder die Verbindung kann zu einem externen Computer (zum Beispiel über das Internet durch Verwenden eines Internet-Dienstanbieters) hergestellt werden.The computer-executable code can be executed entirely on the user's computer, partly on the user's computer, as a stand-alone software package, partly on the user's computer and partly on a remote computer or entirely on the remote computer or server. In the latter scenario, the remote computer can be connected to the user's computer through any type of network, including a local area network (LAN) or a wide area network (WAN), or the connection can be made to an external computer (e.g., over the Internet using an Internet) Service provider).

Aspekte der vorliegenden Erfindung werden mit Bezug auf Ablaufschemadarstellungen und/oder Blockschaubilder von Verfahren, Vorrichtungen (Systemen) und Computerprogrammprodukten gemäß Ausführungsformen der Erfindung beschrieben. Es versteht sich, dass jeder Block oder ein Teil der Blöcke des Ablaufschemas, der Abbildungen und/oder der Blockschaubilder gegebenenfalls durch Computerprogrammanweisungen in Form von computerausführbarem Code implementiert werden kann. Es versteht sich ferner, dass Kombinationen von Blöcken in verschiedenen Ablaufschemata, Veranschaulichungen und/oder Blockschaubildern kombiniert werden können, wenn diese sich nicht gegenseitig ausschließen. Diese Computerprogrammanweisungen können für einen Prozessor eines universellen Computers, zweckbestimmten Computers oder anderer programmierbarer Datenverarbeitungsvorrichtungen bereitgestellt werden, um eine Maschine zu erzeugen, sodass die Anweisungen, die durch den Prozessor des Computers oder andere programmierbare Datenverarbeitungsvorrichtungen ausgeführt werden, Mittel zum Ausführen der in dem Ablaufschema und/oder dem Block oder den Blöcken des Blockschaubilds angegebenen Funktionen/Handlungen erzeugen.Aspects of the present invention are described with reference to flowchart illustrations and / or block diagrams of methods, devices (systems) and computer program products according to embodiments of the invention. It is understood that each block or a part of the blocks of the flowchart, the illustrations and / or the block diagrams can optionally be implemented by computer program instructions in the form of computer-executable code. It is further understood that combinations of blocks in different flowcharts, illustrations and / or block diagrams can be combined if these are not mutually exclusive. These computer program instructions may be provided to a general purpose computer processor, dedicated computer, or other programmable computing devices to create a machine so that the instructions executed by the computer processor or other programmable computing devices, means for executing those in the flowchart and / or generate the functions / actions specified for the block or blocks of the block diagram.

Diese Computerprogrammanweisungen können auch in einem computerlesbaren Medium gespeichert werden, das einen Computer, andere programmierbare Datenverarbeitungsvorrichtungen oder andere Geräte anweisen kann, in einer bestimmten Weise zu funktionieren, sodass die in dem computerlesbaren Medium gespeicherten Anweisungen ein Erzeugnis samt der Anweisungen herstellen, die die in dem Ablaufschema und/oder dem Block oder den Blöcken des Blockschaubilds angegebene Funktion/Handlung ausführen.These computer program instructions can also be stored in a computer readable medium that can instruct a computer, other programmable data processing devices or other devices to function in a certain way so that the instructions stored in the computer readable medium produce a product together with the instructions that are contained in the Execute the flow diagram and / or the function / action specified for the block or blocks of the block diagram.

Die Computerprogrammanweisungen können auch auf einen Computer, andere Datenverarbeitungsvorrichtungen oder andere Geräte geladen werden, um eine Reihe von Betriebsschritten zu veranlassen, die auf dem Computer, anderen programmierbaren Vorrichtungen oder anderen Geräten durchgeführt werden, um einen computerausgeführten Prozess zu erzeugen, sodass die Anweisungen, die auf dem Computer oder anderen programmierbaren Vorrichtungen ausgeführt werden, Prozesse zum Ausführen der in dem Ablaufschema und/oder dem Block oder den Blöcken des Blockschaubilds angegebenen Funktionen/Handlungen bereitstellen.The computer program instructions can also be loaded onto a computer, other computing devices, or other devices to cause a series of operations to be performed on the computer, other programmable devices, or other devices to create a computer-executed process so that the instructions that run on the computer or other programmable devices, provide processes for performing the functions / actions indicated in the flowchart and / or the block or blocks of the block diagram.

Eine „Benutzeroberfläche“ wie hierin verwendet ist eine Schnittstelle, die es einem Benutzer oder Bediener ermöglicht, mit einem Computer oder Computersystem zu interagieren. Eine „Benutzeroberfläche“ kann auch als „Mensch-Maschine-Schnittstelle“ bezeichnet werden Eine Benutzeroberfläche kann dem Bediener Informationen oder Daten zur Verfügung stellen und/oder Informationen oder Daten vom Bediener empfangen. Eine Benutzeroberfläche kann es ermöglichen, dass Eingaben eines Bedieners vom Computer empfangen werden, und kann dem Benutzer Ausgaben des Computers bereitstellen. Mit anderen Worten, die Benutzeroberfläche kann es einem Bediener ermöglichen, einen Computer zu steuern oder anzuweisen, und die Oberfläche kann es dem Computer ermöglichen, die Auswirkungen der Steuerung oder Anweisung durch den Bediener anzuzeigen. Die Anzeige von Daten oder Informationen auf einem Display oder einer grafischen Benutzeroberfläche ist ein Beispiel für das Bereitstellen von Informationen für einen Bediener. Das Empfangen von Daten über Tastatur, Maus, Trackball, Touchpad, Trackpoint, Grafiktablett, Joystick, Gamepad, Webcam, Headset, Pedale, Kabelhandschuh, Fernbedienung und Beschleunigungssensor sind Beispiele für Komponenten der Benutzeroberfläche, die das Empfangen von Informationen oder Daten von einem Bediener ermöglichen.A "user interface" as used herein is an interface that enables a user or operator to interact with a computer or computer system. A “user interface” can also be referred to as a “human-machine interface”. A user interface can provide the operator with information or data and / or receive information or data from the operator. A user interface can allow operator input to be received by the computer and can provide user output from the computer. In other words, the user interface may allow an operator to control or direct a computer, and the interface may allow the computer to display the effects of the control or instruction by the operator. The display of data or information on a display or graphical user interface is an example of providing information to an operator. Receiving data via keyboard, mouse, trackball, touchpad, trackpoint, graphics tablet, joystick, gamepad, webcam, headset, pedals, cable glove, remote control and acceleration sensor are examples of components of the user interface that enable information or data to be received by an operator .

Eine „Hardwareschnittstelle“ wie hierin verwendet umfasst eine Schnittstelle, die es dem Prozessor eines Computersystems ermöglicht, mit einem externen Computergerät und/oder einer externen Computervorrichtung zu interagieren und/oder diese zu steuern. Eine Hardwareschnittstelle kann es einem Prozessor ermöglichen, Steuersignale oder Anweisungen an ein externes Computergerät und/oder eine externe Computervorrichtung zu senden. Eine Hardwareschnittstelle kann es außerdem einem Prozessor ermöglichen, Daten mit einem externen Computergerät und/oder einer externen Computervorrichtung auszutauschen. Beispiele für eine Hardwareschnittstelle sind unter anderem: ein universeller serieller Bus, IEEE 1394-Port, Parallelport, IEEE 1284-Port, serieller Port, RS-232-Port, IEEE-488-Port, Bluetooth-Verbindung, drahtlose lokale Netzwerkverbindung, TCP/IP-Verbindung, Ethernet-Verbindung, Steuerspannungs-Schnittstelle, MIDI-Schnittstelle, analoge Eingangs-Schnittstelle und digitale Eingangs-Schnittstelle. A "hardware interface" as used herein includes an interface that it can Processor of a computer system enables to interact with and / or to control an external computer device and / or an external computer device. A hardware interface may allow a processor to send control signals or instructions to an external computing device and / or an external computing device. A hardware interface can also enable a processor to exchange data with an external computing device and / or an external computing device. Examples of a hardware interface include: a universal serial bus, IEEE 1394 port, parallel port, IEEE 1284 port, serial port, RS-232 port, IEEE 488 port, Bluetooth connection, wireless local area network connection, TCP / IP connection, Ethernet connection, control voltage interface, MIDI interface, analog input interface and digital input interface.

Eine „Anzeige“ oder ein „Anzeigegerät“ wie hierin verwendet umfasst ein Ausgabegerät oder eine Benutzeroberfläche, die zum Anzeigen von Bildern oder Daten geeignet ist. Eine Anzeige kann visuelle, akustische und/oder taktile Daten ausgeben. Beispiele für eine Anzeige sind unter anderem: ein Computermonitor, ein Fernsehbildschirm, ein Touchscreen, eine taktile elektronische Anzeige, ein Braille-Bildschirm, eine Kathodenstrahlröhre (CRT), eine Speicherröhre, eine bistabile Anzeige, elektronisches Papier, eine Vektoranzeige, eine Flachbildschirmanzeige, eine Vakuumfluoreszenzanzeige (VF), eine Leuchtdiodenanzeige (LED), eine Elektrolumineszenzanzeige (ELD), Plasmaanzeigetafeln (PDP), eine Flüssigkristallanzeige (LCD), eine organische Leuchtdiodenanzeige (OLED), ein Projektor und Head-Mounted Display.A "display" or "display device" as used herein includes an output device or user interface suitable for displaying images or data. A display can output visual, acoustic and / or tactile data. Examples of a display include: a computer monitor, a television screen, a touch screen, a tactile electronic display, a braille display, a cathode ray tube (CRT), a storage tube, a bistable display, electronic paper, a vector display, a flat screen display, one Vacuum fluorescent display (VF), a light-emitting diode display (LED), an electroluminescent display (ELD), plasma display panels (PDP), a liquid crystal display (LCD), an organic light-emitting diode display (OLED), a projector and head-mounted display.

Ein autonomes Unterwasserfahrzeug (AUV) wie hierin verwendet umfasst ein Unterwasserfahrzeug, das in der Lage ist, ohne ständige externe Steuerung unabhängig unter Wasser zu manövrieren. Das autonome Unterwasserfahrzeug kann über ein Antriebs- und Leitsystem verfügen.An autonomous underwater vehicle (AUV) as used herein includes an underwater vehicle that is capable of independently maneuvering underwater without constant external control. The autonomous underwater vehicle can have a drive and control system.

FigurenlisteFigure list

Im Folgenden werden Ausführungsformen der Erfindung rein beispielhaft unter Bezugnahme auf die beigefügten Zeichnungen beschrieben, in denen:

  • 1 ein Beispiel für ein autonomes Unterwasserfahrzeug veranschau licht;
  • 2 die Aufnahme digitaler Bilder durch das autonome Unterwasserfahrzeug von 1 veranschaulicht;
  • 3 ein Beispiel für ein Steuerungssystem für das autonome Unterwasserfahrzeug von 1 veranschaulicht;
  • 4 ein Ablaufschema zeigt, das ein Verfahren zum Betreiben des autonomen Unterwasserfahrzeugs von 1 veranschaulicht;
  • 5 einen Schritt zum Auffinden eines Fischschwarms mit einem Echolocator veranschaulicht
  • 6 ein Sonogramm zeigt, das vom Fischereifahrzeug erzeugt werden könnte, während es über den Fischschwarm fährt und periodisch Sonarmessungen durchführt
  • 7 den Schritt des Ausbringens 600 des autonomen Unterwasserfahrzeugs veranschaulicht
  • 8 den Schritt des Manövrierens durch einen Fischschwarm und des Aufnehmens der digitalen Bilder durch das autonome Unterwasserfahrzeug veranschaulicht
  • 9 den Schritt des Empfangens der statistischen Fischschwarmdaten durch ein entferntes Computergerät zeigt
  • 10 ein Beispiel für ein Fischschwarmortungssystem veranschaulicht
  • 11 ein weiteres Beispiel für ein Fischschwarmortungssystem veranschau licht
  • 12 ein Ablaufschema zeigt, das ein Verfahren zum Bereitstellen eines aktualisierten, trainierten Maschinenlernmoduls veranschaulicht
  • 13 ein Funktionsschema des autonomen Unterwasserfahrzeugs zeigt
  • 14 ein Beispiel für eine Implementierung des trainierten Maschinenlernmoduls veranschaulicht
  • 15 den Aufbau und Einsatz des trainierten Maschinenlernmoduls veranschaulicht, wenn es sich um ein durch tiefes Lernen trainiertes Convolutional Neural Network handelt
In the following, embodiments of the invention are described purely by way of example with reference to the accompanying drawings, in which:
  • 1 illustrates an example of an autonomous underwater vehicle;
  • 2 the taking of digital pictures by the autonomous underwater vehicle from 1 illustrated;
  • 3 an example of a control system for the autonomous underwater vehicle of 1 illustrated;
  • 4 FIG. 12 shows a flow diagram illustrating a method for operating the autonomous underwater vehicle of FIG 1 illustrated;
  • 5 illustrates a step to locate a school of fish with an echolocator
  • 6 shows a sonogram that could be generated by the fishing vessel as it passes over the school of fish and periodically takes sonar measurements
  • 7 the step of deploying 600 of the autonomous underwater vehicle
  • 8th illustrates the step of maneuvering through a school of fish and capturing the digital images through the autonomous underwater vehicle
  • 9 shows the step of receiving the shoal statistical data from a remote computing device
  • 10 illustrates an example of a school of fish location
  • 11 Another example of a school of fish location is illustrated
  • 12 FIG. 12 shows a flow diagram illustrating a method for providing an updated, trained machine learning module
  • 13 shows a functional diagram of the autonomous underwater vehicle
  • 14 illustrates an example of an implementation of the trained machine learning module
  • 15 illustrates the structure and use of the trained machine learning module if it is a convolutional neural network trained through deep learning

Detaillierte BeschreibungDetailed description

Elemente mit gleichen Nummern in diesen Figuren sind entweder gleichwertige Elemente oder erfüllen die gleiche Funktion. Elemente, die zuvor besprochen wurden, werden nicht unbedingt in späteren Figuren besprochen, wenn die Funktion gleichwertig ist.Elements with the same numbers in these figures are either equivalent elements or have the same function. Elements previously discussed are not necessarily discussed in later figures if the function is equivalent.

1 veranschaulicht ein Beispiel für ein autonomes Unterwasserfahrzeug 100. Das autonome Unterwasserfahrzeug 100 ist als einen Rumpf 102 umfassend dargestellt. Der Rumpf hat eine Länge 104 und einen Durchmesser 106. Es ist ersichtlich, dass in diesem Beispiel der Rumpf 102 ein zylinderförmiger Rumpf ist. 1 illustrates an example of an autonomous underwater vehicle 100 , The autonomous underwater vehicle 100 is as a hull 102 presented comprehensively. The hull has a length 104 and a diameter 106 , It can be seen that in this example the hull 102 is a cylindrical hull.

1 zeigt eine Seiten- oder Schnittansicht eines idealisierten autonomen Unterwasserfahrzeugs 100. Das autonome Unterwasserfahrzeug 100 umfasst ferner ein Antriebssystem 108. In diesem Beispiel ist es eine Serie von vier Elektromotoren mit Propellern. 1 shows a side or sectional view of an idealized autonomous Submersible 100 , The autonomous underwater vehicle 100 also includes a drive system 108 , In this example it is a series of four electric motors with propellers.

Das autonome Unterwasserfahrzeug 100 ist als eine Batterie 110 umfassend dargestellt. Die Batterie 110 kann zur Stromversorgung des Antriebssystems 108 verwendet werden. Das autonome Unterwasserfahrzeug 100 ist ferner als ein Steuerungssystem 112 umfassend dargestellt, das einen Prozessor und einen Speicher zum Steuern des autonomen Unterwasserfahrzeugs 100 umfassen kann. Die Batterie 110 versorgt das Steuerungssystem 112 und alle anderen elektronischen Komponenten innerhalb des autonomen Unterwasserfahrzeugs 100 mit Strom.The autonomous underwater vehicle 100 is like a battery 110 presented comprehensively. The battery 110 can be used to power the drive system 108 be used. The autonomous underwater vehicle 100 is further as a control system 112 comprehensively illustrated, the processor and a memory for controlling the autonomous underwater vehicle 100 may include. The battery 110 powers the control system 112 and all other electronic components within the autonomous underwater vehicle 100 with electricity.

Das autonome Unterwasserfahrzeug 100 ist als optional ein Leitsystem 114 enthaltend dargestellt. Das Leitsystem 114 kann beispielsweise ein Trägheitsleitsystem sein. Das autonome Unterwasserfahrzeug 100 ist als eine Antenne für ein WLAN- oder LoRa-System 116 umfassend dargestellt. Dadurch kann das autonome Unterwasserfahrzeug 100 nach dem Auftauchen eine Kommunikation aufbauen. Das autonome Unterwasserfahrzeug 100 kann optional auch ein akustisches Modem 120 umfassen. Das akustische Modem 120 ermöglicht beim Tauchen eine ein- oder zweiseitige Kommunikation mit dem autonomen Unterwasserfahrzeug 100. Das autonome Unterwasserfahrzeug 100 ist ferner als optional ein Sensorpaket 118 umfassend dargestellt. Das Sensorpaket 118 ist dazu bestimmt, eine beliebige Anzahl von Sensoren darzustellen, die in dem autonomen Unterwasserfahrzeug 100 enthalten oder optional enthalten sein können. Beispielsweise kann das Sensorpaket 118 Sensoren wie einen Temperatursensor, einen Salzgehaltssensor, einen Tiefen- oder Drucksensor und einen Planktonsensor umfassenThe autonomous underwater vehicle 100 is an optional control system 114 shown containing. The control system 114 can be an inertial control system, for example. The autonomous underwater vehicle 100 is an antenna for a WLAN or LoRa system 116 presented comprehensively. This allows the autonomous underwater vehicle 100 establish communication after surfacing. The autonomous underwater vehicle 100 can optionally also use an acoustic modem 120 include. The acoustic modem 120 enables one-way or two-way communication with the autonomous underwater vehicle when diving 100 , The autonomous underwater vehicle 100 is also an optional sensor package 118 presented comprehensively. The sensor package 118 is designed to display any number of sensors in the autonomous underwater vehicle 100 included or can optionally be included. For example, the sensor package 118 Sensors such as a temperature sensor, a salinity sensor, a depth or pressure sensor and a plankton sensor include

Das Antriebssystem 108 ist dazu eingerichtet, das autonome Unterwasserfahrzeug 100 primär in Antriebsrichtung 122 zu bewegen. In diesem Beispiel sind vier einzelne Propeller für das Antriebssystem 108 vorhanden. Durch das Steuern des Antriebs von jedem der einzelnen Propeller kann dies zum Lenken des autonomen Unterwasserfahrzeugs 100 verwendet werden. In anderen Beispielen können Lamellen vorhanden sein, die ebenfalls zum Steuern oder Lenken der Bewegung des autonomen Unterwasserfahrzeugs 100 verwendet werden.The drive system 108 is set up to be the autonomous underwater vehicle 100 primarily in the drive direction 122 to move. In this example there are four individual propellers for the drive system 108 available. By controlling the drive of each of the individual propellers, this can steer the autonomous underwater vehicle 100 be used. In other examples, slats may be provided, which are also used to control or steer the movement of the autonomous underwater vehicle 100 be used.

Das autonome Unterwasserfahrzeug 100 ist als optional ein variables Auftriebssystem 124 oder VBS umfassend dargestellt. Das variable Auftriebssystem 124 umfasst eine Kammer, die mit Meerwasser gefüllt werden kann, und das Meerwasser kann entweder mit einer ölgefüllten Membran oder mechanisch mit einem Kolben ausgetrieben werden. Dadurch kann das autonome Unterwasserfahrzeug 100 seinen Auftrieb einstellen. In einigen Ausführungsformen kann das Antriebssystem 108 dazu verwendet werden, die Tiefe zu steuern, in der das autonome Unterwasserfahrzeug arbeitet. In anderen Beispielen kann der Schub in Verbindung mit dem variablen Auftriebssystem 124 verwendet werden. In diesem Beispiel ist das variable Auftriebssystem 124 vor der Batterie 110 gelagert. Dies kann den Vorteil haben, dass der Tauchwinkel des U-Bootes nach vorne neigt, wenn das variable Auftriebssystem 124 mit Meerwasser gefüllt wird; das Antriebssystem 108 kann dann leichter dazu verwendet werden, das autonome Unterwasserfahrzeug 100 bei der Erreichung einer geringeren Tiefe zu unterstützen. Ebenso wird beim Ausstoß von Wasser aus dem variablen Auftriebssystem 124 der Tauchwinkel positiv, was es dem autonomen Unterwasserfahrzeug 100 erleichtert, die Oberfläche zu erreichen. Die Verwendung eines variablen Auftriebssystems 124 kann auch dazu beitragen, dass das autonome Unterwasserfahrzeug größere Tiefen wie zum Beispiel Hunderte von Metern erreicht. Das variable Auftriebssystem 124 kann im autonomen Unterwasserfahrzeug nützlich dafür sein, sehr schnell größere Tiefen zu erreichen. Das variable Auftriebssystem 124 kann auch das autonome Unterwasserfahrzeug 100 bei der Gewinnung kinetischer Energie unterstützen. Dies kann es dem autonomen Unterwasserfahrzeug 100 ermöglichen, eine Geschwindigkeit mit minimalem Einsatz des Antriebssystems 108 zu erreichen.The autonomous underwater vehicle 100 is an optional variable buoyancy system 124 or VBS comprehensively presented. The variable buoyancy system 124 comprises a chamber that can be filled with sea water, and the sea water can be expelled either with an oil-filled membrane or mechanically with a piston. This allows the autonomous underwater vehicle 100 stop its lift. In some embodiments, the propulsion system 108 can be used to control the depth at which the autonomous underwater vehicle operates. In other examples, the thrust can be combined with the variable buoyancy system 124 be used. In this example is the variable buoyancy system 124 in front of the battery 110 stored. This can have the advantage that the submarine's dive angle tilts forward when the variable buoyancy system 124 is filled with sea water; the drive system 108 can then be more easily used for the autonomous underwater vehicle 100 to assist in reaching a shallower depth. Likewise, when water is ejected from the variable buoyancy system 124 the diving angle is positive, which makes it the autonomous underwater vehicle 100 relieved to reach the surface. The use of a variable buoyancy system 124 can also help the autonomous underwater vehicle reach greater depths, such as hundreds of meters. The variable buoyancy system 124 can be useful in the autonomous underwater vehicle for reaching greater depths very quickly. The variable buoyancy system 124 can also be the autonomous underwater vehicle 100 support in the production of kinetic energy. The autonomous underwater vehicle can do this 100 enable a speed with minimal use of the drive system 108 to reach.

In diesem Beispiel umfasst das Kamerasystem eine vorwärts gerichtete Kamera 126, die so gelagert ist, dass sie ein Sichtfeld primär in Antriebsrichtung 122 aufweist. In diesem Beispiel ist die Kamera 126 an der Außenfläche des Rumpfes 102 gelagert. In anderen Beispielen kann die Kamera 126 in den Rumpf 102 integriert sein. Ebenso können zusätzliche Kameras vorhanden sein, die entweder an der Außenseite des Rumpfes 102 angebracht oder in diesen integriert sind.In this example, the camera system includes a forward camera 126 , which is mounted so that it has a field of vision primarily in the drive direction 122 having. In this example the camera is 126 on the outer surface of the fuselage 102 stored. In other examples, the camera can 126 in the fuselage 102 be integrated. There may also be additional cameras either on the outside of the fuselage 102 attached or integrated into this.

Es ist eine optionale Leuchte 128 vorhanden, mit der das Sichtfeld der vorwärts gerichteten Kamera 126 mindestens teilweise beleuchtet wird.It is an optional lamp 128 with the field of view of the forward-facing camera 126 is at least partially illuminated.

Das autonome Unterwasserfahrzeug 100 ist außerdem als einen optionalen Sonarwandler 130 umfassend dargestellt. Der Sonarwandler 130 ist außerdem an die optionale Sonarelektronik 132 angeschlossen. In diesem Beispiel kann der Sonarwandler 130 in einem Bugbereich des autonomen Unterwasserfahrzeugs 100 gelagert sein, sodass er zum Erfassen von Fischen im vorderen Bereich des autonomen Unterwasserfahrzeugs 100 verwendet werden kann. Dies kann beispielsweise nützlich dazu sein, eine Richtung zum Lenken des autonomen Unterwasserfahrzeugs 100 mit dem Antriebssystem 108 zu bestimmen.The autonomous underwater vehicle 100 is also available as an optional sonar converter 130 presented comprehensively. The sonar converter 130 is also connected to the optional sonar electronics 132 connected. In this example, the sonar converter 130 in a bow area of the autonomous underwater vehicle 100 be stored so that it can be used to catch fish in the front area of the autonomous underwater vehicle 100 can be used. This can be useful, for example, in a direction for steering the autonomous underwater vehicle 100 with the drive system 108 to determine.

2 zeigt eine Draufsicht des autonomen Unterwasserfahrzeugs 100. In diesem Beispiel ist die vorwärts gerichtete Kamera 126 in den Rumpf 102 integriert. Zusätzlich ist eine seitlich angebrachte Kamera 200 vorhanden, die ebenfalls im Rumpf 102 integriert ist. Sowohl die seitlich angebrachte Kamera 200 als auch die vorwärts gerichtete Kamera 126 könnten beide Kameras sein, die außen an einer Außenfläche des Rumpfes 102 befestigt sind. Sowohl die vorwärts gerichtete Kamera 126 als auch die seitlich angebrachte Kamera 200 weisen jeweils eine Leuchte 128 und 202 auf. Die gestrichelten Linien 204 zeigen das Sichtfeld der vorwärts gerichteten Kamera 126 an. Die Leuchte 128 beleuchtet das Sichtfeld 204 mindestens teilweise. Ebenso zeigen die gestrichelten Linien 206 das Sichtfeld der Kamera 200 an. Es ist eine optionale Leuchte 202 vorhanden, die das Sichtfeld 206 der seitlich angebrachten Kamera 200 als mindestens teilweise beleuchtend zeigt. 2 shows a top view of the autonomous underwater vehicle 100 , In this example the camera is forward 126 in the fuselage 102 integrated. There is also a camera on the side 200 present, which is also in the fuselage 102 is integrated. Both the side-mounted camera 200 as well as the forward-facing camera 126 both cameras could be the outside on an outer surface of the fuselage 102 are attached. Both the forward-facing camera 126 as well as the side-mounted camera 200 each have a lamp 128 and 202 on. The dashed lines 204 show the field of view of the forward-facing camera 126 on. The lamp 128 illuminates the field of vision 204 at least partially. The dashed lines also show 206 the field of view of the camera 200 on. It is an optional lamp 202 present that the field of view 206 the side-mounted camera 200 as at least partially illuminating.

In einigen Beispielen können die Leuchten 128 und 202 Leuchten sein, die ein sichtbares Licht erzeugen. In anderen Beispielen können es Infrarotleuchten sein, und die Kameras 126, 200 können Infrarotkameras sein. Das autonome Unterwasserfahrzeug 100 wird als sich durch einen Fischschwarm 208 bewegend gezeigt. Einige der Fische 208 befinden sich im Sichtfeld 204 und einige der anderen Fische 208 befinden sich im Sichtfeld 206. Während sich das autonome Unterwasserfahrzeug 100 durch den Fischschwarm 208 bewegt, werden mit den Bildern, die es aufnimmt, effektiv Stichproben der Größe und/oder Sorte der Fische genommen. Durch die Bewegung durch den Fischschwarm 208 kann das autonome Unterwasserfahrzeug 100 eine vernünftige Schätzung der Fischsorte innerhalb eines Schwarms vornehmen.In some examples, the lights 128 and 202 Be luminaires that generate visible light. In other examples, it could be infrared lights and the cameras 126 . 200 can be infrared cameras. The autonomous underwater vehicle 100 is considered to be through a school of fish 208 shown moving. Some of the fish 208 are in the field of vision 204 and some of the other fish 208 are in the field of vision 206 , While the autonomous underwater vehicle 100 through the school of fish 208 moves, samples of the size and / or type of fish are effectively taken with the images it captures. By moving through the school of fish 208 can the autonomous underwater vehicle 100 make a reasonable estimate of the type of fish within a shoal.

3 veranschaulicht ein Beispiel für ein Steuerungssystem 112 für das autonome Unterwasserfahrzeug. Das Steuerungssystem 112 umfasst eine Hardwareschnittstelle 300, die es ermöglicht, die anderen Komponenten des autonomen Unterwasserfahrzeugs 100 zu steuern. Die Hardwareschnittstelle 300 ist mit einem Prozessor 302 verbunden, der ebenfalls mit einem Speicher 304 verbunden ist. Der Speicher 304 kann jede Kombination von Speicher umfassen, die für den Prozessor 302 zugänglich ist, und kann Elemente wie eine Festplatte und/oder eine herausnehmbare Speicherkarte aufweisen. Der Speicher 304 wird als die maschinenausführbaren Anweisungen 306 enthaltend gezeigt. Die maschinenausführbaren Anweisungen 306 enthalten Anweisungen, die es dem Prozessor 302 ermöglichen, das autonome Unterwasserfahrzeug 100 zu betreiben und zu steuern. Der Speicher 304 ist ferner als ein trainiertes Maschinenlernmodul enthaltend 308 dargestellt. Alternativ kann das trainierte Maschinenlernmodul durch ein Klassifizierungsmodul ersetzt werden, das in Hardware und/oder Software implementiert ist. Das trainierte Maschinenlernmodul ist für das Erfassen einzelner Fische in digitalen Bildern trainiert. Das trainierte Maschinenlernmodul kann für die Zuordnung einer Fischart zu den einzelnen Fischen in den digitalen Bildern weitertrainiert werden. Die Fischart ist ein Satz vorbestimmter Fischarten. 3 illustrates an example of a control system 112 for the autonomous underwater vehicle. The control system 112 includes a hardware interface 300 that enables the other components of the autonomous underwater vehicle 100 to control. The hardware interface 300 is with a processor 302 connected, which is also connected to a memory 304 connected is. The memory 304 can include any combination of memory required for the processor 302 is accessible, and may have elements such as a hard drive and / or a removable memory card. The memory 304 is called the machine-executable instructions 306 containing shown. The machine-executable instructions 306 contain instructions that it the processor 302 enable the autonomous underwater vehicle 100 to operate and control. The memory 304 is further shown as a trained machine learning module containing 308. Alternatively, the trained machine learning module can be replaced by a classification module that is implemented in hardware and / or software. The trained machine learning module is trained to capture individual fish in digital images. The trained machine learning module can be trained further in the digital images to assign a fish species to the individual fish. The fish species is a set of predetermined fish species.

Der Speicher 304 ist ferner als digitale Bilder 310 enthaltend dargestellt, die entweder mit der seitlich angebrachten Kamera 200 oder der vorwärts gerichteten Kamera 126 aufgenommen wurden. Der Speicher 304 ist ferner als eine Auswahl einer oder mehrerer Arten 312 dargestellt. Der Speicher 304 ist ferner als Positionen von Begrenzungsrahmen 314 in den digitalen Bildern 310 für die ausgewählte 312 Art enthaltend dargestellt. Der Speicher 304 ist ferner als Identifikation der Fischart 316 für die Begrenzungsrahmen 314 enthaltend dargestellt. Der Speicher 304 ist ferner als statistische Fischschwarmdaten 318 enthaltend dargestellt, die unter Verwendung der Begrenzungsrahmen 314 oder der Position 316 der Begrenzungsrahmen 314 berechnet wurden. Der Speicher 304 ist ferner als mindestens ein optionales vorbestimmtes Kriterium 320 enthaltend dargestellt. Das vorbestimmte Kriterium 320 kann beispielsweise ein Kriterium sein, das mit den statistischen Fischschwarmdaten 318 verglichen werden kann, um festzustellen, ob ein empfohlenes Fangen des Fischschwarms empfohlen wird oder nicht. Der Speicher 304 ist als eine optionale Fangentscheidung 322 enthaltend dargestellt, die durch Vergleichen des vorbestimmten Kriteriums 320 mit den statistischen Fischschwarmdaten 318 getroffen wurde. Beispielsweise könnte die Fangentscheidung 322 über das akustische Modem an den Fischtrawler übermittelt werden. Die Fangentscheidung 322 könnte auch dazu verwendet werden, zu entscheiden, dass das autonome Unterwasserfahrzeug bei dem Fischschwarm bleibt, sodass es von den Netzen gefangen wird und nicht separat eingeholt werden muss.The memory 304 is also as digital pictures 310 containing shown either with the camera attached to the side 200 or the forward-facing camera 126 were recorded. The memory 304 is further as a selection of one or more types 312 shown. The memory 304 is also used as positions of bounding boxes 314 in the digital images 310 for the selected one 312 Depicted containing species. The memory 304 is also an identification of the fish species 316 for the bounding box 314 shown containing. The memory 304 is also available as statistical schools of fish 318 depicted using the bounding box 314 or the position 316 the bounding box 314 were calculated. The memory 304 is also at least one optional predetermined criterion 320 shown containing. The predetermined criterion 320 can, for example, be a criterion that matches the statistical schooling fish data 318 can be compared to determine whether a recommended schooling of the school of fish is recommended or not. The memory 304 is as an optional catch decision 322 containing, by comparing the predetermined criterion 320 with the statistical school of fish data 318 was hit. For example, the catch decision 322 be transmitted to the fish trawler via the acoustic modem. The catch decision 322 could also be used to decide that the autonomous underwater vehicle remains with the school of fish so that it is caught by the nets and does not have to be caught separately.

Der Speicher 304 ist als optionale Sonardaten 324 enthaltend dargestellt, die mit dem optionalen Sonarwandler 130 und der Sonarelektronik 132 erfasst wurden. Bei Vorhandensein von Sonardaten 324 können die Sonardaten 324 zum Ergänzen der statistischen Fischschwarmdaten 318 verwendet werden. Die Sonardaten 324 können auch zum Steuern der Fahrtrichtung des autonomen Unterwasserfahrzeugs 100 verwendet werden.The memory 304 is as optional sonar data 324 included shown with the optional sonar converter 130 and sonar electronics 132 were recorded. In the presence of sonar data 324 can the sonar data 324 to supplement the statistical school of fish data 318 be used. The sonar data 324 can also be used to control the direction of travel of the autonomous underwater vehicle 100 be used.

Der Speicher 304 ist ferner als Schwarmpositionsdaten 326 enthaltend dargestellt. Dies können Daten sein, die eine Position des Fischschwarms oder eine frühere Position beschreiben, wie beispielsweise die Tiefe, in der sich der Schwarm befindet, die Größe und möglicherweise sogar die Schwimmrichtung des Fischschwarms. Dies kann nützlich sein, um das autonome Unterwasserfahrzeug 100 beim Verfolgen und Schwimmen im Fischschwarm zu unterstützen.The memory 304 is also as swarm position data 326 shown containing. This can be data describing a position of the school of fish or a previous position, such as the depth at which the school is located, the size and possibly even the swimming direction of the school of fish. This can be useful to the autonomous underwater vehicle 100 at the Support tracking and swimming in the school of fish.

4 zeigt ein Ablaufschema, das ein Verfahren zum Betreiben des in den 1-3 gezeigten autonomen Unterwasserfahrzeugs 100 veranschaulicht. Das Verfahren beginnt mit dem optionalen Schritt 350. In Schritt 350 wird die Auswahl der einen oder der mehreren Arten 312 empfangen. Der nächste Schritt 352 wird ausgeführt. In Schritt 352 wird das autonome Unterwasserfahrzeug 100 zum Manövrieren durch einen Fischschwarm gesteuert. Als Nächstes wird in Schritt 354 das Kamerasystem 126, 200 zum Aufnehmen der digitalen Bilder 310 gesteuert. Dies geschieht während der Bewegung des autonomen Unterwasserfahrzeugs durch den Fischschwarm. Als Nächstes werden in Schritt 356 die statistischen Fischschwarmdaten 318 kumulativ berechnet, indem die einzelnen Fische in den digitalen Bildern unter Verwendung der Begrenzungsrahmen 314 erfasst und die Fischarten der Fische in den digitalen Bildern bestimmt werden; dies kann die Identifizierung der Fischarten 316 für jeden der Begrenzungsrahmen 314 sein. Wenn der optionale Schritt 350 durchgeführt wird, können die statistischen Fischschwarmdaten auf die Auswahl der einen oder der mehreren Arten beschränkt sein. Und schließlich werden in Schritt 358 die statistischen Fischschwarmdaten 318 im Speicher 304 gespeichert. 4 shows a flow chart that shows a method for operating the in the 1-3 shown autonomous underwater vehicle 100 illustrated. The process begins with the optional step 350 , In step 350 will be the selection of one or more types 312 receive. The next step 352 is running. In step 352 becomes the autonomous underwater vehicle 100 controlled by a school of fish for maneuvering. Next in step 354 the camera system 126 . 200 to take the digital pictures 310 controlled. This happens during the movement of the autonomous underwater vehicle through the school of fish. Next in step 356 the statistical school of fish data 318 calculated cumulatively by using the individual fish in the digital images using the bounding box 314 recorded and the fish species of the fish can be determined in the digital images; this can identify the species of fish 316 for each of the bounding boxes 314 his. If the optional step 350 statistical shoal of fish data may be limited to the selection of the one or more species. And finally in step 358 the statistical school of fish data 318 In the storage room 304 saved.

5 veranschaulicht einen Schritt zum Orten eines Fischschwarms mit einem Echolocator. In diesem Schritt 400 bewegt sich ein Fischereifahrzeug 402 auf der Oberfläche des Meeres 404. In dieser Figur ist die relative Größe des Schiffes und anderer Objekte nicht maßstabsgetreu. Der Meeresboden ist mit 406 gekennzeichnet. Innerhalb des Meeres 404 befindet sich ein Fischschwarm 208. Das Fischereifahrzeug 402 verfügt über ein Sonarsystem oder einen Echolocator zum Orten der Fische 208. Die gestrichelten Linien 408 zeigen den Weg der erzeugten Sonarwellen an. Wenn die Sonarwellen die Fische 208 treffen, werden sie zum Fischereifahrzeug 408 zurückgeworfen. Das Fischereifahrzeug 402 bewegt sich in die Richtung 412 und führt periodische Messungen mit dem Sonarsystem durch. Diese Messungen können dazu verwendet werden, ein Sonogramm des Fischschwarms zu erstellen. 5 illustrates a step to locate a school of fish with an echolocator. In this step 400 a fishing vessel moves 402 on the surface of the sea 404 , In this figure, the relative size of the ship and other objects is not to scale. The seabed is marked with 406. Inside the sea 404 there is a school of fish 208 , The fishing vessel 402 has a sonar system or an echolocator for locating the fish 208 , The dashed lines 408 indicate the path of the sonar waves generated. When the sonar waves the fish 208 hit, they become a fishing vessel 408 thrown back. The fishing vessel 402 moves in the direction 412 and takes periodic measurements with the sonar system. These measurements can be used to create a sonogram of the school of fish.

6 zeigt ein Sonogramm 500, das vom Fischereifahrzeug 402 aufgebaut werden könnte, während es über den Fischschwarm 208 fährt und periodisch Sonarmessungen durchführt. Das Sonogramm 500 zeigt eine Meerestiefe 502 sowie eine Mindesttiefe 504 des Fischschwarms 208 an. Die Breite 506 und Höhe 508 des Fischschwarms 208 wird ebenfalls gezeigt. Die Informationen im Sonogramm 500 wären nützliche Informationen für das autonome Unterwasserfahrzeug 100 beim Planen einer Fahrtroute durch den Fischschwarm 208. Diese Daten könnten in Form von Schwarmpositionsdaten 326 bereitgestellt werden. Die Schwarmpositionsdaten 326 können beispielsweise das tatsächliche Sonogramm 500 sein, das in das autonome Unterwasserfahrzeug 100 heruntergeladen wird, oder es können Metadaten oder eine Zusammenfassung relevanter Informationen wie die Mindesttiefe des Fischschwarms 504 sowie deren Größe 506, 508 sein. 6 shows a sonogram 500 from the fishing vessel 402 could be built while it was over the school of fish 208 drives and periodically performs sonar measurements. The sonogram 500 shows a sea depth 502 as well as a minimum depth 504 of the school of fish 208 on. The width 506 and height 508 of the school of fish 208 is also shown. The information in the sonogram 500 would be useful information for the autonomous underwater vehicle 100 when planning a route through the school of fish 208 , This data could take the form of swarm position data 326 to be provided. The swarm position data 326 for example, the actual sonogram 500 be that in the autonomous underwater vehicle 100 downloaded, or it may contain metadata or a summary of relevant information such as the minimum depth of the school of fish 504 as well as their size 506 . 508 his.

7 veranschaulicht den Schritt des Ausbringens 600 des autonomen Unterwasserfahrzeugs 100. Nachdem das Fischereifahrzeug 402 den Fischschwarm 208 passiert hat, wird das autonome Unterwasserfahrzeug 100 durch Platzieren oder Absetzen in das Meer 404 ausgebracht. Das autonome Unterwasserfahrzeug 100 taucht dann zu dem Fischschwarm 208 und folgt dem Weg 602. Der Weg 602 könnte beispielsweise mit dem Sonogramm 500 berechnet werden. Beim Folgen des Weges 602 könnte das optionale variable Auftriebssystem 124 für ein schnelles Tauchen mit Wasser gefüllt werden. Wenn sich das autonome Unterwasserfahrzeug 100 dem Fischschwarm 208 nähert, kann Wasser ausgestoßen werden, und das autonome Unterwasserfahrzeug 100 bleibt in dieser Höhe. Mithilfe von Lamellen könnte die Bewegung in Abwärtsrichtung in eine horizontale Bewegung des autonomen Unterwasserfahrzeugs 100 übertragen werden. Dies kann den Bedarf für die Verwendung von Batteriestrom reduzieren. 7 illustrates the spreading step 600 of the autonomous underwater vehicle 100 , After the fishing vessel 402 the school of fish 208 has happened, the autonomous underwater vehicle 100 by placing or depositing it in the sea 404 applied. The autonomous underwater vehicle 100 then dives to the school of fish 208 and follow the path 602 , The way 602 could, for example, with the sonogram 500 be calculated. When following the path 602 could the optional variable buoyancy system 124 be filled with water for quick diving. If the autonomous underwater vehicle 100 the school of fish 208 approaching, water can be expelled, and the autonomous underwater vehicle 100 stays at this height. With the help of slats, the movement downwards into a horizontal movement of the autonomous underwater vehicle 100 be transmitted. This can reduce the need to use battery power.

8 veranschaulicht den Schritt des Ausführens 700 der maschinenausführbaren Anweisungen 306 durch den Prozessor 302. Während des in 7 dargestellten Abschnitts des Verfahrens können die Schritte von 4 durchgeführt werden. Das autonome Unterwasserfahrzeug 100 bewegt sich durch den Fischschwarm und erfasst sie in den aufgenommenen digitalen Bildern unter Verwendung des trainierten Maschinenlernmoduls. Das autonome Unterwasserfahrzeug 100 kann so tief sein, dass nicht genügend Licht vorhanden ist oder andere Bedingungen herrschen, die eine effektive Funktion der Kameras über weite Strecken verhindern. Die optionalen Leuchten können dazu verwendet werden, die Fische zu beleuchten und Bilder der Fische in nächster Nähe aufzunehmen. Während sich das autonome Unterwasserfahrzeug innerhalb des Fischschwarms 208 befindet, kann es sich herum bewegen und beim Bewegen durch den Fischschwarm 208 die verschiedenen Arten und möglicherweise die Größe der Fische abtasten. Nachdem die statistischen Fischschwarmdaten 318 ausreichend bestimmt wurden, geht das Verfahren dann zu dem in 8 dargestellten über. 8th illustrates the step of executing 700 the machine-executable instructions 306 through the processor 302 , During the in 7 The section of the method shown can include the steps of 4 be performed. The autonomous underwater vehicle 100 moves through the school of fish and captures them in the captured digital images using the trained machine learning module. The autonomous underwater vehicle 100 can be so deep that there is not enough light or other conditions prevail that prevent the cameras from working effectively over long distances. The optional lights can be used to illuminate the fish and take pictures of the fish in close proximity. While the autonomous underwater vehicle is within the school of fish 208 it can move around and move through the school of fish 208 to sample the different species and possibly the size of the fish. After the statistical school of fish data 318 have been determined sufficiently, the method then goes to that in 8th illustrated about.

9 zeigt den Schritt des Empfangens 800 der statistischen Fischschwarmdaten durch ein entferntes Computergerät. In diesem Schritt hat das autonome Unterwasserfahrzeug 100 das Erheben von Daten aus dem Fischschwarm 208 beendet und ist durch Folgen des Wegs 602 aufgetaucht. Die WLAN- oder LoRa-Kommunikation wird dann mit dem entfernten Computergerät auf dem Fischereifahrzeug 402 über eine Kommunikationsverbindung 802 hergestellt. Das entsprechende Computergerät ist in 9 veranschaulicht. 9 shows the step of receiving 800 statistical school of fish data by a remote computing device. In this step, the autonomous underwater vehicle 100 the raising of Data from the school of fish 208 ended and is by following the path 602 surfaced. The WLAN or LoRa communication is then with the remote computer device on the fishing vessel 402 over a communication link 802 manufactured. The corresponding computer device is in 9 illustrated.

10 veranschaulicht ein Beispiel für ein Fischschwarmortungssystem 900. Das Fischschwarmortungssystem umfasst das autonome Unterwasserfahrzeug 100 und ein entferntes Computergerät 901. Das entfernte Computergerät 901 umfasst einen Prozessor 902, der mit einem Kommunikationssystem 904 des Computergeräts und einem Speicher 906 des Computergeräts verbunden ist. Das Kommunikationssystem 904 des Computergeräts ist dazu eingerichtet, die Kommunikationsverbindung 802 mit dem autonomen Unterwasserfahrzeug 100 aufzubauen. Der Speicher 906 ist als die statistischen Fischschwarmdaten 318 enthaltend dargestellt, die aus dem autonomen Unterwasserfahrzeug 100 abgerufen wurden. Der Prozessor 902 kann dann aus den statistischen Fischschwarmdaten 318 ein Signal 912 erzeugen. Dies zeigt den Schritt des Ausgebens 900 eines Signals 912, ob der Fischschwarm gefangen werden soll oder nicht. In diesem Fall umfasst das entfernte Computergerät 901 eine Anzeige 908, die zum Anzeigen einer Benutzeroberfläche 910 verwendet wird. In diesem Fall zeigt die Benutzeroberfläche 910 das Sonogramm 500 des Fischschwarms sowie ein Signal 912 an. In diesem Fall nimmt das Signal 912 die Form einer Schätzung der Menge an kommerziell nutzbarem Fisch sowie des Beifangs an. 10 illustrates an example of a school of fish location 900 , The school of fish location system includes the autonomous underwater vehicle 100 and a remote computing device 901 , The remote computing device 901 includes a processor 902 using a communication system 904 of the computer device and a memory 906 the computer device is connected. The communication system 904 the computing device is set up to communicate 802 with the autonomous underwater vehicle 100 build up. The memory 906 is than the statistical school of fish data 318 depicting that from the autonomous underwater vehicle 100 were retrieved. The processor 902 can then from the statistical school of fish data 318 a signal 912 produce. This shows the step of spending 900 of a signal 912 whether or not to catch the school of fish. In this case, the remote computing device includes 901 an ad 908 used to display a user interface 910 is used. In this case, the user interface shows 910 the sonogram 500 of the school of fish and a signal 912 on. In this case the signal picks up 912 the form of an estimate of the amount of commercially available fish and by-catch.

11 veranschaulicht ein weiteres Beispiel für ein Fischschwarmortungssystem 1000. In diesem Beispiel ist eine Flotte 1002 für die Fischerei vorhanden. Jedes Schiff weist ein autonomes Unterwasserfahrzeug 100 sowie ein entferntes Computergerät 901 auf. Jedes der entfernten Computergeräte 901 hat zusätzlich eine Kommunikationsverbindung 802 mit dem Kommunikationssystem 1006 eines zentralen Trainingsservers 1004 aufgebaut. Die Kommunikationsverbindungen 802 werden dann zum Übertragen der kumulativ aufgenommenen digitalen Bilder 310 verwendet. Der zentrale Trainingsserver 1004 weist einen mit dem Kommunikationssystem 1006 verbundenen Prozessor 1008 und einen Speicher 1010 auf. Die digitalen Bilder 310 der autonomen Unterwasserfahrzeuge 100 sind als im Speicher 1010 gespeichert dargestellt. Der Speicher 1010 enthält auch das trainierte Maschinenlernmodul 308, das von den autonomen Unterwasserfahrzeugen 100 verwendet wird. Der Speicher 1010 ist als mit den Markierungen und Kennzeichnungen 1016 für die digitalen Bilder 310 enthaltend dargestellt. Dies wird dann zum Trainieren des trainierten Maschinenlernmodul verwendet, um ein aktualisiertes trainiertes Maschinenlernmodul 1018 zu erzeugen. Nach dem Erzeugen des aktualisierten trainierten Maschinenlernmoduls 1018 kann dieses dann über die Kommunikationsverbindungen 802 an die einzelnen autonomen Unterwasserfahrzeuge 100 zurück übertragen werden. Das aktualisierte trainierte Maschinenlernmodul 1018 ersetzt dann das aktuelle trainierte Maschinenlernmodul. 11 illustrates another example of a school of fish location 1000 , In this example is a fleet 1002 available for fishing. Each ship has an autonomous underwater vehicle 100 as well as a remote computing device 901 on. Any of the remote computing devices 901 also has a communication link 802 with the communication system 1006 of a central training server 1004 built up. The communication links 802 are then used to transfer the cumulatively captured digital images 310 used. The central training server 1004 assigns one to the communication system 1006 connected processor 1008 and a memory 1010 on. The digital pictures 310 of the autonomous underwater vehicles 100 are as in store 1010 shown saved. The memory 1010 also includes the trained machine learning module 308 by the autonomous underwater vehicles 100 is used. The memory 1010 is as with the markings and markings 1016 for the digital pictures 310 shown containing. This is then used to train the trained machine learning module to an updated trained machine learning module 1018 to create. After creating the updated trained machine learning module 1018 can then do this via the communication connections 802 to the individual autonomous underwater vehicles 100 be transferred back. The updated trained machine learning module 1018 then replaces the current trained machine learning module.

12 zeigt ein Ablaufschema, das ein Verfahren zum Bereitstellen eines aktualisierten trainierten Maschinenlernmoduls 1018 veranschaulicht. Zunächst wird in Schritt 1200 optional ein trainiertes Maschinenlernmodul 308 bereitgestellt. Als Nächstes werden in Schritt 1202 die aufgenommenen digitalen Bilder 310 aus einer Flotte 1002 von autonomen Unterwasserfahrzeugen 100 aufgenommen. Die aufgenommenen digitalen Bilder 310 werden während der Fangabläufe von den autonomen Unterwasserfahrzeugen 100 im Meer 404 aufgenommen. Als Nächstes werden in Schritt 1204 Markierungen und Kennzeichnungen 1016 empfangen. Die Markierungen und Kennzeichnungen zeigen die Position und Sorte der Fische in den digitalen Bildern 310 an. Als Nächstes wird in Schritt 1206 das aktualisierte trainierte Maschinenlernmodul 1018 unter Verwendung der Markierungen 1016 und der digitalen Bilder 310 erzeugt. Wenn der optionale Schritt 1100 durchgeführt wurde, wird das aktualisierte trainierte Maschinenlernmodul 1018 durch Trainieren der Kopie des trainierten Maschinenlernmoduls 308 erzeugt. Als Nächstes wird in Schritt 1208 das aktualisierte trainierte Maschinenlernmodul 1018 an mindestens eines der autonomen Unterwasserfahrzeuge 100 der Flotte 1002 übertragen. Schließlich wird in Schritt 1210 das trainierte Maschinenlernmodul von mindestens einem der autonomen Unterwasserfahrzeuge 100 der Flotte 1002 durch das aktualisierte trainierte Maschinenlernmodul 1018 ersetzt. 12 shows a flow diagram illustrating a method for providing an updated trained machine learning module 1018 illustrated. First in step 1200 optionally a trained machine learning module 308 provided. Next in step 1202 the digital images taken 310 from a fleet 1002 of autonomous underwater vehicles 100 added. The captured digital images 310 autonomous underwater vehicles 100 in the sea 404 added. Next in step 1204 Markings and markings 1016 receive. The markings and markings show the position and type of fish in the digital images 310 on. Next in step 1206 the updated trained machine learning module 1018 using the markers 1016 and the digital images 310 generated. If the optional step 1100 the updated trained machine learning module 1018 by training the copy of the trained machine learning module 308 generated. Next in step 1208 the updated trained machine learning module 1018 to at least one of the autonomous underwater vehicles 100 the fleet 1002 transfer. Finally in step 1210 the trained machine learning module from at least one of the autonomous underwater vehicles 100 the fleet 1002 through the updated trained machine learning module 1018 replaced.

Beispiele können ein Mittel zur Unterwassererfassung und -ortung von Fischen in Echtzeit vorsehen. Daten und Bilder können sowohl von Kameras als auch unter Verwendung von Sonardaten aufgenommen werden. Die Daten können dann in eine eingebettete Vorrichtung eingespeist werden. Die Daten können von einem modernen neuronalen Netzwerk, wie beispielsweise einem CNN-basierten Objektdetektor, verarbeitet werden. Die Position des Objekts in einem Begrenzungsrahmen und die Klassifizierung werden abgerufen. Die Daten können dann verarbeitet werden, um die Fischarten, ihre Größe und andere Eigenschaften zu zählen. Die Daten können durch Addition relevanter Merkmale wie Beifang, Dichte, Biomasse oder andere Statistiken vervollständigt werden. Die Daten können dann gespeichert und später an eine Großdatenanlage an Land übertragen werden, die für weiteres Trainieren verwendet werden kann.Examples can provide a means for real-time underwater detection and location of fish. Data and images can be captured by cameras as well as using sonar data. The data can then be fed into an embedded device. The data can be processed by a modern neural network, such as a CNN-based object detector. The position of the object in a bounding box and the classification are retrieved. The data can then be processed to count fish species, size and other characteristics. The data can be completed by adding relevant characteristics such as bycatch, density, biomass or other statistics. The data can then be saved and later transferred to a large data system on land, which can be used for further training.

13 zeigt ein Funktionsschema des autonomen Unterwasserfahrzeugs 100. In diesem Diagramm stellt Kasten 126 eine der Kameras dar. Optional kann eine zweite Kamera 200 und möglicherweise auch ein vorwärts gerichtetes Sonarsystem 130-132 vorhanden sein. Alle drei dieser Sensorsysteme 126, 200, 130-132 liefern Daten an den Prozessor 302. Der Prozessor kann ein integrierter Niedrigenergie-Prozessor sein, der eine Echtzeitverarbeitung durchführt. Der Prozessor speichert die Daten dann auf einer SD-Karte oder einem anderen Speicher 304. Dies kann beispielsweise zum Speichern der Bilder oder der digitalen Bilder 310 verwendet werden. Dies kann über das Computersystem und die Kommunikationsverbindung 802 mit der Datenbank an Land, dem zentralen Trainingsserver 1004, gestreamt werden. 13 shows a functional diagram of the autonomous underwater vehicle 100 , In this diagram, box represents 126 one of the cameras. Optionally, a second camera 200 and possibly also a forward-looking sonar system 130-132 to be available. All three of these sensor systems 126 . 200 . 130-132 deliver data to the processor 302 , The processor can be an integrated low energy processor that performs real time processing. The processor then stores the data on an SD card or other storage 304 , This can be used, for example, to save the images or the digital images 310 be used. This can be done through the computer system and the communication link 802 with the database on land, the central training server 1004 , be streamed.

14 zeigt ein Beispiel für eine Implementierung des trainierten Maschinenlernmoduls 308. In diesem Beispiel ist das trainierte Maschinenlernmodul ein Objekterkennungsmodell durch tiefes Lernen. Die digitalen Bilder 310 oder Bilder werden in einen Merkmalextraktor eines Convolutional Neural Nets 1400 eingegeben. Dies wird zum Erzeugen von Begrenzungsrahmen verwendet. Die Begrenzungsrahmen und die Bilddaten 310 werden dann in ein neuronales Gebiets- und Klassifizierungsnetzwerk 1402 eingegeben. Die Ausgabe der Module 1400 und 1402 sind die Begrenzungsrahmen 1404 und die Objektklassifikationen 1406. Aus diesen Informationen werden dann die statistischen Fischschwarmdaten 318 erzeugt. Diese Daten können beispielsweise ein Maß für die Anzahl der gezählten Fische oder deren Erfassung 1408, die geschätzte Beifangmenge 1410, ein Maß für den Fischschwarm und das Verfolgen und Nachverfolgen des Schwarms 1412, eine Größenmessung 1414 oder die Verteilung der Größen umfassen und können auch zusätzliche statistische Maße 1416 umfassen. 14 shows an example of an implementation of the trained machine learning module 308 , In this example, the trained machine learning module is an object recognition model through deep learning. The digital pictures 310 or images are placed in a feature extractor of a convolutional neural network 1400 entered. This is used to create bounding boxes. The bounding boxes and the image data 310 are then integrated into a neural area and classification network 1402 entered. The output of the modules 1400 and 1402 are the bounding boxes 1404 and the object classifications 1406 , This information then becomes the statistical school of fish data 318 generated. This data can, for example, be a measure of the number of fish counted or their detection 1408 , the estimated catch amount 1410 , a measure of the school of fish and the tracking and tracing of the school 1412 , a size measurement 1414 or include the distribution of sizes and can also include additional statistical measures 1416 include.

15 veranschaulicht den Aufbau und den Einsatz des trainierten Maschinenlernmoduls, wenn es sich um ein durch tiefes Lernen trainiertes Convolutional Neural Network handelt. Die Schritte sind als Aufnehmen und Kennzeichnen 1500 dargestellt. Die nächste Gruppe von Schritten ist das Trainieren 1502, und die letzte Gruppe von Schritten ist das Ausbringen 1504 des trainierten Maschinenlernmoduls. In der Aufnahme- und Markierungsphase 1500 werden zunächst die digitalen Bilder 310 gesammelt. Dies kann auch Sonardaten umfassen. Als Nächstes werden in Schritt 1016 Begrenzungsrahmen und Kennzeichnungen für die digitalen Bilder 310 bereitgestellt. Daraus wird dann eine gekennzeichnete Bilddatenbank 1510 aufgebaut. Die gekennzeichnet Bilddatenbank 1510 wird dann als Eingabe für die Trainingsphase 1502 verwendet. 15 illustrates the structure and use of the trained machine learning module if it is a convolutional neural network trained through deep learning. The steps are as recording and labeling 1500 shown. The next group of steps is training 1502 , and the last set of steps is deployment 1504 of the trained machine learning module. In the recording and marking phase 1500 are the digital images first 310 collected. This can also include sonar data. Next in step 1016 Bounding frames and markings for the digital images 310 provided. This then becomes a labeled image database 1510 built up. The featured image database 1510 is then used as input for the training phase 1502 used.

In der Trainingsphase werden dann aus der gekennzeichneten Bilddatenbank 1510 vorverarbeitete Bilder 1520 erzeugt. Aus diesen wird eine vorverarbeitete gekennzeichnete Datenbank 1522 erzeugt. Diese wird dann beim Trainieren der Objekterkennung durch tiefes Lernen 1524 verwendet, welches das trainierte Maschinenlernmodul erzeugt, das in diesem Fall ein Objekterkennungsmodell durch tiefes Lernen ist. Dieses Objekterkennungsmodul durch tiefes Lernen 308 wird dann in der Einsatzphase 1504 verwendet. In der Einsatzphase werden zunächst die digitalen Bilder oder die unmarkierten Fischbilddaten bereitgestellt. Dies hat dann die Vorverarbeitung 1530 durchlaufen, um vorverarbeitete Bilder zu erzeugen. Diese vorverarbeiteten Bilder 1530 werden dann in das Objekterkennungsmodul durch tiefes Lernen 308 eingegeben. Das Objekterkennungsmodul durch tiefes Lernen 308 gibt dann die Begrenzungsrahmen 1404 und die Objektklassifikationen 1406 aus, die in diesem Fall die Fischarten sind.In the training phase, the marked image database is then created 1510 preprocessed images 1520 generated. From these, a pre-processed marked database is created 1522 generated. This is then when training object recognition through deep learning 1524 used, which generates the trained machine learning module, which in this case is an object recognition model through deep learning. This object recognition module through deep learning 308 is then in the deployment phase 1504 used. In the deployment phase, the digital images or the unmarked fish image data are first made available. This then has the preprocessing 1530 cycle through to generate preprocessed images. These preprocessed images 1530 are then entered into the object recognition module through deep learning 308 entered. The object recognition module through deep learning 308 then gives the bounding box 1404 and the object classifications 1406 which in this case are the fish species.

BezugszeichenlisteReference list

100100
Autonomes UnterwasserfahrzeugAutonomous underwater vehicle
102102
Rumpfhull
104104
RumpflängeHull length
106106
RumpfdurchmesserHull diameter
108108
AntriebssystemDrive system
110110
Batteriebattery
112112
SteuerungssystemControl system
114114
LeitsystemControl system
116116
WLAN- oder LoRa-SystemWLAN or LoRa system
118118
SensorpaketSensor package
120120
Akustisches ModemAcoustic modem
122122
AntriebsrichtungDrive direction
124124
Variables AuftriebssystemVariable buoyancy system
126126
Vorwärts gerichtete KameraForward-facing camera
128128
Leuchtelamp
130130
SonarwandlerSonar converter
132132
SonarelektronikSonar electronics
200200
Seitlich angebrachte KameraCamera attached to the side
202202
Seitlich angebrachte LeuchteLuminaire attached to the side
204204
Sichtfeld der vorwärts gerichteten KameraField of view of the forward-facing camera
206206
Sichtfeld der seitlich angebrachten KameraField of vision of the side-mounted camera
208208
Fischefish
300300
HardwareschnittstelleHardware interface
302302
Prozessorprocessor
304 304
SpeicherStorage
306306
Maschinenausführbare AnweisungenMachine-executable instructions
308308
Trainiertes MaschinenlernmodulTrained machine learning module
310310
Digitale BilderDigital images
312312
Auswahl einer oder mehrerer ArtenSelection of one or more types
314314
Anzeige der BegrenzungsrahmenDisplay the bounding box
316316
Identifizierung von FischartenIdentification of fish species
318318
Statistische FischschwarmdatenStatistical schools of fish
320320
Vorbestimmte KriterienPredefined criteria
322322
FangentscheidungCatch decision
324324
SonardatenSonar data
326326
SchwarmpositionsdatenSwarm position data
350350
Empfangener einer Auswahl einer oder mehrerer ausgewählter ArtenRecipient of a selection of one or more selected species
352352
Steuern des autonomen Unterwasserfahrzeug zum Manövrieren durch einen FischschwarmControl the autonomous underwater vehicle to maneuver through a school of fish
354354
Steuern des Kamerasystems zum Aufnehmen der digitalen Bilder, während das autonome Unterwasserfahrzeug durch den Fischschwarm manövriertControl the camera system to capture the digital images as the autonomous underwater vehicle maneuvers through the school of fish
356356
Kumulatives Berechnen von statistischen Fischschwarmdaten durch Erfassen der Fische in den digitalen Bildern und Bestimmen der Fischart der einzelnen Fische in den digitalen BildernCumulative calculation of statistical school of fish data by capturing the fish in the digital images and determining the fish species of the individual fish in the digital images
358358
Speichern der statistischen Fischschwarmdaten im SpeicherStore the statistical school of fish data in memory
400400
Orten eines Fischschwarms mittels EcholocatorLocating a school of fish using an echolocator
402402
FischereifahrzeugFishing vessel
404404
MeeresoberflächeSea surface
406406
MeeresbodenSeabed
408408
Weg der SonarwellenPath of the sonar waves
412412
Fahrtrichtung des FischereifahrzeugsDirection of travel of the fishing vessel
500500
SonogrammSonogram
502502
MeerestiefeSea depth
504504
Mindesttiefe des FischschwarmsMinimum depth of school of fish
506506
Breite des FischschwarmsWidth of the school of fish
508508
Höhe des FischschwarmsShoal of fish
600600
Einsetzen des autonomen UnterwasserfahrzeugsDeployment of the autonomous underwater vehicle
602602
Weg des autonomen UnterwasserfahrzeugsAutonomous submarine route
700700
Ausführen von maschinenausführbaren AnweisungenExecute machine-executable instructions
800800
Übertragen der statistischen Fischschwarmdaten an das FischereifahrzeugTransmission of the statistical shoal of fish data to the fishing vessel
802802
KommunikationsverbindungCommunication link
900900
FischschwarmortungssystemSchool of fish location
901901
Entferntes ComputergerätRemote computing device
902902
Prozessor des ComputergerätsComputer device processor
904904
Kommunikationssystem des ComputergerätsCommunication system of the computer device
906906
Speicher des ComputergerätsComputer device memory
908908
Anzeigedisplay
910910
Benutzeroberflächeuser interface
912912
Signalsignal
10001000
FischschwarmortungssystemSchool of fish location
10021002
FischereiflotteFishing fleet
10041004
Zentraler TrainingsserverCentral training server
10061006
KommunikationssystemCommunication system
10081008
Prozessorprocessor
10101010
SpeicherStorage
10161016
Markierungen und KennzeichnungenMarkings and markings
10181018
Aktualisiertes trainiertes MaschinenlernmodulUpdated trained machine learning module
12001200
Bereitstellen eines trainierten MaschinenlernmodulsProvision of a trained machine learning module
12021202
Sammeln von aufgenommenen digitalen Bildern aus einer Flotte von autonomen Unterwasserfahrzeugen, die während der Fangabläufe im Meer aufgenommen wurdenCollect captured digital images from a fleet of autonomous underwater vehicles that were captured in the sea during fishing operations
12041204
Empfangen von Markierungen, die eine Position einzelner Fische in den aufgenommenen digitalen Bildern und/oder eine Zuordnung der Fischart zu den einzelnen Fischen in den aufgenommenen digitalen Bildern anzeigenReceive markings that indicate a position of individual fish in the captured digital images and / or an association of the species of fish with the individual fish in the captured digital images
12061206
Erzeugen des aktualisierten trainierten Maschinenlernmoduls durch Trainieren einer Kopie des trainierten Maschinenlernmoduls unter Verwendung der Markierungen und der aufgenommenen digitalen BilderGenerate the updated trained machine learning module by training a copy of the trained machine learning module using the markers and the captured digital images
12081208
Übertragen des aktualisierten trainierten Maschinenlernmoduls auf mindestens eines der Flotte der autonomen Unterwasserfahrzeuge der FlotteTransfer the updated trained machine learning module to at least one of the fleet of autonomous underwater vehicles in the fleet
12101210
Ersetzen des trainierten Maschinenlernmoduls des mindestens einen der autonomen Unterwasserfahrzeuge der Flotte durch das aktualisierte trainierte MaschinenlernmodulReplace the trained machine learning module of at least one of the autonomous underwater vehicles of the fleet through the updated trained machine learning module
14001400
Merkmalextraktor des Convolutional Neural NetFeature extractor of the Convolutional Neural Net
14021402
Neuronales Gebiets- und KlassifizierungsnetzwerkNeural area and classification network
14041404
BegrenzungsrahmenBounding box
14061406
ObjektklassifizierungenObject classifications
14081408
Fischzählung/-erfassungFish counting / capturing
14101410
BeifangmengeBy-catch
14121412
Fischschwarmnachverfolgung/-verfolgungSchool of fish tracking / tracing
14141414
GrößenmessungenSize measurements
14161416
Zusätzliche statistische MaßnahmenAdditional statistical measures
15001500
Aufnehmen und KennzeichnenRecord and mark
15021502
TrainierenWork out
15041504
AusbringungOutput
15101510
Gekennzeichnete BilddatenbankFeatured image database
15201520
Bilder vorverarbeitenPreprocess images
15221522
Vorverarbeitete gekennzeichnete DatenbankPre-processed labeled database
15241524
Trainieren der Objekterkennung durch tiefes LernenTraining object recognition through deep learning
15301530
Vorverarbeitete BilderPre-processed images

ZITATE ENTHALTEN IN DER BESCHREIBUNG QUOTES INCLUDE IN THE DESCRIPTION

Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.This list of documents listed by the applicant has been generated automatically and is only included for the better information of the reader. The list is not part of the German patent or utility model application. The DPMA assumes no liability for any errors or omissions.

Zitierte PatentliteraturPatent literature cited

  • US 20170105397 A1 [0005]US 20170105397 A1 [0005]

Zitierte Nicht-PatentliteraturNon-patent literature cited

  • Handoko et. al., „Designing embedded fish sensor for underwater robot“, Indian Journal of Marine Science, Vol. 38(3), September 2009, S. 308-315 [0004]Handoko et. al., "Designing embedded fish sensor for underwater robot", Indian Journal of Marine Science, Vol. 38 (3), September 2009, pp. 308-315 [0004]

Claims (37)

Autonomes Unterwasserfahrzeug (100), das zum Empfangen eines Klassifizierungsmoduls (308) eingerichtet ist, wobei das autonome Unterwasserfahrzeug (100) umfasst: - ein Kamerasystem (126, 200), das zum Aufnehmen digitaler Bilder (310) eingerichtet ist, - einen Speicher (304); und - einen Prozessor (302) zum Steuern des autonomen Unterwasserfahrzeugs, wobei das Klassifizierungsmodul (308) dazu eingerichtet ist, in den aufgenommenen Bildern (310) jeden Fisch zu erfassen, der zu einem Satz vorbestimmter Fischarten gehört und die betreffende Fischart den erfassten Fischen (208) zuzuordnen; wobei der Prozessor (302) für Folgendes eingerichtet ist: - Steuern (352) des autonomen Unterwasserfahrzeugs zum Manövrieren durch einen Fischschwarm (208); - Steuern (354) des Kamerasystems, um die digitalen Bilder (310) aufzunehmen, während das autonome Unterwasserfahrzeug durch den Fischschwarm manövriert; - Berechnen (356) von statistischen Fischschwarmdaten (318) unter Verwendung der digitalen Bilder (310) und des Klassifizierungsmoduls (308); und - Speichern (358) der statistischen Fischschwarmdaten im Speicher (304).Autonomous underwater vehicle (100) configured to receive a classification module (308), the autonomous underwater vehicle (100) comprising: a camera system (126, 200) which is set up for taking digital images (310), - a memory (304); and a processor (302) for controlling the autonomous underwater vehicle, wherein the classification module (308) is arranged to capture in the captured images (310) each fish that belongs to a set of predetermined fish species and to assign the relevant fish species to the captured fish (208); wherein the processor (302) is configured to: - Controlling (352) the autonomous underwater vehicle to maneuver through a school of fish (208); - controlling (354) the camera system to capture the digital images (310) as the autonomous underwater vehicle maneuvers through the school of fish; - computing (356) statistical schools of fish data (318) using the digital images (310) and the classification module (308); and - storing (358) the schooling statistical fish data in the memory (304). Autonomes Unterwasserfahrzeug nach Anspruch 1, wobei das autonome Unterwasserfahrzeug (100) ferner mindestens eine Lichtquelle (128, 202) umfasst, die dazu eingerichtet ist, ein Sichtfeld mindestens einer Kamera des Kamerasystems während der Aufnahme der digitalen Bilder zu beleuchten.Autonomous underwater vehicle after Claim 1 , wherein the autonomous underwater vehicle (100) further comprises at least one light source (128, 202), which is set up to illuminate a field of view of at least one camera of the camera system during the recording of the digital images. Autonomes Unterwasserfahrzeug nach Anspruch 2, wobei die Lichtquelle eine der folgenden umfasst: eine sichtbare Lichtquelle, eine Infrarotlichtquelle und Kombinationen davon.Autonomous underwater vehicle after Claim 2 wherein the light source comprises one of the following: a visible light source, an infrared light source, and combinations thereof. Autonomes Unterwasserfahrzeug nach einem der vorhergehenden Ansprüche; wobei das autonome Unterwasserfahrzeug (100) einen Rumpf umfasst und wobei der Rumpf eine Länge (104) aufweist, die kleiner als eine der folgenden ist: 1,5 Meter lang, 1 Meter lang und 0,5 Meter lang; wobei der Rumpf einen Umfang (106) aufweist, der kleiner ist als einer der folgenden: 80 cm, 50 cm, 20 cm und 10 cm.Autonomous underwater vehicle according to one of the preceding claims; the autonomous underwater vehicle (100) comprising a hull and the hull having a length (104) that is less than one of the following: 1.5 meters long, 1 meter long and 0.5 meters long; wherein the fuselage has a perimeter (106) that is less than one of the following: 80 cm, 50 cm, 20 cm and 10 cm. Autonomes Unterwasserfahrzeug nach einem der vorhergehenden Ansprüche, wobei der Prozessor (302) dazu eingerichtet ist, das autonome Unterwasserfahrzeug so zu steuern, dass es mindestens einen Teil der Zeit beim Manövrieren durch den Fischschwarm gleitet.An autonomous underwater vehicle according to any one of the preceding claims, wherein the processor (302) is arranged to control the autonomous underwater vehicle so that it glides through the school of fish at least part of the time when maneuvering. Autonomes Unterwasserfahrzeug nach einem der vorhergehenden Ansprüche, wobei der Prozessor (302) dazu eingerichtet ist, das autonome Unterwasserfahrzeug (100) zum Verwenden eines intermittierenden Antriebs beim Manövrieren durch den Fischschwarm zu steuern.An autonomous underwater vehicle according to any one of the preceding claims, wherein the processor (302) is arranged to control the autonomous underwater vehicle (100) to use an intermittent drive when maneuvering through the school of fish. Autonomes Unterwasserfahrzeug nach einem der vorhergehenden Ansprüche, wobei der Speicher (304) eine herausnehmbare Speicherkomponente umfasst und wobei die digitalen Bilder auf der herausnehmbaren Speicherkomponente aufgezeichnet werden.An autonomous underwater vehicle according to any one of the preceding claims, wherein the memory (304) comprises a removable memory component and wherein the digital images are recorded on the removable memory component. Autonomes Unterwasserfahrzeug nach einem der vorhergehenden Ansprüche; wobei der Prozessor (302) eingerichtet ist zum: - Empfangen von Schwarmpositionsdaten (326), die eine Größe (506, 508) und eine Position (504) des Fischschwarms (208) beschreiben; wobei die Schwarmpositionsdaten eine der folgenden umfassen: einen Tiefenbereich des Fischschwarms (208), eine Größe des Fischschwarms (208), ein Echogramm (500) des Fischschwarms und Kombinationen davon; und - Steuern des Manövrierens des autonomen Unterwasserfahrzeugs durch den Fischschwarm mindestens teilweise unter Verwendung der Schwarmpositionsdaten.Autonomous underwater vehicle according to one of the preceding claims; wherein the processor (302) is arranged to: - receiving shoal position data (326) describing a size (506, 508) and a position (504) of the shoal of fish (208); wherein the shoal position data includes one of a depth of the school of fish (208), a size of the school of fish (208), an echogram (500) of the school of fish, and combinations thereof; and Control the maneuvering of the autonomous underwater vehicle by the school of fish, at least in part, using the swarm position data. Autonomes Unterwasserfahrzeug nach einem der vorhergehenden Ansprüche, wobei das autonome Unterwasserfahrzeug (100) ferner ein Sonarsystem (130, 132) umfasst, das zum Aufnehmen von Sonardaten (324) eingerichtet ist, wobei der Prozessor (302) zum Durchführen eines des Folgenden eingerichtet ist: - Steuern des Antriebssystems, um das autonome Unterwasserfahrzeug (100) durch den Fischschwarm (208) mindestens teilweise unter Verwendung der Sonardaten zu manövrieren; - Ergänzen der Berechnung der statistischen Fischschwarmdaten unter Verwendung der Sonardaten; und - Kombinationen davon.Autonomous underwater vehicle according to one of the preceding claims, wherein the autonomous underwater vehicle (100) further comprises a sonar system (130, 132), which is set up for recording sonar data (324), wherein the processor (302) is set up to perform one of the following: - controlling the propulsion system to at least partially maneuver the autonomous underwater vehicle (100) through the school of fish (208) using the sonar data; - Completing the calculation of the schooling fish statistical data using the sonar data; and - combinations of these. Autonomes Unterwasserfahrzeug nach einem der vorhergehenden Ansprüche, wobei der Prozessor (302) eingerichtet ist zum: - Bestimmen einer Position des Fischschwarms durch Erfassen der Fische (208) in den digitalen Bildern (310) durch das Klassifizierungsmodul; und - Ändern des Manövrierens des autonomen Unterwasserfahrzeugs, um anhand der mithilfe der digitalen Bilder bestimmten Position des Fischschwarms auf den Fischschwarm zuzuschwimmen.Autonomous underwater vehicle according to one of the preceding claims, wherein the processor (302) is set up to: - determining a position of the school of fish by capturing the fish (208) in the digital images (310) by the classification module; and - Change the maneuvering of the autonomous underwater vehicle to swim towards the school of fish based on the position of the school of fish determined using the digital images. Autonomes Unterwasserfahrzeug nach einem der vorhergehenden Ansprüche, wobei das Kamerasystem eines des Folgenden umfasst: - eine vorwärts gerichtete Kamera (126), die mit ihrem Sichtfeld auf eine Antriebsrichtung (122) des autonomen Unterwasserfahrzeugs ausgerichtet ist; - mindestens eine seitlich angebrachte Kamera (200), deren Sichtfeld im Wesentlichen senkrecht zur Antriebsrichtung des autonomen Unterwasserfahrzeugs ausgerichtet ist; und - Kombinationen davon.Autonomous underwater vehicle according to one of the preceding claims, wherein the camera system comprises one of the following: a forward-looking camera (126) with its field of view aligned with a drive direction (122) of the autonomous underwater vehicle; - At least one camera (200) mounted on the side, the field of vision of which is oriented essentially perpendicular to the direction of drive of the autonomous underwater vehicle; and - combinations thereof. Autonomes Unterwasserfahrzeug nach einem der vorhergehenden Ansprüche, wobei die statistischen Fischschwarmdaten eines des Folgenden umfassen: - eine Fischmengenstatistik, die mittels Erfassen der Fische (208) in den digitalen Bildern (310) berechnet wird; - eine Fischgrößenstatistik, die mittels Erfassen der Fische (208) in den digitalen Bildern (310) berechnet wird; - eine Fischsortenstatistik, die die Identifizierung der einen oder der mehreren ausgewählten Arten in den digitalen Bildern (310) beschreibt; und - Kombinationen davon.An autonomous underwater vehicle according to any one of the preceding claims, wherein the schooling statistical fish data comprises one of the following: - Fish quantity statistics, which is calculated by capturing the fish (208) in the digital images (310); - a fish size statistic, which is calculated by capturing the fish (208) in the digital images (310); - fish species statistics describing the identification of the one or more selected species in the digital images (310); and - combinations of these. Autonomes Unterwasserfahrzeug nach Anspruch 12, wobei das autonome Unterwasserfahrzeug (100) ein Kommunikationsmodul umfasst, das zur Kommunikation mit einem entfernten Computergerät (901) eingerichtet ist, wobei das Kommunikationsmodul eines des Folgenden umfasst: ein akustisches Modem (120), ein WLAN-System (116), ein LoRa-System (116) und Kombinationen davon.Autonomous underwater vehicle after Claim 12 , wherein the autonomous underwater vehicle (100) comprises a communication module configured to communicate with a remote computing device (901), the communication module comprising one of the following: an acoustic modem (120), a WLAN system (116), a LoRa System (116) and combinations thereof. Autonomes Unterwasserfahrzeug nach Anspruch 13, wobei der Prozessor (302) dazu eingerichtet ist, die statistischen Fischschwarmdaten unter Verwendung des Kommunikationsmoduls zu übertragen (800).Autonomous underwater vehicle after Claim 13 wherein the processor (302) is configured to transmit (800) the statistical schooling fish data using the communication module. Autonomes Unterwasserfahrzeug nach Anspruch 14, wobei der Prozessor (302) eingerichtet ist zum: - Berechnen einer Fangentscheidung (322) durch Vergleichen der statistischen Fischschwarmdaten mit einem vorbestimmten Kriterium (320), wobei die Fangentscheidung eine Anweisung zum Fangen des Fischschwarms (208) oder zum Meiden des Fischschwarms umfasst; und - Anhängen der Fangentscheidung an die statistischen Fischschwarmdaten.Autonomous underwater vehicle after Claim 14 wherein the processor (302) is arranged to: - calculate a catch decision (322) by comparing the statistical shoal of fish data with a predetermined criterion (320), the catch decision comprising an instruction to catch the shoal of fish (208) or to avoid the shoal of fish; and - appending the fishing decision to the schooling statistical fish data. Autonomes Unterwasserfahrzeug nach Anspruch 15, wobei der Prozessor (302) dazu eingerichtet ist, das autonome Unterwasserfahrzeug (100) zum Halten einer vorbestimmten Position innerhalb des Fischschwarms (208) zu steuern, wenn die Fangentscheidung die Anweisung umfasst, den Fischschwarm nach dem Bereitstellen der Fangentscheidung zu fangen.Autonomous underwater vehicle after Claim 15 wherein the processor (302) is configured to control the autonomous underwater vehicle (100) to hold a predetermined position within the school of fish (208) when the catch decision includes instructing to catch the school of fish after providing the catch decision. Autonomes Unterwasserfahrzeug nach einem der Ansprüche 1 bis 15, wobei der Prozessor (302) dazu eingerichtet ist, das autonome Unterwasserfahrzeug (100) zum Halten einer vorbestimmten Position innerhalb des Fischschwarms (208) zu steuern.Autonomous underwater vehicle according to one of the Claims 1 to 15 wherein the processor (302) is configured to control the autonomous underwater vehicle (100) to maintain a predetermined position within the school of fish (208). Autonomes Unterwasserfahrzeug nach einem der vorhergehenden Ansprüche, wobei die Berechnung der statistischen Fischschwarmdaten mindestens teilweise während der Aufnahme der digitalen Bilder (310) durchgeführt wird.Autonomous underwater vehicle according to one of the preceding claims, wherein the calculation of the statistical school of fish data is carried out at least partially during the recording of the digital images (310). Autonomes Unterwasserfahrzeug nach einem der vorhergehenden Ansprüche, wobei die Fischart eine aus einem Satz vorbestimmter Fischarten ist; wobei der Prozessor (302) dazu eingerichtet ist, eine Auswahl (312) einer oder mehrerer ausgewählter Arten zu empfangen (350), wobei der Satz vorbestimmter Fischarten die eine oder die mehreren ausgewählten Arten umfasst und wobei die Berechnung der statistischen Fischschwarmdaten für die eine oder die mehreren ausgewählten Arten berechnet wird.An autonomous underwater vehicle according to any preceding claim, wherein the fish species is one of a set of predetermined fish species; wherein the processor (302) is arranged to receive (350) a selection (312) of one or more selected species, the set of predetermined fish species comprising the one or more selected species, and wherein the calculation of the statistical schooling fish data for the one or the multiple selected species is calculated. Autonomes Unterwasserfahrzeug nach einem der vorhergehenden Ansprüche, wobei das autonome Unterwasserfahrzeug (100) das Klassifizierungsmodul (308) umfasst.Autonomous underwater vehicle according to one of the preceding claims, wherein the autonomous underwater vehicle (100) comprises the classification module (308). Autonomes Unterwasserfahrzeug nach einem der vorhergehenden Ansprüche, wobei das Klassifizierungsmodul (308) als eines des Folgenden implementiert ist: ein Hardwaremodul, eine Emulation eines trainierten Maschinenlernmoduls und Kombinationen davon.Autonomous underwater vehicle according to one of the preceding claims, wherein the classification module (308) is implemented as one of the following: a hardware module, an emulation of a trained machine learning module and combinations thereof. Autonomes Unterwasserfahrzeug nach einem der Ansprüche 1 bis 20, wobei der Speicher (304) zum Speichern des Klassifizierungsmoduls (308) eingerichtet ist, wobei das Klassifizierungsmodul (308) ein trainiertes Maschinenlernmodul ist.Autonomous underwater vehicle according to one of the Claims 1 to 20th , wherein the memory (304) is arranged to store the classification module (308), the classification module (308) being a trained machine learning module. Autonomes Unterwasserfahrzeug nach Anspruch 22, wobei das trainierte Maschinenlernmodul eines des Folgenden umfasst: mindestens ein Convolutional Neural Network (1400), ein neuronales Netzwerk, einen deformierbaren Schablonenvergleichsalgorithmus und ein lokales Orientierungshistogramm mit einem Support Vector Machine-Algorithmus.Autonomous underwater vehicle after Claim 22 , wherein the trained machine learning module comprises one of the following: at least one convolutional neural network (1400), a neural network, a deformable template comparison algorithm and a local orientation histogram with a support vector machine algorithm. Fischschwarmortungssystem (900, 1000), umfassend: - ein autonomes Unterwasserfahrzeug (100) nach einem der Ansprüche 1 bis 23; und - ein entferntes Computergerät (901), wobei das entfernte Computergerät ein Kommunikationssystem (904) umfasst, das zum Aufbauen einer Kommunikationsverbindung (802) mit dem autonomen Unterwasserfahrzeug (100) eingerichtet ist, wobei das entfernte Computergerät (901) zum Empfangen der statistischen Fischschwarmdaten (318) vom autonomen Unterwasserfahrzeug (100) über die Kommunikationsverbindung (802) eingerichtet ist.School of fish location (900, 1000), comprising: - an autonomous underwater vehicle (100) according to one of the Claims 1 to 23 ; and - a remote computing device (901), the remote computing device comprising a communication system (904) configured to establish a communication link (802) with the autonomous underwater vehicle (100), the remote computing device (901) for receiving the statistical school of fish data (318) from the autonomous underwater vehicle (100) via the communication link (802). Fischschwarmortungssystem nach Anspruch 24, wobei das entfernte Computergerät (901) eines des Folgenden ist: ein Tablet-Computer, ein Laptop-Computer, ein Computer, ein Smartphone und ein Echolocator.School of fish location according to Claim 24 wherein the remote computing device (901) is one of the following: a tablet computer, a laptop computer, a computer, a smartphone, and an echolocator. Fischschwarmortungssystem nach Anspruch 24 oder 25, wobei das entfernte Computersystem (901) eine Anzeige (908) umfasst, wobei das entfernte Computersystem (901) eingerichtet ist zum: - Berechnen von geschätzten Fischschwarmdaten (912) unter Verwendung der statistischen Fischschwarmdaten, wobei die Fischschwarmdaten eines des Folgenden umfassen: eine geschätzte Anzahl der einen oder der mehreren ausgewählten Arten im Fischschwarm (208), eine geschätzte Masse der einen oder der mehreren ausgewählten Arten im Fischschwarm (208), eine geschätzte Größe der Fische im Fischschwarm, eine geschätzte Anzahl von Beifangfischen im Fischschwarm (208), eine Schätzung der Masse von Beifangfischen im Fischschwarm (208), einen geschätzten Prozentsatz der einen oder der mehreren ausgewählten Arten im Fischschwarm (208) und Kombinationen davon; - Anzeigen der geschätzten Fischschwarmdaten auf der Anzeige (908).School of fish location according to Claim 24 or 25th , wherein the remote computer system (901) includes a display (908), the remote computer system (901) configured to: - calculate estimated shoal of fish data (912) using the shoal statistical data, the shoal fish data comprising one of the following: an estimated one Number of the one or more selected species in the school of fish (208), an estimated mass of the one or more selected species in the school of fish (208), an estimated size of the fish in the school of fish, an estimated number of by-catch fish in the school of fish (208), one Estimating the mass of by-catch fish in the school of fish (208), an estimated percentage of the one or more selected species in the school of fish (208), and combinations thereof; - Viewing the estimated shoal of fish data on the display (908). Fischschwarmortungssystem nach einem der Ansprüche 24 bis 26, wobei das Fischschwarmortungssystem ferner einen zentralen Trainingsserver (1004) umfasst, wobei der zentrale Trainingsserver einrichtet ist zum: - Sammeln einer Stichprobe der aufgenommenen digitalen Bilder (310) aus dem autonomen Unterwasserfahrzeug (100), vorzugsweise über das entfernte Computergerät (901); - Empfangen von Markierungen (1016), die eine Position einzelner Fische in der Stichprobe der aufgenommenen digitalen Bilder und/oder eine Zuordnung der Fischarten zu den einzelnen Fischen in den aufgenommenen digitalen Bildern anzeigen; und - Erzeugen eines aktualisierten trainierten Maschinenlernmoduls (1018) unter Verwendung der Markierungen und der aufgenommenen digitalen Bilder.School of fish location according to one of the Claims 24 to 26 , wherein the school of fish location system further comprises a central training server (1004), the central training server being set up for: - collecting a sample of the captured digital images (310) from the autonomous underwater vehicle (100), preferably via the remote computer device (901); - receiving markings (1016) indicating a position of individual fish in the sample of the captured digital images and / or an association of the species of fish with the individual fish in the captured digital images; and - generating an updated trained machine learning module (1018) using the markers and the captured digital images. Fischschwarmortungssystem nach Anspruch 27, wobei das autonome Unterwasserfahrzeug nach Anspruch 22 oder 23 ist, wobei der zentrale Trainingsserver (1004) ferner zum Übertragen des aktualisierten trainierten Maschinenlernmoduls über das entfernte Computergerät (901) an das autonome Unterwasserfahrzeug (100) eingerichtet ist, wobei das Unterwasserfahrzeug zum Installieren des aktualisierten trainierten Maschinenlernmoduls als das trainierte Maschinenlernmodul eingerichtet ist.School of fish location according to Claim 27 , the autonomous underwater vehicle according to Claim 22 or 23 wherein the central training server (1004) is further configured to transmit the updated trained machine learning module to the autonomous underwater vehicle (100) via the remote computing device (901), the underwater vehicle configured to install the updated trained machine learning module as the trained machine learning module. Fischschwarmortungssystem nach Anspruch 28, wobei das aktualisierte trainierte Maschinenlernmodul durch Trainieren einer Kopie des trainierten Maschinenlernmoduls unter Verwendung der Markierungen und der aufgenommenen digitalen Bilder (310) erzeugt wird.School of fish location according to Claim 28 wherein the updated trained machine learning module is generated by training a copy of the trained machine learning module using the markers and the captured digital images (310). Fischschwarmortungssystem nach Anspruch 28 oder 29, wobei das aktualisierte trainierte Maschinenlernmodul durch Trainieren eines untrainierten Maschinenlernmoduls unter Verwendung der Markierungen und der aufgenommenen digitalen Bilder erzeugt wird.School of fish location according to Claim 28 or 29 wherein the updated trained machine learning module is generated by training an untrained machine learning module using the markers and the captured digital images. Verfahren zum Reduzieren des Beifangs unter Verwendung eines Fischschwarmortungssystems (900, 1000) nach einem der Ansprüche 24 bis 30, wobei das Verfahren umfasst: - Orten (400) eines Fischschwarms (208); - Ausbringen (600) des autonomen Unterwasserfahrzeugs; - Ausführen (700) der maschinenausführbaren Anweisungen durch den Prozessor des autonomen Unterwasserfahrzeugs; - Empfangen (800) der statistischen Fischschwarmdaten über das entfernte Computergerät; und - Ausgeben (900) eines Signals (912), ob der Fischschwarm gefangen werden soll.Method of reducing by-catch using a school of fish location system (900, 1000) according to one of the Claims 24 to 30th The method comprising: - locating (400) a school of fish (208); - deploying (600) the autonomous underwater vehicle; - executing (700) the machine-executable instructions by the processor of the autonomous underwater vehicle; - receiving (800) the schooling statistical fish data via the remote computing device; and - outputting (900) a signal (912) whether the school of fish should be caught. Verfahren zum Reduzieren des Beifangs unter Verwendung eines Fischschwarmortungssystems (900, 1000), wobei das Fischschwarmortungssystem (900, 1000) umfasst: - ein autonomes Unterwasserfahrzeug (100) mit einem Kamerasystem (126, 200) und einem Klassifizierungsmodul (308) und - ein entferntes Computergerät (901) und wobei das Verfahren die Schritte umfasst, dass - ein Fischschwarm (208) geortet (400) wird; - das autonome Unterwasserfahrzeug (100) ausgebracht (600) wird; - das autonome Unterwasserfahrzeug (100) durch den Fischschwarm (208) manövriert; - das Kamerasystem (126, 200) digitale Bilder (310) aufnimmt, während das autonome Unterwasserfahrzeug (100) durch den Fischschwarm (208) manövriert; - das Klassifizierungsmodul (308) in den aufgenommenen Bildern (310) jeden Fisch erfasst, der zu einem Satz vorbestimmter Fischarten gehört, und die betreffende Fischart den erfassten Fischen (208) zuordnet; - das Klassifizierungsmodul (308) statistische Fischschwarmdaten (318) durch Verwendung der Zuordnungen von Fischarten zu den erfassten Fischen (208) berechnet; - die berechneten statistischen Fischschwarmdaten (318) aus dem autonomen Unterwasserfahrzeug (100) an das entfernte Computergerät (901) übertragen werden und - das entfernte Computergerät (901) in einer vom Menschen wahrnehmbaren Form ein Signal ausgibt, das die statistischen Fischschwarmdaten (318) anzeigt.A method of reducing by-catch using a school of fish location system (900, 1000), the school of fish location system (900, 1000) comprising: an autonomous underwater vehicle (100) with a camera system (126, 200) and a classification module (308) and - a remote one Computer device (901) and the method comprising the steps of: - locating (400) a school of fish (208); - The autonomous underwater vehicle (100) is deployed (600); - The autonomous underwater vehicle (100) maneuvers through the school of fish (208); - The camera system (126, 200) takes digital images (310) while the autonomous underwater vehicle (100) maneuvers through the school of fish (208); - the classification module (308) in the captured images (310) captures each fish belonging to a set of predetermined fish species and assigns the fish species in question to the captured fish (208); - the classification module (308) calculates statistical schooling fish data (318) using the assignments of fish species to the recorded fish (208); the calculated statistical school of fish data (318) are transmitted from the autonomous underwater vehicle (100) to the remote computer device (901) and - the remote computing device (901), in a human-perceivable form, outputs a signal indicative of the shoal statistical fish data (318). Verfahren des Reduzierens von Beifang nach Anspruch 31 oder 32, wobei das Verfahren ferner umfasst: - Steuern des autonomen Unterwasserfahrzeugs zum Halten einer vorbestimmten Position innerhalb des Fischschwarms, wenn der Fischschwarm gefangen wird; und - Einholen des autonomen Unterwasserfahrzeugs durch Fangen des Fischschwarms mit einem Netz, wenn das Unterwasserfahrzeug die vorbestimmte Position innerhalb des Fischschwarms halten soll.Method of reducing bycatch after Claim 31 or 32 the method further comprising: controlling the autonomous underwater vehicle to hold a predetermined position within the school of fish when the school of fish is caught; and - retrieving the autonomous underwater vehicle by catching the school of fish with a net if the underwater vehicle is to hold the predetermined position within the school of fish. Verfahren zum Bereitstellen eines aktualisierten trainierten Maschinenlernmoduls, wobei das Verfahren umfasst: - Sammeln (1202) einer Stichprobe von aufgenommenen digitalen Bilddaten (308) aus einer Flotte von autonomen Unterwasserfahrzeugen (1002) nach Anspruch 22 oder 23, wobei die erfassten digitalen Bilder während der Fangabläufe von den autonomen Unterwasserfahrzeugen im Meer aufgenommen werden; - Empfangen (1204) von Markierungen (1016), die eine Position von Fischen in der Stichprobe der aufgenommenen digitalen Bilder und/oder eine Zuordnung der Fischarten zu den Fischen anzeigen; - Erzeugen (1206) des aktualisierten trainierten Maschinenlernmoduls (1018) unter Verwendung der Markierungen und der aufgenommenen digitalen Bilder; - Übertragen (1208) des aktualisierten trainierten Maschinenlernmoduls auf mindestens eines der Flotte der autonomen Unterwasserfahrzeuge, wobei das aktualisierte trainierte Maschinenlernmodul zum Erfassen von Fischen in den digitalen Bildern und zum Zuordnen einer Fischart zu den erfassten Fischen im digitalen Bild trainiert wird; - Installieren (1210) des aktualisierten, trainierten Maschinenlernmoduls in dem mindestens einen der Flotte der autonomen Unterwasserfahrzeuge.A method for providing an updated trained machine learning module, the method comprising: collecting (1202) a sample of recorded digital image data (308) from a fleet of autonomous underwater vehicles (1002) Claim 22 or 23 , the captured digital images being captured by the autonomous marine underwater vehicles during the capture processes; - receiving (1204) markers (1016) indicating a position of fish in the sample of the captured digital images and / or an association of the species of fish with the fish; - generating (1206) the updated trained machine learning module (1018) using the markers and the captured digital images; - transferring (1208) the updated trained machine learning module to at least one of the fleet of autonomous underwater vehicles, the updated trained machine learning module being trained to capture fish in the digital images and to associate a fish species with the captured fish in the digital image; - Install (1210) the updated, trained machine learning module in at least one of the fleet of autonomous underwater vehicles. Verfahren zum Bereitstellen eines aktualisierten trainierten Maschinenlernmoduls nach Anspruch 34, wobei das Verfahren ferner das Bereitstellen (1200) eines untrainierten Maschinenlernmoduls (308) umfasst, wobei das aktualisierte trainierte Maschinenlernmodul durch Trainieren eines untrainierten Maschinenlernmoduls unter Verwendung der Markierungen und der aufgenommenen digitalen Bilder erzeugt wird.Method for providing an updated trained machine learning module according to Claim 34 The method further comprising providing (1200) an untrained machine learning module (308), the updated trained machine learning module being generated by training an untrained machine learning module using the markers and the captured digital images. Verfahren zum Bereitstellen eines aktualisierten trainierten Maschinenlernmoduls nach Anspruch 34, wobei das Verfahren ferner das Bereitstellen (1200) eines trainierten Maschinenlernmoduls (308) umfasst, wobei das aktualisierte trainierte Maschinenlernmodul durch Trainieren einer Kopie des trainierten Maschinenlernmoduls unter Verwendung der Markierungen und der aufgenommenen digitalen Bilder erzeugt wird.Method for providing an updated trained machine learning module according to Claim 34 the method further comprising providing (1200) a trained machine learning module (308), the updated trained machine learning module being generated by training a copy of the trained machine learning module using the markers and the captured digital images. Verfahren zum Erstellen eines Klassifizierungsmoduls (308) unter Verwendung einer Flotte von autonomen Unterwasserfahrzeugen (1002), die jeweils ein Kamerasystem (126, 200) umfassen, wobei das Verfahren die Schritte umfasst, dass - die autonomen Unterwasserfahrzeuge (1002) durch Fischschwärme (208) manövrieren; - die Kamerasysteme (126, 200) digitale Bilder (310) aufnehmen; - eine Stichprobe von aufgenommenen digitalen Bilddaten (308) gesammelt wird (1202); - Markierungen (1016), die jeweils eine Position eines zu einem Satz vorbestimmter Fischarten gehörenden Fisches und die betreffende Fischart dieses Fisches anzeigen, empfangen werden (1204); - das Klassifizierungsmodul (308) unter Verwendung der empfangenen Markierungen (1016) und der aufgenommenen digitalen Bilder (310) erzeugt wird (1206), sodass das erzeugte Klassifizierungsmodul (308) zum Erkennen jedes in den Satz von Fischen gehörenden Fisches in einem digitalen Bild (310) und zum Zuordnen der betreffenden Fischart zu den erfassten Fischen (208) eingerichtet ist; und - das erzeugte Klassifizierungsmodul (308) an Bord mindestens eines autonomen Unterwasserfahrzeugs (1002) der Flotte installiert ist.Method for creating a classification module (308) using a fleet of autonomous underwater vehicles (1002), each comprising a camera system (126, 200), the method comprising the steps of - Maneuver the autonomous underwater vehicles (1002) through schools of fish (208); - The camera systems (126, 200) record digital images (310); - a sample of captured digital image data (308) is collected (1202); - markers (1016) each indicating a position of a fish belonging to a set of predetermined fish species and the fish species concerned of that fish are received (1204); - the classification module (308) is generated (1206) using the received markings (1016) and the recorded digital images (310), so that the generated classification module (308) is arranged to recognize each fish belonging to the set of fish in a digital image (310) and to assign the relevant fish species to the detected fish (208); and - The generated classification module (308) is installed on board at least one autonomous underwater vehicle (1002) of the fleet.
DE102018215096.6A 2018-09-05 2018-09-05 Autonomous underwater vehicle to support fishing Pending DE102018215096A1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102018215096.6A DE102018215096A1 (en) 2018-09-05 2018-09-05 Autonomous underwater vehicle to support fishing

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102018215096.6A DE102018215096A1 (en) 2018-09-05 2018-09-05 Autonomous underwater vehicle to support fishing

Publications (1)

Publication Number Publication Date
DE102018215096A1 true DE102018215096A1 (en) 2020-03-05

Family

ID=69526835

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102018215096.6A Pending DE102018215096A1 (en) 2018-09-05 2018-09-05 Autonomous underwater vehicle to support fishing

Country Status (1)

Country Link
DE (1) DE102018215096A1 (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110738172A (en) * 2019-10-15 2020-01-31 青岛罗博飞海洋探测装备应用技术研究院有限公司 underwater organism trapping and killing method and system
US20210219528A1 (en) * 2020-01-19 2021-07-22 Hunan University Of Science And Technology Suction sampler system for in situ collection of deep-sea floor organisms and method of using same
CN113569971A (en) * 2021-08-02 2021-10-29 浙江索思科技有限公司 Image recognition-based catch target classification detection method and system
CN116849188A (en) * 2023-09-01 2023-10-10 中国水产科学研究院南海水产研究所 Lossless continuous suction-catching method and system
CN117193304A (en) * 2023-09-20 2023-12-08 武汉理工大学 Unmanned ship cluster control method and related equipment

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20150183498A1 (en) * 2013-12-30 2015-07-02 Patrick Wardle Personal Submersible Drone for Aquatic Exploration
DE102017216608B3 (en) * 2017-09-19 2018-09-06 Atlas Elektronik Gmbh Autonomous underwater vehicle for the detection of fish and the reduction of by-catch in fisheries

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20150183498A1 (en) * 2013-12-30 2015-07-02 Patrick Wardle Personal Submersible Drone for Aquatic Exploration
DE102017216608B3 (en) * 2017-09-19 2018-09-06 Atlas Elektronik Gmbh Autonomous underwater vehicle for the detection of fish and the reduction of by-catch in fisheries

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110738172A (en) * 2019-10-15 2020-01-31 青岛罗博飞海洋探测装备应用技术研究院有限公司 underwater organism trapping and killing method and system
CN110738172B (en) * 2019-10-15 2023-08-04 青岛罗博飞海洋探测装备应用技术研究院有限公司 Underwater organism trapping and killing method and system
US20210219528A1 (en) * 2020-01-19 2021-07-22 Hunan University Of Science And Technology Suction sampler system for in situ collection of deep-sea floor organisms and method of using same
US11812732B2 (en) * 2020-01-19 2023-11-14 Hunan University Of Science And Technology Suction sampler system for in situ collection of deep-sea floor organisms and method of using same
CN113569971A (en) * 2021-08-02 2021-10-29 浙江索思科技有限公司 Image recognition-based catch target classification detection method and system
CN113569971B (en) * 2021-08-02 2022-03-25 浙江索思科技有限公司 Image recognition-based catch target classification detection method and system
CN116849188A (en) * 2023-09-01 2023-10-10 中国水产科学研究院南海水产研究所 Lossless continuous suction-catching method and system
CN116849188B (en) * 2023-09-01 2024-01-09 中国水产科学研究院南海水产研究所 Lossless continuous suction-catching method and system
CN117193304A (en) * 2023-09-20 2023-12-08 武汉理工大学 Unmanned ship cluster control method and related equipment
CN117193304B (en) * 2023-09-20 2024-05-07 武汉理工大学 Unmanned ship cluster control method and related equipment

Similar Documents

Publication Publication Date Title
DE102018215096A1 (en) Autonomous underwater vehicle to support fishing
Wich et al. Drones for conservation
Livanos et al. Intelligent navigation and control of a prototype autonomous underwater vehicle for automated inspection of aquaculture net pen cages
Levy et al. Automated analysis of marine video with limited data
Kruusmaa et al. Salmon behavioural response to robots in an aquaculture sea cage
DE102018217164B4 (en) Method and system for data analysis
Cong et al. Novel event analysis for human-machine collaborative underwater exploration
Modasshir et al. Enhancing coral reef monitoring utilizing a deep semi-supervised learning approach
CN112861755B (en) Target multi-category real-time segmentation method and system
Rasmussen et al. Deep census: AUV-based scallop population monitoring
CN106097320A (en) Stichopus japonicus image automatic segmentation method and device under water
Giddens et al. The national geographic society deep-sea camera system: A low-cost remote video survey instrument to advance biodiversity observation in the deep ocean
Kounalakis et al. A robotic system employing deep learning for visual recognition and detection of weeds in grasslands
Piechaud et al. Fast and accurate mapping of fine scale abundance of a VME in the deep sea with computer vision
Infantes et al. An automated work-flow for pinniped surveys: A new tool for monitoring population dynamics
Chen et al. Deep convolutional neural networks for semi-supervised learning from synthetic aperture sonar (SAS) images
Xu et al. Detection of bluefin tuna by cascade classifier and deep learning for monitoring fish resources
Kassim et al. Small object bird detection in infrared drone videos using mask R-CNN deep learning
Ovchinnikova et al. Exploring the potential to use low cost imaging and an open source convolutional neural network detector to support stock assessment of the king scallop (Pecten maximus)
Jovanović et al. Splash detection in fish Plants surveillance videos using deep learning
Burr et al. Estimating waterbird abundance on catfish aquaculture ponds using an unmanned aerial system
Kaveti et al. Towards automated fish detection using convolutional neural networks
Marrable et al. Generalised deep learning model for semi-automated length measurement of fish in stereo-BRUVS
CN113284164A (en) Shrimp swarm automatic counting method and device, electronic equipment and storage medium
Tarekegn et al. Underwater Object Detection using Image Enhancement and Deep Learning Models

Legal Events

Date Code Title Description
R163 Identified publications notified