WO2023228266A1 - 観測評価装置、観測評価方法、およびプログラム - Google Patents

観測評価装置、観測評価方法、およびプログラム Download PDF

Info

Publication number
WO2023228266A1
WO2023228266A1 PCT/JP2022/021211 JP2022021211W WO2023228266A1 WO 2023228266 A1 WO2023228266 A1 WO 2023228266A1 JP 2022021211 W JP2022021211 W JP 2022021211W WO 2023228266 A1 WO2023228266 A1 WO 2023228266A1
Authority
WO
WIPO (PCT)
Prior art keywords
observation
feature
data
observed
identification model
Prior art date
Application number
PCT/JP2022/021211
Other languages
English (en)
French (fr)
Inventor
崇 古谷
ヘレン スチュワート
正樹 久田
Original Assignee
日本電信電話株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 日本電信電話株式会社 filed Critical 日本電信電話株式会社
Priority to PCT/JP2022/021211 priority Critical patent/WO2023228266A1/ja
Publication of WO2023228266A1 publication Critical patent/WO2023228266A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N29/00Investigating or analysing materials by the use of ultrasonic, sonic or infrasonic waves; Visualisation of the interior of objects by transmitting ultrasonic or sonic waves through the object
    • G01N29/44Processing the detected response signal, e.g. electronic circuits specially adapted therefor

Definitions

  • the present invention relates to an observation evaluation device, an observation evaluation method, and a program.
  • the present invention has been made in view of the above, and its purpose is to evaluate spatiotemporally continuous life logs of living things.
  • An observation evaluation device includes a first feature extraction unit that extracts a first feature amount of an observation target from acoustic data, and a second feature extraction unit that extracts a first feature amount of the observation target from acoustic data and image data that is time-synchronized with the acoustic data.
  • a second feature extraction unit that extracts a feature quantity; a feature synthesis unit that synthesizes the first feature quantity and the second feature quantity; an identification model generation unit that generates an identification model that identifies the behavior of the observation target; and an observation evaluation unit that receives observation data and uses the identification model to identify the individual to be observed or the behavior of the observation target.
  • a computer extracts a first feature of the observation target from acoustic data, and extracts a second feature of the observation target from image data time-synchronized with the acoustic data.
  • the first feature amount and the second feature amount are synthesized, the synthesized feature amount is learned, and an identification model that identifies the individual to be observed or the behavior of the observed object is generated, and the observed data is is input, and the individual to be observed or the behavior of the observed target is identified using the identification model.
  • FIG. 1 is a functional block diagram showing an example of the configuration of an observation evaluation device.
  • FIG. 2 is a diagram illustrating an example of a method for acquiring image data and acoustic data.
  • FIG. 3 is a flowchart showing an example of the process flow of the observation evaluation device.
  • FIG. 4 is a diagram showing an example of the hardware configuration of the observation evaluation device.
  • FIG. 1 is a functional block diagram showing an example of the configuration of the observation evaluation device 1 of this embodiment.
  • the observation evaluation device 1 shown in the figure is composed of a feature generation section 10 and an observation evaluation section 20.
  • the feature generation unit 10 extracts and synthesizes feature quantities from each of the image data and acoustic data of the observation target, and generates a discrimination model from the synthesized feature quantities.
  • the feature generation section 10 includes an image database 11, an acoustic database 12, feature extraction sections 13 and 14, a feature synthesis section 15, a discrimination model generation section 16, and a feature storage section 17.
  • the image database 11 and the acoustic database 12 store image data and acoustic data of the observation target.
  • image database 11 and the acoustic database 12 store image data and acoustic data of the observation target.
  • we photograph the whale with a camera mounted on an underwater drone and also perform acoustic measurements using an optical fiber sensor to obtain time-synchronized image data and acoustic data.
  • acoustic data are stored in the image database 11 and the acoustic database 12.
  • a still image may be photographed as image data within a period in which audio data is acquired.
  • the observation target may be photographed as a video, and frames cut out from the video may be used as image data.
  • FIG. 2 shows an example of a method for acquiring image data and acoustic data.
  • an underwater drone camera and a camera installed on a buoy take pictures of whales underwater, and an aerial drone camera takes pictures of whales that have surfaced on the water.
  • acoustic measurements will be performed using optical fiber sensors.
  • the feature extraction unit 13 extracts feature amounts from the image data stored in the image database 11.
  • the feature extraction unit 14 extracts feature amounts from the acoustic data stored in the acoustic database 12.
  • the feature extraction units 13 and 14 use Convolutional Neural Network (CNN) to extract feature amounts for each individual or behavior from time-synchronized image data and audio data.
  • the feature amount of the acoustic data may be a feature amount extracted by dividing the acoustic data at predetermined time intervals and arranged in chronological order.
  • the feature synthesis unit 15 synthesizes the feature amounts extracted by the feature extraction units 13 and 14 for each individual or behavior. For example, the feature synthesis unit 15 uses max-pooling to synthesize the feature quantity extracted from the image data and the feature quantity extracted from the acoustic data. Thereby, it is possible to obtain feature quantities obtained by multimodally analyzing the image and sound feature quantities for each individual or each action.
  • the discriminative model generation unit 16 learns the synthesized feature quantities and generates a discriminative model that identifies the feature quantities. For example, the identification model generation unit 16 uses long short-term memory (LSTM) to generate an identification model that identifies an individual or behavior to be observed. In identifying behavior, the amount of predation or the amount of excrement may be identified.
  • LSTM long short-term memory
  • the feature storage unit 17 stores the identification model generated by the identification model generation unit 16.
  • the identification model is used by the observation evaluation unit 20, which will be described later.
  • the observation evaluation unit 20 uses the identification model to calculate the relationship between sensing and observation data obtained through observation, and evaluates the behavior of the observation target.
  • the observation evaluation section 20 includes an input section 21 , a preprocessing section 22 , an evaluation section 23 , and an output section 24 .
  • the input unit 21 inputs sensing and observation data obtained through observation.
  • a means that allows continuous observation over a relatively wide range such as acoustic measurement, is used, and acoustic data is input as observation data.
  • the preprocessing unit 22 performs preprocessing of observation data.
  • the evaluation unit 23 extracts feature amounts from the observation data, calculates the relationship with the identification model stored in the feature storage unit 17, and evaluates the observation data. For example, the evaluation unit 23 uses an identification model to identify an individual or behavior to be observed, and evaluates observation data.
  • the output unit 24 outputs the evaluation results of the observation data. For example, the output unit 24 outputs the identification number of the observed individual, the number of times the observed individual defecates, and the amount of excretion obtained from the observation data.
  • the observation evaluation device 1 receives sensing and observation data in step S11, and preprocesses the input data in step S12.
  • the observation evaluation device 1 extracts feature amounts from the observation data, calculates the relationship between the extracted feature amounts and the identification model stored in the feature storage unit 17, and evaluates the observation data. For example, the observation evaluation device 1 identifies observation data using a discrimination model, and evaluates individual identification, the number of times of predation, the amount of predation, the number of times of excretion, or the amount of excretion.
  • step S14 the observation evaluation device 1 outputs the evaluation results of the observation data.
  • the observation evaluation device 1 of the present embodiment includes a feature extraction unit 14 that extracts feature quantities from acoustic data, a feature extraction unit 13 that extracts feature quantities from image data that is time-synchronized with the acoustic data, Observation data is input to a feature synthesis unit 15 that synthesizes extracted feature quantities, and a discrimination model generation unit 16 that learns the synthesized feature quantities to generate a discrimination model that identifies an observed individual or observed behavior.
  • the evaluation unit 23 extracts feature amounts using the identification model and identifies the individual to be observed or the behavior of the observed target using the identification model.
  • the observation evaluation device 1 of the present embodiment uses feature quantities obtained by multimodally analyzing feature quantities of acoustic measurement data and image observation data of an observation target, and continuously performs continuous measurement over a relatively wide range, such as acoustic measurement.
  • observation data obtained by means capable of observation it is possible to evaluate the situation of an observation target that is continuous in space and time. Further, when observation data observed in real time is input to the observation evaluation unit 20, the actual state of the activity of the observation target can be grasped in real time.
  • the observation evaluation device 1 described above includes, for example, a central processing unit (CPU) 901, a memory 902, a storage 903, a communication device 904, an input device 905, and an output device 906 as shown in FIG.
  • CPU central processing unit
  • a general-purpose computer system can be used.
  • the observation evaluation device 1 is realized by the CPU 901 executing a predetermined program loaded onto the memory 902.
  • This program can be recorded on a computer-readable recording medium such as a magnetic disk, optical disk, or semiconductor memory, or can be distributed via a network.

Landscapes

  • Engineering & Computer Science (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Chemical & Material Sciences (AREA)
  • Analytical Chemistry (AREA)
  • Biochemistry (AREA)
  • General Health & Medical Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • Immunology (AREA)
  • Pathology (AREA)
  • Testing Or Calibration Of Command Recording Devices (AREA)

Abstract

観測評価装置1は、音響データから特徴量を抽出する特徴抽出部14と、音響データと時間同期した画像データから特徴量を抽出する特徴抽出部13と、抽出した特徴量を合成する特徴合成部15と、合成した特徴量を学習して、観測対象の個体または観測対象の行動を識別する識別モデルを生成する識別モデル生成部16と、観測データを入力して特徴量を抽出し、識別モデルを用いて観測対象の個体または観測対象の行動を識別する評価部23を備える。

Description

観測評価装置、観測評価方法、およびプログラム
 本発明は、観測評価装置、観測評価方法、およびプログラムに関する。
 気候変動対策として温室効果ガス排出量の削減が重要な課題である。近年では、海洋生物の作用により大気中から海中へ吸収される二酸化炭素由来の炭素がブルーカーボンとして着目されており、大気への二酸化炭素排出総量を100%とした場合の38.6%を吸収すると言われている。昨今では、大型海洋哺乳類の二酸化炭素固定能力が森林に匹敵するなど注目されてきている。
 海洋生態系に着目すると、産業革命以降、人間活動により海洋生態系のバランスが変化している。特に、大型海洋哺乳類が大幅に減少している。その結果、生態系に固定される炭素量が減少していると指摘されている。
 気候変動の緩和については、現状、再生可能エネルギーの導入など工学的な手法がとられてきているが、地球の生態系の再生によって二酸化炭素吸収量を増大させるアプローチが有効であると考えられる。
Savoca, M.S., Czapanskiy, M.F., Kahane-Rapport, S.R. et al., "Baleen whale prey consumption based on high-resolution foraging measurements." Nature 599, 85-90 (2021)
 気候変動対策として、生態系の再生を通した二酸化炭素固定量を増加させるためには、時空間的に連続した観測によって、捕食量のみならず、排泄量を含めた物質循環を定量的に観測する必要がある。
 しかしながら、二酸化炭素固定量の推計では画像などを用いて捕食量などを予測するなどされているが、水中での情報通信の困難さから時空間的に連続した観測は行われていない。特に排泄物の量は定量的に観測されていない。静止画を用いて排泄量を推定する場合、海洋中を移動するクジラの近くを追跡する必要があり、長時間の観測が難しいという問題があった。排泄物を評価することで栄養塩循環やプランクトン生成メカニズムの把握や、人間活動の海洋汚染なども評価可能である。
 本発明は、上記に鑑みてなされたものであり、生物の時空間的に連続的なライフログを評価することを目的とする。
 本発明の一態様の観測評価装置は、音響データから観測対象の第1の特徴量を抽出する第1の特徴抽出部と、前記音響データと時間同期した画像データから前記観測対象の第2の特徴量を抽出する第2の特徴抽出部と、前記第1の特徴量と前記第2の特徴量を合成する特徴合成部と、合成した特徴量を学習して、前記観測対象の個体または前記観測対象の行動を識別する識別モデルを生成する識別モデル生成部と、観測データを入力して、前記識別モデルを用いて前記観測対象の個体または前記観測対象の行動を識別する観測評価部を備える。
 本発明の一態様の観測評価方法は、コンピュータが、音響データから観測対象の第1の特徴量を抽出し、前記音響データと時間同期した画像データから前記観測対象の第2の特徴量を抽出し、前記第1の特徴量と前記第2の特徴量を合成し、合成した特徴量を学習して、前記観測対象の個体または前記観測対象の行動を識別する識別モデルを生成し、観測データを入力して、前記識別モデルを用いて前記観測対象の個体または前記観測対象の行動を識別する。
 本発明によれば、生物の時空間的に連続的なライフログを評価できる。
図1は、観測評価装置の構成の一例を示す機能ブロック図である。 図2は、画像データと音響データの取得方法の一例を示す図である。 図3は、観測評価装置の処理の流れの一例を示すフローチャートである。 図4は、観測評価装置のハードウェア構成の一例を示す図である。
 以下、本発明の実施の形態について図面を用いて説明する。
 図1は、本実施形態の観測評価装置1の構成の一例を示す機能ブロック図である。同図に示す観測評価装置1は、特徴生成部10と観測評価部20で構成される。
 特徴生成部10は、観測対象の画像データと音響データのそれぞれから特徴量を抽出して合成するとともに、合成した特徴量から識別モデルを生成する。特徴生成部10は、画像データベース11、音響データベース12、特徴抽出部13、14、特徴合成部15、識別モデル生成部16、および特徴記憶部17を備える。
 画像データベース11と音響データベース12は、観測対象の画像データと音響データを格納する。例えば、クジラを対象とした場合、水中ドローンに搭載したカメラでクジラを撮影するとともに、光ファイバセンサを用いた音響計測を実施し、時刻を同期した画像データと音響データを取得して、画像データと音響データを画像データベース11と音響データベース12に格納する。画像と音響の時刻同期は、例えば、音響データが取得された期間内に画像データとして静止画が撮影されればよい。観測対象を動画で撮影し、動画から切り出したフレームを画像データとしてもよい。図2に画像データと音響データの取得方法の一例を示す。図2の例では、水中ドローンカメラとブイに設置したカメラで水中のクジラを撮影し、空中のドローンカメラで水面上に出たクジラを撮影する。同時に、光ファイバセンサを用いて音響計測を実施する。
 特徴抽出部13は、画像データベース11に格納された画像データから特徴量を抽出する。特徴抽出部14は、音響データベース12に格納された音響データから特徴量を抽出する。例えば、特徴抽出部13、14は、Convolutional Neural Network(CNN)を用い、時刻同期した、画像データおよび音響データのそれぞれから個体ごとまたは行動ごとの特徴量を抽出する。音響データの特徴量は、音響データを所定の時間間隔で区切って抽出した特徴量を時系列順に並べたものであってもよい。
 特徴合成部15は、個体ごとまたは行動ごとに、特徴抽出部13、14の抽出した特徴量を合成する。例えば、特徴合成部15は、max-poolingを用い、画像データから抽出した特徴量と音響データから抽出した特徴量を合成する。これにより、個体ごとまたは行動ごとに、画像と音響の特徴量をマルチモーダルに解析した特徴量を得ることができる。
 識別モデル生成部16は、合成した特徴量を学習して特徴量を識別する識別モデルを生成する。例えば、識別モデル生成部16は、Long short-term memory(LSTM)を用い、観測対象の個体や行動を識別する識別モデルを生成する。行動の識別において、捕食量または排泄物の量を識別してもよい。
 特徴記憶部17は、識別モデル生成部16の生成した識別モデルを記憶する。識別モデルは後述の観測評価部20によって利用される。
 観測評価部20は、識別モデルを用い、観測で得られたセンシング、観測データとの関連性を計算して、観測対象の行動を評価する。観測評価部20は、入力部21、前処理部22、評価部23、および出力部24を備える。
 入力部21は、観測で得られたセンシング、観測データを入力する。例えば、観測データの取得には、音響計測のような比較的広範囲に連続的な観測が可能な手段を用い、観測データとして音響データを入力する。
 前処理部22は、観測データの前処理を実施する。
 評価部23は、観測データから特徴量を抽出し、特徴記憶部17に格納した識別モデルとの関連性を計算して、観測データを評価する。例えば、評価部23は、識別モデルを用いて観測対象の個体または行動を識別し、観測データを評価する。
 出力部24は、観測データの評価結果を出力する。例えば、出力部24は、観測データから得られる観測対象の個体の識別番号、観測対象の排泄回数、排泄量を出力する。
 次に、図3のフローチャートを参照し、観測評価装置1を用いた観測評価の処理の一例について説明する。なお、識別モデルは生成済みであるものとする。
 観測評価装置1は、ステップS11にて、センシング、観測データを入力し、ステップS12にて、入力したデータの前処理を実施する。
 ステップS13にて、観測評価装置1は、観測データから特徴量を抽出し、抽出した特徴量と特徴記憶部17に記憶した識別モデルとの関連を計算し、観測データを評価する。例えば、観測評価装置1は、識別モデルを用いて観測データを識別し、個体の識別、捕食回数、捕食量、排泄回数、あるいは排泄量などを評価する。
 ステップS14にて、観測評価装置1は、観測データの評価結果を出力する。
 以上説明したように、本実施形態の観測評価装置1は、音響データから特徴量を抽出する特徴抽出部14と、音響データと時間同期した画像データから特徴量を抽出する特徴抽出部13と、抽出した特徴量を合成する特徴合成部15と、合成した特徴量を学習して、観測対象の個体または観測対象の行動を識別する識別モデルを生成する識別モデル生成部16と、観測データを入力して特徴量を抽出し、識別モデルを用いて観測対象の個体または観測対象の行動を識別する評価部23を備える。本実施形態の観測評価装置1は、観測対象の音響計測データと画像観測データの特徴量をマルチモーダルに解析することによって得られた特徴量を用い、例えば音響計測のような比較的広範囲に連続的な観測が可能な手段で得られた観測データを入力することで、時空間的に連続的な観測対象の状況を評価することができる。また、リアルタイムに観測される観測データを観測評価部20に入力した場合、観測対象の活動実態をリアルタイムに把握できる。
 上記説明した観測評価装置1には、例えば、図4に示すような、中央演算処理装置(CPU)901と、メモリ902と、ストレージ903と、通信装置904と、入力装置905と、出力装置906とを備える汎用的なコンピュータシステムを用いることができる。このコンピュータシステムにおいて、CPU901がメモリ902上にロードされた所定のプログラムを実行することにより、観測評価装置1が実現される。このプログラムは磁気ディスク、光ディスク、半導体メモリなどのコンピュータ読み取り可能な記録媒体に記録することも、ネットワークを介して配信することもできる。
 1 観測評価装置
 10 特徴生成部
 11 画像データベース
 12 音響データベース
 13、14 特徴抽出部
 15 特徴合成部
 16 識別モデル生成部
 17 特徴記憶部
 20 観測評価部
 21 入力部
 22 前処理部
 23 評価部
 24 出力部

Claims (5)

  1.  音響データから観測対象の第1の特徴量を抽出する第1の特徴抽出部と、
     前記音響データと時間同期した画像データから前記観測対象の第2の特徴量を抽出する第2の特徴抽出部と、
     前記第1の特徴量と前記第2の特徴量を合成する特徴合成部と、
     合成した特徴量を学習して、前記観測対象の個体または前記観測対象の行動を識別する識別モデルを生成する識別モデル生成部と、
     観測データを入力して特徴量を抽出し、前記識別モデルを用いて前記観測対象の個体または前記観測対象の行動を識別する観測評価部を備える
     観測評価装置。
  2.  請求項1に記載の観測評価装置であって、
     前記観測対象は海洋大型哺乳類であり、前記観測データとして音響データを入力する
     観測評価装置。
  3.  コンピュータが、
     音響データから観測対象の第1の特徴量を抽出し、
     前記音響データと時間同期した画像データから前記観測対象の第2の特徴量を抽出し、
     前記第1の特徴量と前記第2の特徴量を合成し、
     合成した特徴量を学習して、前記観測対象の個体または前記観測対象の行動を識別する識別モデルを生成し、
     観測データを入力して特徴量を抽出し、前記識別モデルを用いて前記観測対象の個体または前記観測対象の行動を識別する
     観測評価方法。
  4.  請求項3に記載の観測評価方法であって、
     前記観測対象は海洋大型哺乳類であり、前記観測データとして音響データを入力する
     観測評価方法。
  5.  請求項1または2に記載の観測評価装置の各部としてコンピュータを動作させるプログラム。
PCT/JP2022/021211 2022-05-24 2022-05-24 観測評価装置、観測評価方法、およびプログラム WO2023228266A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
PCT/JP2022/021211 WO2023228266A1 (ja) 2022-05-24 2022-05-24 観測評価装置、観測評価方法、およびプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2022/021211 WO2023228266A1 (ja) 2022-05-24 2022-05-24 観測評価装置、観測評価方法、およびプログラム

Publications (1)

Publication Number Publication Date
WO2023228266A1 true WO2023228266A1 (ja) 2023-11-30

Family

ID=88918640

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2022/021211 WO2023228266A1 (ja) 2022-05-24 2022-05-24 観測評価装置、観測評価方法、およびプログラム

Country Status (1)

Country Link
WO (1) WO2023228266A1 (ja)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20100046326A1 (en) * 2008-06-06 2010-02-25 Kongsberg Defence & Aerospace As Method and apparatus for detection and classification of a swimming object
US20200012283A1 (en) * 2018-07-05 2020-01-09 Vu Xuan Nguyen System and method for autonomous maritime vessel security and safety
CN111986683A (zh) * 2020-09-04 2020-11-24 国家深海基地管理中心 利用生物声学特征进行深海生态系统评价的方法及系统
CN112115822A (zh) * 2020-09-04 2020-12-22 西北工业大学 一种水下移动目标智能融合感知方法
US20210329892A1 (en) * 2020-04-27 2021-10-28 Ecto, Inc. Dynamic farm sensor system reconfiguration

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20100046326A1 (en) * 2008-06-06 2010-02-25 Kongsberg Defence & Aerospace As Method and apparatus for detection and classification of a swimming object
US20200012283A1 (en) * 2018-07-05 2020-01-09 Vu Xuan Nguyen System and method for autonomous maritime vessel security and safety
US20210329892A1 (en) * 2020-04-27 2021-10-28 Ecto, Inc. Dynamic farm sensor system reconfiguration
CN111986683A (zh) * 2020-09-04 2020-11-24 国家深海基地管理中心 利用生物声学特征进行深海生态系统评价的方法及系统
CN112115822A (zh) * 2020-09-04 2020-12-22 西北工业大学 一种水下移动目标智能融合感知方法

Similar Documents

Publication Publication Date Title
Besson et al. Towards the fully automated monitoring of ecological communities
Ditria et al. Automating the analysis of fish abundance using object detection: optimizing animal ecology with deep learning
Korpela et al. Machine learning enables improved runtime and precision for bio-loggers on seabirds
Roberts et al. Prediction of welfare outcomes for broiler chickens using Bayesian regression on continuous optical flow data
GILPIN et al. The use of digital video recorders in pollination biology
KR20180057785A (ko) 영상분석을 통한 어류 개체수 측정 시스템 및 그 측정방법
Du et al. Broodstock breeding behaviour recognition based on Resnet50-LSTM with CBAM attention mechanism
Eggleston et al. Improved fish counting method accurately quantifies high‐density fish movement in dual‐frequency identification sonar data files from a coastal wetland environment
Rocha et al. Iris photo-identification: a new methodology for the individual recognition of Tarentola geckos
Couch et al. Comparing coral colony surveys from in-water observations and structure-from-motion imagery shows low methodological bias
Zsebők et al. Acoustic species identification of shrews: twittering calls for monitoring
Kay et al. The Caltech Fish Counting dataset: a benchmark for multiple-object tracking and counting
Infantes et al. An automated work-flow for pinniped surveys: A new tool for monitoring population dynamics
WO2023228266A1 (ja) 観測評価装置、観測評価方法、およびプログラム
Chen et al. A lightweight detection method for the spatial distribution of underwater fish school quantification in intensive aquaculture
Auge et al. Developing a classification system to assign activity states to two species of freshwater turtles
JP2009175059A (ja) 環境負荷濃度変化判定装置及び方法
Heise et al. Acoustically tracking the comings and goings of bumblebees
Kent et al. Risk balancing through selective use of social and physical information: a case study in the humbug damselfish
Gorpincenko et al. Improving automated sonar video analysis to notify about jellyfish blooms
CN115170942A (zh) 一种声音与视觉多级融合的鱼类行为识别方法
Rahman et al. Application of machine learning techniques in aquaculture
Duhart et al. Deep learning for environmental sensing toward social wildlife database
Lopez-Marcano et al. Computer vision reveals fish behaviour through structural equation modelling of movement patterns
Fearey et al. Using signature whistles to investigate population dynamics of locally threatened bottlenose dolphins (Tursiops truncatus) in Namibia

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 22943671

Country of ref document: EP

Kind code of ref document: A1