JP7462265B2 - Automatic plankton detection method - Google Patents
Automatic plankton detection method Download PDFInfo
- Publication number
- JP7462265B2 JP7462265B2 JP2020064380A JP2020064380A JP7462265B2 JP 7462265 B2 JP7462265 B2 JP 7462265B2 JP 2020064380 A JP2020064380 A JP 2020064380A JP 2020064380 A JP2020064380 A JP 2020064380A JP 7462265 B2 JP7462265 B2 JP 7462265B2
- Authority
- JP
- Japan
- Prior art keywords
- plankton
- user terminal
- information
- image
- maximum width
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000001514 detection method Methods 0.000 title claims description 22
- 238000000034 method Methods 0.000 claims description 19
- 241000237502 Ostreidae Species 0.000 claims description 18
- 235000020636 oyster Nutrition 0.000 claims description 18
- 238000003860 storage Methods 0.000 claims description 13
- 238000003384 imaging method Methods 0.000 description 6
- 238000006243 chemical reaction Methods 0.000 description 5
- 230000006870 function Effects 0.000 description 5
- 230000005540 biological transmission Effects 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 241000238586 Cirripedia Species 0.000 description 2
- 241000243251 Hydra Species 0.000 description 2
- 241000237536 Mytilus edulis Species 0.000 description 2
- 238000009313 farming Methods 0.000 description 2
- QRXWMOHMRWLFEY-UHFFFAOYSA-N isoniazide Chemical compound NNC(=O)C1=CC=NC=C1 QRXWMOHMRWLFEY-UHFFFAOYSA-N 0.000 description 2
- 235000020638 mussel Nutrition 0.000 description 2
- 239000000758 substrate Substances 0.000 description 2
- 241000257465 Echinoidea Species 0.000 description 1
- 241000251511 Holothuroidea Species 0.000 description 1
- 241000237509 Patinopecten sp. Species 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000008569 process Effects 0.000 description 1
- 235000020637 scallop Nutrition 0.000 description 1
- 239000008399 tap water Substances 0.000 description 1
- 235000020679 tap water Nutrition 0.000 description 1
- 238000011179 visual inspection Methods 0.000 description 1
- 239000003643 water by type Substances 0.000 description 1
Images
Classifications
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02A—TECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE
- Y02A40/00—Adaptation technologies in agriculture, forestry, livestock or agroalimentary production
- Y02A40/80—Adaptation technologies in agriculture, forestry, livestock or agroalimentary production in fisheries management
- Y02A40/81—Aquaculture, e.g. of fish
Description
特許法第30条第2項適用 令和元年10月15日~18日開催のシーテック2019にて、口頭発表および展示場にて公開Article 30, paragraph 2 of the Patent Act applied. Oral presentation and exhibition at CEATEC 2019 held from October 15 to 18, 2019
本発明は、自動プランクトン検出方法に関する。 The present invention relates to an automatic plankton detection method.
現在の牡蠣の養殖方法では、牡蠣の付着期幼生が浮遊し始める夏の初め頃に、ホタテの貝殻等の付着基盤を海中に吊るし,幼生を基盤に付着させることにより種苗を確保している。従って、牡蠣の幼生が豊富な場所が特定できれば、効率よく牡蠣の種苗を確保し,養殖を開始することが可能になる。しかし、実際には、自治体の担当者や漁業者自身が、顕微鏡の拡大観察により計数しているのが現状であり、この方法では検出サンプル点数に限界がある。特に自然条件により付着期幼生の発生量が少ない採苗不良の年においては,検出サンプル点数を増やすことが課題であり,付着期幼生検出手法の効率化が求められている。 In the current oyster farming method, at the beginning of summer when the oyster attachment stage larvae start floating, attachment substrates such as scallop shells are suspended in the sea and the larvae are allowed to attach to the substrate to secure seedlings. Therefore, if a location with an abundance of oyster larvae can be identified, it will be possible to efficiently secure oyster seedlings and begin farming. However, in reality, local government officials and fishermen themselves count the oysters by magnifying them under a microscope, and this method has a limit to the number of samples that can be detected. In particular, in years when the number of attachment stage larvae is low due to natural conditions, it is a challenge to increase the number of detection samples, and there is a demand for more efficient methods of detecting attachment stage larvae.
本発明は、一般物体検出アルゴリズムを用いた新規な自動プランクトン検出方法を提供することを目的とする。 The present invention aims to provide a new automatic plankton detection method using a general object detection algorithm.
本発明の一実施態様は、コンピュータが、bounding boxを中心にした第1の所定のサイズの四角形の画像を学習データとして、一般物体検出アルゴリズムに学習させる第1の工程と、前記容器内の前記プランクトンを撮像した画像を、第2の所定のサイズの四角形に分割する第2の工程と、分割して得られた各の前記第2の所定のサイズの四角形内に前記プランクトンが存在するか、前記一般物体検出アルゴリズムに判断させる第3の工程と、を実行し、前記第2の工程において、隣り合う前記四角形の重なりの幅が、前記プランクトンの最大幅に基づいて定められている、容器中の特定のプランクトンを検出する方法である。前記プランクトンが、固着生物の浮遊幼生または付着期幼生であってもよい。前記プランクトンが、カキの眼点を有する付着期幼生であってもよい。一般物体検出アルゴリズムがR-CNN系モデル、SSD、またはYOLO系モデルであってもよい。前記四角形の重なりの前記幅が、前記プランクトンの前記最大幅の0.8倍以上1.2倍以下、0.9倍以上1.1倍以下、または0.95倍以上1.05倍以下であってもよい。 In one embodiment of the present invention, a computer executes a first step of training a general object detection algorithm using an image of a rectangle of a first predetermined size centered on a bounding box as training data, a second step of dividing an image of the plankton in the container into rectangles of a second predetermined size, and a third step of causing the general object detection algorithm to determine whether the plankton is present in each of the rectangles of the second predetermined size obtained by dividing the image. In the second step, the width of the overlap between adjacent rectangles is determined based on the maximum width of the plankton. The plankton may be a floating larva or a sessile larva of a sessile organism. The plankton may be an sessile larva having an eye spot of an oyster. The general object detection algorithm may be an R-CNN model, an SSD, or a YOLO model. The width of the overlap of the quadrangles may be 0.8 to 1.2 times, 0.9 to 1.1 times, or 0.95 to 1.05 times the maximum width of the plankton.
本発明の他の実施態様は、コンピュータに、上記いずれかの方法を実行させるプログラムである。このプログラムを、コンピュータによって読み取り可能に格納した記憶媒体も本発明の一実施態様である。 Another embodiment of the present invention is a program for causing a computer to execute any of the above methods. A storage medium storing this program in a computer-readable manner is also an embodiment of the present invention.
本発明によって、一般物体検出アルゴリズムを用いた新規な自動プランクトン検出方法を提供することができるようになった。 The present invention provides a novel automatic plankton detection method using a general object detection algorithm.
本発明の目的、特徴、利点、及びそのアイデアは、本明細書の記載により、当業者には明らかであり、本明細書の記載から、当業者であれば、容易に本発明を再現できる。以下に記載された発明の実施の形態及び具体的な実施例などは、本発明の好ましい実施態様を示すものであり、例示又は説明のために示されているのであって、本発明をそれらに限定するものではない。本明細書で開示されている本発明の意図並びに範囲内で、本明細書の記載に基づき、様々な改変並びに修飾ができることは、当業者にとって明らかである。 The objectives, features, advantages, and ideas of the present invention will be clear to those skilled in the art from the description in this specification, and those skilled in the art will be able to easily reproduce the present invention from the description in this specification. The embodiments and specific examples of the invention described below show preferred embodiments of the present invention, and are shown for illustrative or explanatory purposes, and do not limit the present invention thereto. It will be clear to those skilled in the art that various changes and modifications can be made based on the description in this specification within the intent and scope of the present invention disclosed in this specification.
==プランクトンの分布情報を管理するためのサーバ==
本開示のサーバ11は、第1のユーザ端末21と、第2のユーザ端末31と、に通信可能に接続している、1または複数種類のプランクトンの分布情報を管理するためのサーバ11であって、第1のユーザ端末21から、プランクトンの画像を受信するための第1の受信手段12と、画像からプランクトンを検出し、その数を解析するための解析手段14と、解析した結果を、その結果を示すIDに結び付けて記憶するための記憶手段16と、解析した結果を、IDとともに第2の端末に送信するための送信手段13と、を備えるサーバ11である。IDは、第1のユーザ端末21からプランクトンの画像とともに受信してもよく、第1のユーザ端末21からプランクトンの画像を受信後、サーバ11がその画像に付与してもよい。
==Server for managing plankton distribution information==
The
プランクトンの種類は特に限定されず、動物プランクトンであっても、植物プランクトンであってもよいが、付着期幼生であることが好ましく、例えば、カキ、フジツボ、イガイ、カメノテ、ヒドラなどが例示できるが、これらに限定されない。種類数も、1種類であっても複数種類であってもよい。 The type of plankton is not particularly limited, and may be zooplankton or phytoplankton, but it is preferable that the plankton be in the attached stage larvae, such as, but not limited to, oysters, barnacles, mussels, sea cucumbers, and hydra. The number of types may be one or more.
このサーバ11は、第1のユーザ端末21と通信可能に接続しており、第1のユーザ端末21から、プランクトンの画像を受信するための受信手段12を備える。プランクトンの画像とともに、プランクトンが採取された時間情報やプランクトンが採取された位置の位置情報を受信してもよい。サーバ11は、複数の第1のユーザ端末21と接続していてもよく、第1のユーザ端末21が様々な場所からデータを送ることによって、さまざまな地点のプランクトンの生息数を知ることができるようになる。
This
プランクトンの画像を受信したサーバ11は、解析手段14によって、その画像を解析し、視野にプランクトンが何個体いるかを計算する。この解析のためのプログラムは特に限定されないが、後述するプログラムを用いるのが好ましい。
The
得られたプランクトン数は、画像に付与されたIDと結び付けて、記憶手段16に記憶する。記憶手段16は特に限定されないが、不揮発性記憶装置が好ましく、ROM、フラッシュメモリ、磁気記憶装置(ハードディスクドライブ、フロッピーディスク、磁気テープなど)、光ディスクなどが例示できる。 The obtained plankton count is linked to the ID assigned to the image and stored in the storage means 16. There are no particular limitations on the storage means 16, but a non-volatile storage device is preferable, and examples of the storage means 16 include ROM, flash memory, magnetic storage devices (hard disk drives, floppy disks, magnetic tapes, etc.), and optical disks.
このサーバ11は、第2のユーザ端末31と通信可能に接続しており、第2のユーザ端末31に対して、解析した結果をIDと結び付けて送信するための送信手段13を備える。解析した結果と同時に、第1のユーザ端末21から送信されたプランクトンの画像、プランクトンが採取された時間情報、および/またはプランクトンが採取された位置の位置情報などを送信してもよい。このサーバ11は、受信手段12によって第2のユーザ端末31から解析結果の要求を受信し、それに従って、解析した結果を第2の端末31に送信してもよい。その際、位置情報や時間情報は、それらに対する要求を受信してそれに従って送信してもよく、自動的に、IDに紐づけられた位置情報や時間情報を送信してもよい。
This
第1のユーザ端末21から受信する時間情報の内容は特に限定されず、日だけであっても、日時であってもよい。
The content of the time information received from the
第1のユーザ端末21から受信する位置情報の内容は特に限定されず、緯度と経度のような数字であっても、地図上の位置であってもよい。地図上の位置の場合、第1のユーザ端末21とサーバ11が同じ地図情報を共有しており、その中の位置を特定した情報であってもよく、位置情報に、地図とその中の位置を示す情報が含まれていてもよい。
The content of the location information received from the
第2のユーザ端末31に送信する時間情報の内容は特に限定されず、日だけであっても、日時であってもよい。
The content of the time information sent to the
第2のユーザ端末31に送信する位置情報の内容は特に限定されず、緯度と経度のような数字であっても、地図上の位置であってもよい。地図上の位置の場合、第2のユーザ端末31とサーバ11が同じ地図情報を共有しており、その中の位置を特定した情報であってもよく、位置情報に、地図とその中の位置を示す情報が含まれていてもよい。
The content of the location information to be sent to the
第1のユーザ端末21から受信する位置情報と第2のユーザ端末31に送信する位置情報とは、同じデータであっても異なるデータであってもよいが、例えば、第1のユーザ端末21から緯度と経度を受信して、第2のユーザ端末31に地図上の位置で送信する場合など、受信する位置情報と送信する位置情報に含まれるデータが異なる場合、サーバ11は、受信する位置情報を送信する位置情報に変換する変換手段15(例えば、コンバータなど)を有する。
The location information received from the
本開示のサーバは、クラウドサーバであってもよい。 The server of the present disclosure may be a cloud server.
==第1のユーザ端末21==
第1のユーザ端末21は、上述したサーバ11と通信可能に接続しており、プランクトンの画像を撮像するための撮像装置22と、プランクトンの画像を前記サーバ11に送信するための送信手段23と、を備える。送信手段23は、プランクトンの画像とともに、プランクトンが採取された時間情報やプランクトンが採取された位置の位置情報を送信してもよい。時間情報や位置情報の詳細は、上述したとおりである。
The
撮像装置22は、カメラやビデオであってもよい。撮像装置22は、サーバ11が、プランクトンを特定できるレベルの解像度を持つ必要がある。レンズ口径が小さい場合など、ズーム機能を有することが好ましい。ズーム機能の機構は特に限定されないが、デジタルズームより光学ズームであるほうが好ましい。
The
第1のユーザ端末21は、コンピュータでもよいが、野外での使用を考えると、携帯電話機能を有するタブレットやスマートフォンが好ましく、携帯電話でもよい。
The
第1のユーザ端末21がサーバ11に送信する位置情報は、ユーザが入力しても、第1のユーザ端末21がGPS機能やWi-Fi受信手段などの位置特定手段を有し、自動でユーザ端末の現在地を特定してもよい。ユーザが入力したり、位置特定手段が特定したりして生じるオリジナルの位置情報と、第1のユーザ端末21は、オリジナルの位置情報をサーバ11に送る位置情報に変換する変換手段(例えば、コンバータなど)を有し、サーバ11に送る位置情報を、オリジナルの位置情報と異なるデータにしてもよい。
The location information transmitted by the
なお、サーバ11に送信した画像、時間情報、位置情報は、関連付けて、第1のユーザ端末21が有する記憶装置24に保存してもよい、
==第2のユーザ端末31==
第2のユーザ端末31は、サーバ11がプランクトンの画像を解析して得られた結果をIDとともに受信するための受信手段32と、解析した結果をIDとともに表示するための表示装置33と、を備える。受信手段32は、プランクトンの画像を解析して得られた結果とともに、プランクトンの画像、プランクトンが採取された時間情報、および/またはプランクトンが採取された位置の位置情報などを前記IDとともに受信してもよい。時間情報や位置情報の詳細は、上述したとおりである。
The image, time information, and location information transmitted to the
The
第2のユーザ端末31は、携帯電話でもよいが、表示の際、さまざまな表示方法を行うことを考えると、コンピュータ機能を有するタブレットやスマートフォンが好ましいが、PCでもよい。第2のユーザ端末31は第1のユーザ端末21と同一の機器であっても異なる機器であってもよい。
The
第2のユーザ端末31がサーバ11から受信する位置情報は、第1のユーザ端末21がサーバ11に送信した第1の位置情報であっても、サーバ11が第1の位置情報から変換した第2の位置情報であってもかまわない。第2のユーザ端末31が第1の位置情報を受信するとき、表示手段33で第1の位置情報を表示してもよく、変換装置35(コンバータなど)で第1の位置情報を第2の位置情報に変換して、表示手段33で第1の位置情報を表示してもよい。第2のユーザ端末31が第2の位置情報を受信するとき、表示手段33で第2の位置情報を表示してもよく、変換装置35で第2の位置情報を第3の位置情報に変換して、表示手段33で第3の位置情報を表示してもよい。
The location information that the
例えば、第2のユーザ端末31がサーバ11から緯度と経度の情報を得て、表示手段33で、IDとともに解析した結果と緯度と経度の数値を表示してもよい。また、緯度と経度の数値を地図上の位置に変換し、表示手段33で、解析した結果と地図上の位置を表示してもよい。あるいは、緯度と経度の数値を地図上の位置に変換し、表示手段33で、解析した結果と緯度と経度の数値を表示し、緯度と経度の数値をクリックすると、地図上の位置が現れるようにしてもよい。逆に、まずプランクトンを採取した位置が地図上で示され、地図上での位置をクリックすると、その緯度と経度が現れるようにしてもよい。表示手段33における表示方法は特に限定されず、ID、解析結果、プランクトンを採取した時刻、プランクトンを採取した位置の緯度と経路などを表にして表してもよい。
For example, the
なお、第2のユーザ端末31がサーバ11から受信したプランクトンの画像、解析結果、時間情報、および/または位置情報は、関連付けて、第2のユーザ端末31が有する記憶装置34に保存してもよい。
The plankton images, analysis results, time information, and/or location information received by the
==プランクトンの分布情報を管理するためのシステム==
本実施形態にかかるシステムは、プランクトンの分布情報を管理するためのシステムであって、サーバと、第1のユーザ端末と、第2のユーザ端末を含む。サーバと、第1のユーザ端末と、第2のユーザ端末の個々の詳細は、上述したとおりである。
==System for managing plankton distribution information==
The system according to the present embodiment is a system for managing plankton distribution information, and includes a server, a first user terminal, and a second user terminal. The details of the server, the first user terminal, and the second user terminal are as described above.
このシステムは、複数の第1のユーザ端末と複数の第2のユーザ端末とが、サーバに通信可能に接続していてもよい。それによって、複数の第1のユーザ端末からアップロードされた、複数の地点におけるプランクトンの分布情報を一度に管理することができるようになり、複数の第2のユーザ端末の条件を満たせば、どこからでもプランクトンの分布情報をダウンロードできるようになる。 In this system, multiple first user terminals and multiple second user terminals may be communicatively connected to a server. This makes it possible to simultaneously manage plankton distribution information at multiple locations uploaded from multiple first user terminals, and to download plankton distribution information from anywhere if the conditions of multiple second user terminals are met.
==プランクトンの分布情報の利用==
プランクトンの分布情報を利用するための方法の一例として、図1のBのシステムを用いた方法を以下に詳細に解説する。なお、本実施形態では、第1のユーザ端末21の機能と第2のユーザ端末31の機能とは、一つのユーザアプリで実行されるものとする。そのインターフェイスは、例えば、図2に示すようなもので、情報提供と情報取得を選択できるようになっている。
==Utilization of plankton distribution information==
As an example of a method for utilizing plankton distribution information, a method using the system shown in FIG. 1B will be described in detail below. In this embodiment, the functions of the
まず、プランクトンの分布情報を提供するユーザは、第1のユーザ端末21を用い、撮像装置22で、プランクトンの画像を撮像する。そして、ユーザアプリを用いて、「採取地点データ取得クラウドへのデータ送信」ボタンを押し、情報提供操作を行う。図3にユーザアプリの次画面を示す。画面上で、「採取地点データ取得」ボタンを押すと、GPS機能によって、採取地点の緯度及び経度を測定され、自動で座標が入力される。同時に、時計機能によって、操作時の日時が入力される。「画像登録」ボタンを押して、「参照」ボタンを押して、画像を選択し、「登録」ボタンを押して、画像を登録する。最後に、「登録済」の地点IDの左にあるチェックボックスにチェックを入れ,画面下の「クラウドへ送信」ボタンを押して、サーバにこれらの情報をアップロードする。
First, a user providing plankton distribution information uses the
サーバが、第1のユーザ端末21から、プランクトンの画像を受信すると、画像からプランクトン検出プログラムを用い、プランクトンを検出し、その数を測定する。その数と、第1のユーザ端末21から受信した時間情報と位置情報を、送信されたIDに紐づけて、記憶手段16に記憶する。
When the server receives an image of plankton from the
プランクトンの分布情報を求めるユーザは、第2のユーザ端末31で、ユーザアプリを用いて、図2の「検出結果表示」ボタンを押し、情報要求操作を行う。ユーザアプリは、サーバに記憶されたプランクトンの数と時間情報と位置情報を得て、データを解析し、以下に説明するような表示でデータを提供する。次画面でプランクトンの分布情報を得たい地域を選択し、その中で特定のエリアの情報を得たい場合、エリアモードボタンを押し、情報を得たい日時のボタンを押す(図4A)と、情報の存在する地点が、点で表示され、選択できるエリアが表示される(図4B)。情報を得たいエリアをクリックすると、そのエリアで入力された情報がリストとして表示される(図4C)。過去の積算情報を得たい場合、「1週間前まで積算」ボタンを押すと、1週間前までのデータを重ねてみることができる(図4D)。特定の場所の情報が得たければ、ポイントモードボタンを押し(図5A)、情報のある点をクリックする(図5B)。すると、その位置で入力された情報が得られる(図5C)。過去の積算情報を得たい場合、「1週間前まで積算」ボタンを押すと、1週間前までのデータを重ねてみることができる(図5D)。
A user who wants to obtain plankton distribution information uses the user application on the
==プランクトン検出方法==
本実施形態にかかるプランクトン検出方法は、コンピュータが、物体の位置を表すbounding box (bbox)を中心にした第1の所定のサイズの四角形を切り取った画像を学習データとして、一般物体検出アルゴリズムに学習させる第1の工程と、容器内のプランクトンを撮像した画像を、第2の所定のサイズの四角形に分割する第2の工程と、分割して得られた各の第2の所定のサイズの四角形内にプランクトンが存在するか判断させる第3の工程と、を行う方法であって、第2の工程において、隣り合う四角形の重なりの幅が、プランクトンの最大幅とほぼ同じである、容器中の特定のプランクトンを検出する方法である。
==How to detect plankton==
The plankton detection method of this embodiment is a method that performs the following steps: a first step in which a computer trains a general object detection algorithm using an image of a rectangle of a first predetermined size centered on a bounding box (bbox) that represents the position of the object as training data; a second step in which an image of plankton in a container is divided into rectangles of a second predetermined size; and a third step in which the computer determines whether plankton is present in each of the rectangles of the second predetermined size obtained by dividing the image; in the second step, the method detects specific plankton in a container where the overlap width of adjacent rectangles is approximately the same as the maximum width of the plankton.
第1の工程において、物体の位置を表すbounding box (bbox)を中心にした第1の所定のサイズの四角形を切り取った画像を作製する。ここで、プランクトンを正確に検出するため、所定のサイズは、プランクトン全体が入る大きさ以上であって,一般物体検出アルゴリズムが処理できる大きさ以下であればよい。第1の所定のサイズの四角形は、好ましくはプランクトンの最大幅の1.3倍より大きい正方形、より好ましくは、1.5倍より大きい正方形、さらに好ましくは2.0倍より大きい正方形であり、好ましくはプランクトンの最大幅の6.0倍より小さい正方形、より好ましくは、4.5倍より小さい正方形、さらに好ましくは4.0倍より小さい正方形である。あるいは、短辺がプランクトンの最大幅の1.0倍より大きい長方形、好ましくは、1.3倍より大きい長方形、より好ましくは、1.5倍より大きい長方形、さらに好ましくは2.0倍より大きい長方形であり、好ましくは長辺がプランクトンの最大幅の6.0倍より小さい長方形、より好ましくは、4.5倍より小さい長方形、さらに好ましくは4.0倍より小さい長方形である。本明細書で、プランクトンの最大幅というのは、画像上でプランクトンを横切る直線をひいたときに、プランクトンともっとも重なりが長くなる場合の、プランクトンと直線が重なっている部分の線分の長さを言う。また、プランクトンの最大高さというのは、プランクトンの最大幅となる線分に垂直な直線のうち、プランクトンともっとも重なりが長くなる場合の、重なっている部分の線分の長さを言う。 In the first step, an image is created by cutting out a rectangle of a first predetermined size centered on a bounding box (bbox) that represents the position of the object. Here, in order to accurately detect plankton, the predetermined size may be a size that is equal to or larger than the size that the entire plankton can be contained in, and equal to or smaller than the size that the general object detection algorithm can process. The rectangle of the first predetermined size is preferably a square that is larger than 1.3 times the maximum width of the plankton, more preferably a square that is larger than 1.5 times, and even more preferably a square that is larger than 2.0 times, and preferably a square that is smaller than 6.0 times the maximum width of the plankton, more preferably a square that is smaller than 4.5 times, and even more preferably a square that is smaller than 4.0 times. Alternatively, it is a rectangle whose short side is larger than 1.0 times the maximum width of the plankton, preferably a rectangle that is larger than 1.3 times, more preferably a rectangle that is larger than 1.5 times, and even more preferably a rectangle that is larger than 2.0 times, and preferably a rectangle whose long side is smaller than 6.0 times the maximum width of the plankton, more preferably a rectangle that is smaller than 4.5 times, and even more preferably a rectangle that is smaller than 4.0 times. In this specification, the maximum width of the plankton refers to the length of the line segment where the plankton overlaps with the line drawn across the plankton on the image, when the line segment overlaps the plankton for the longest time. Additionally, the maximum height of the plankton refers to the length of the line segment where the plankton overlaps with the line perpendicular to the line segment that is the maximum width of the plankton, when the line segment overlaps the plankton for the longest time.
検出対象とするプランクトンの学習に使用するbounding box (bbox)の数は特に限定されないが、1000~2000個が好ましく、2000~3000個がより好ましく、3000個~4000個がさらに好ましい。画像には、プランクトンの向きがランダムに映っているのが好ましい。 The number of bounding boxes (bboxes) used to learn the plankton to be detected is not particularly limited, but is preferably 1000 to 2000, more preferably 2000 to 3000, and even more preferably 3000 to 4000. It is preferable that the orientation of the plankton is randomly shown in the image.
プランクトンの種類は特に限定されず、動物プランクトンであっても、植物プランクトンであってもよいが、固着生物の浮遊幼生または付着期幼生であることが好ましく、例えば、カキ、フジツボ、イガイ、カメノテ、ヒドラなどが例示できるが、これらに限定されない。種類数も、1種類であっても複数種類であってもよい。ただし、眼点があるほうが、一般物体検出アルゴリズムによる検出力が高まるので好ましい。 The type of plankton is not particularly limited, and may be zooplankton or phytoplankton, but is preferably a floating or attached larva of a sessile organism, such as, but not limited to, oysters, barnacles, mussels, sea urchins, and hydra. The number of types may be one or more. However, it is preferable to have eyespots, as this increases the detection power of the general object detection algorithm.
用いる一般物体検出アルゴリズムは特に限定されないが、R-CNN系モデル(例えば、Fast R-CNN、Faster R-CNN、Mask R-CNN)、SSD、またはYOLO系モデル(例えば、YOLO v1~v3)が好ましい。 The general object detection algorithm used is not particularly limited, but an R-CNN-based model (e.g., Fast R-CNN, Faster R-CNN, Mask R-CNN), SSD, or a YOLO-based model (e.g., YOLO v1 to v3) is preferred.
第2の工程において、測定する容器内のプランクトンを撮像した画像を、第2の所定のサイズの四角形に分割する。四角形の形状は特に限定されないが、対辺が平行であればよく、平行四辺形やひし形でもよいが、長方形がより好ましく、正方形がさらに好ましい。各辺の長さは、プランクトンの最大幅の1.0倍より大きいのが好ましく、1.5倍より大きいのがより好ましく、2.0倍より大きいのがさらに好ましく、最大幅の12.0倍より小さいのが好ましく、9.0倍より小さいのがより好ましく、6.0倍より小さいのがさらに好ましい。そして、四角形を平行な辺にそってずらして並べることが好ましく、4辺のいずれにおいても、隣り合う四角形の重なりの幅が、プランクトンの最大幅に基づいて定められ、最大幅とほぼ同じであるのが好ましい。それによって、すべてのプランクトンについてプランクトン全体がどこかの四角形に入るようになる。隣り合う四角形の重なりの幅が、プランクトンの最大幅より小さいと、どの四角形にも全体が入らないプランクトンが増え、プランクトンの最大幅より大きいと、複数の四角形に入るプランクトンが増える。ここで、隣り合う四角形の重なりの幅とは、四角形を平行な辺にそってずらしたときの、ずらした長さのことを言うものとする。具体的には、この隣り合う四角形の重なりの幅がプランクトンの最大幅の0.8~1.2倍であることが好ましく、0.9~1.1倍であることがより好ましく、0.95~1.05倍であることがさらに好ましい。 In the second step, the image of the plankton in the container to be measured is divided into rectangles of a second predetermined size. The shape of the rectangle is not particularly limited, but it is sufficient that the opposite sides are parallel. It may be a parallelogram or a rhombus, but a rectangle is more preferable, and a square is even more preferable. The length of each side is preferably greater than 1.0 times the maximum width of the plankton, more preferably greater than 1.5 times, and even more preferably greater than 2.0 times, preferably less than 12.0 times the maximum width, more preferably less than 9.0 times, and even more preferably less than 6.0 times. It is preferable to arrange the rectangles by shifting them along the parallel sides, and the width of the overlap between adjacent rectangles on any of the four sides is determined based on the maximum width of the plankton and is preferably approximately the same as the maximum width. As a result, for all plankton, the entire plankton is contained in some rectangle. If the overlap width of adjacent rectangles is smaller than the maximum width of the plankton, there will be more plankton that do not entirely fit into any rectangle, and if it is larger than the maximum width of the plankton, there will be more plankton that fit into multiple rectangles. Here, the overlap width of adjacent rectangles refers to the length of shift when the rectangles are shifted along their parallel sides. Specifically, the overlap width of adjacent rectangles is preferably 0.8 to 1.2 times the maximum width of the plankton, more preferably 0.9 to 1.1 times, and even more preferably 0.95 to 1.05 times.
第3の工程において、分割して得られた各の第2の所定のサイズの四角形内にプランクトンが存在するか、先に学習させた一般物体検出アルゴリズムに判断させる。こうして、プランクトンの数をコンピュータに測定させることができるようになる。複数種類のプランクトンが存在するときは、各々のプランクトンの数を測定できる。 In the third step, the previously trained general object detection algorithm is made to determine whether plankton is present within each of the second predetermined size rectangles obtained by division. In this way, it becomes possible to have the computer measure the number of plankton. When multiple types of plankton are present, the number of each type of plankton can be measured.
江田島周辺海域で、プランクトンネットで採取し、水道水を加えて活動を停止させ、沈降する順に分画を回収した。マガキ幼生は他のプランクトンに比べると重いため、早く沈降した分画のプランクトンを回収することによって、ほぼマガキ幼生だけを採取した。シャーレに入れて、デジタルカメラを用い、眼点が目で認識できる程度に光学ズームで拡大して写真撮影を行った。図6にその一例を示す。 Plankton were collected from the waters around Etajima using a plankton net, tap water was added to stop their activity, and the fractions were collected in the order of their sinking. Because oyster larvae are heavier than other plankton, by collecting the fraction of plankton that sank quickly, almost only oyster larvae were collected. They were placed in a petri dish and photographed with a digital camera, enlarging with optical zoom until the eyespots could be seen with the naked eye. An example is shown in Figure 6.
2992×2992px(7.6×7.6mm)の大きさの160画像について、図7に示すように、(0)最大幅が270μm以上で眼点のあるマガキ幼生(1)最大幅が270μm以上で眼点なし(2)最大幅が210~270μm以上、の3つのグループで目視で確認したところ、(0)1561個体(1)1432個体(2)2536個体特定できた。この画像ファイルを15°ずつずらし、さらに反転することによって、画像数を7680画像とし、各画像ファイルから、bboxを基点に300×300pxの画像を切り取ることによって、264640枚の画像ファイルを作製した。SSD300に対し、これを学習データとして、32枚ずつ24000回入力するのを1サイクルとし、3サイクル入力して学習させた。学習時間は、GPUを用いて、約6.6日であった。 As shown in Figure 7, 160 images measuring 2992 x 2992px (7.6 x 7.6mm) were visually checked into three groups: (0) oyster larvae with eyespots and a maximum width of 270μm or more, (1) oyster larvae without eyespots and a maximum width of 270μm or more, and (2) oyster larvae with a maximum width of 210-270μm or more. (0) 1561 individuals, (1) 1432 individuals, and (2) 2536 individuals were identified. The image files were shifted by 15° and then inverted to make the number of images 7680, and 264640 image files were created by cutting out 300 x 300px images from each image file with the bbox as the base point. This was used as learning data for the SSD300, and 32 images were input 24000 times, one cycle, for three cycles of input. The learning time was about 6.6 days using a GPU.
学習に使用していない同じ大きさの画像に対し、300×300pxの正方形を150pxずつずらして切り取り、1画像につき、361枚の画像にして各画像ごとに最大幅が270μm以上で眼点のあるマガキ幼生を検出させた(閾値はConfidence:0.6,non_maximum_suppression:0.4)ところ、 precisionは0.97、recallは0.96となった。なお、precision およびrecallは、両方とも物体検出の評価指標であって、precisionは、最大幅が270μm以上で眼点のあるマガキ幼生と検出した幼生のうち、正しかったものの割合のことであり、recallは、画像に写る270μm以上で眼点のあるマガキ幼生のうち,正しく検出されるものの割合のことである。 For images of the same size that were not used for learning, 300 x 300 px squares were cut out, shifted by 150 px each, and 361 images were created for each image. For each image, oyster larvae with eyespots and a maximum width of 270 μm or more were detected (thresholds were Confidence: 0.6, non_maximum_suppression: 0.4). The precision was 0.97 and the recall was 0.96. Note that precision and recall are both evaluation indices for object detection. Precision is the proportion of oyster larvae with eyespots and a maximum width of 270 μm or more that were correctly detected, and recall is the proportion of oyster larvae with eyespots and a maximum width of 270 μm or more that were correctly detected, among those detected.
このように、本開示の方法によって、十分な精度を保って目的のプランクトンの数を測定できる。 In this way, the method disclosed herein makes it possible to measure the number of target plankton with sufficient accuracy.
11 サーバ
12 受信手段
13 送信手段
14 解析手段
15 変換手段
16 記憶手段
21 第1のユーザ端末
22 撮像手段
23 送信手段
24 記憶手段
31 第2のユーザ端末
32 受信手段
33 表示手段
34 記6手段
35 変換手段
REFERENCE SIGNS
Claims (8)
bounding boxを中心にした第1の所定のサイズの四角形の画像を学習データとして、一般物体検出アルゴリズムに学習させる第1の工程と、
容器内のプランクトンを撮像した画像を、第2の所定のサイズの四角形に分割する第2の工程と、
分割して得られた各の前記第2の所定のサイズの四角形内に前記プランクトンが存在するか、前記一般物体検出アルゴリズムに判断させる第3の工程と、
を行い、
前記第2の工程において、隣り合う前記四角形の重なりの幅が、前記プランクトンの最大幅に基づいて定められ、
前記四角形の重なりの前記幅が、前記プランクトンの前記最大幅の0.8倍以上1.2倍以下である、容器中の特定のプランクトンを検出する方法。 The computer
A first step of training a generic object detection algorithm using a rectangular image of a first predetermined size centered on a bounding box as training data;
A second step of dividing the image of the plankton in the container into rectangles of a second predetermined size;
A third step of causing the generic object detection algorithm to determine whether the plankton is present within each of the quadrangles of the second predetermined size obtained by the division;
Do the following:
In the second step, the width of the overlap between the adjacent rectangles is determined based on the maximum width of the plankton ;
A method for detecting specific plankton in a container , wherein the width of the overlap of the rectangles is greater than or equal to 0.8 times and less than or equal to 1.2 times the maximum width of the plankton.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020064380A JP7462265B2 (en) | 2020-03-31 | 2020-03-31 | Automatic plankton detection method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020064380A JP7462265B2 (en) | 2020-03-31 | 2020-03-31 | Automatic plankton detection method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021158995A JP2021158995A (en) | 2021-10-11 |
JP7462265B2 true JP7462265B2 (en) | 2024-04-05 |
Family
ID=78001519
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020064380A Active JP7462265B2 (en) | 2020-03-31 | 2020-03-31 | Automatic plankton detection method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7462265B2 (en) |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20050126505A1 (en) | 2003-12-10 | 2005-06-16 | Gallager Scott M. | Optical method and system for rapid identification of multiple refractive index materials using multiscale texture and color invariants |
WO2015133187A1 (en) | 2014-03-04 | 2015-09-11 | 富士フイルム株式会社 | Cell imaging control device, method and program |
US20150356725A1 (en) | 2013-01-28 | 2015-12-10 | Sinvent As | System and method for counting zooplankton |
WO2019176048A1 (en) | 2018-03-15 | 2019-09-19 | オリンパス株式会社 | Cell image processing device |
CN110501278A (en) | 2019-07-10 | 2019-11-26 | 同济大学 | A kind of method for cell count based on YOLOv3 and density estimation |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2960327B2 (en) * | 1995-03-30 | 1999-10-06 | 神奈川県 | Biological image processing method and processing system for fisheries |
-
2020
- 2020-03-31 JP JP2020064380A patent/JP7462265B2/en active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20050126505A1 (en) | 2003-12-10 | 2005-06-16 | Gallager Scott M. | Optical method and system for rapid identification of multiple refractive index materials using multiscale texture and color invariants |
US20150356725A1 (en) | 2013-01-28 | 2015-12-10 | Sinvent As | System and method for counting zooplankton |
JP2016506726A (en) | 2013-01-28 | 2016-03-07 | シー − フィード エーエス | System and method for counting zooplankton |
WO2015133187A1 (en) | 2014-03-04 | 2015-09-11 | 富士フイルム株式会社 | Cell imaging control device, method and program |
WO2019176048A1 (en) | 2018-03-15 | 2019-09-19 | オリンパス株式会社 | Cell image processing device |
CN110501278A (en) | 2019-07-10 | 2019-11-26 | 同济大学 | A kind of method for cell count based on YOLOv3 and density estimation |
Also Published As
Publication number | Publication date |
---|---|
JP2021158995A (en) | 2021-10-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Walden-Schreiner et al. | Digital footprints: Incorporating crowdsourced geographic information for protected area management | |
Goetze et al. | A field and video analysis guide for diver operated stereo‐video | |
Jonker et al. | Surveys of benthic reef communities using underwater digital photography and counts of juvenile corals | |
Seibert et al. | Virtual staff gauges for crowd-based stream level observations | |
Rosel et al. | Photo-identification capture-mark-recapture techniques for estimating abundance of bay, sound and estuary populations of Bottlenose dolphins along the US East Coast and Gulf of Mexico, a workshop report | |
Louhaichi et al. | Digital charting technique for monitoring rangeland vegetation cover at local scale. | |
Sequeira et al. | Error and bias in size estimates of whale sharks: implications for understanding demography | |
Dunn et al. | Un-crewed aerial vehicle population survey of three sympatrically breeding seabird species at Signy Island, South Orkney Islands | |
Pierce et al. | Photographic identification of sharks | |
Silva et al. | Ecological study and risk mapping of leishmaniasis in an endemic area of Brazil based on a geographical information systems approach. | |
Harvey et al. | The BRUVs workshop–An Australia-wide synthesis of baited remote underwater video data to answer broad-scale ecological questions about fish, sharks and rays | |
Psarros et al. | INFORMATION TECHNOLOGY AND ARCHAEOLOGICAL EXCAVATIONS: A BRIEF OVERVIEW. | |
de la Torre Cerro et al. | A review of the methods for studying biotic interactions in phenological analyses | |
JP7462265B2 (en) | Automatic plankton detection method | |
Karume et al. | Use of remote sensing for population number determination | |
McKenzie | Guidelines for the rapid assessment of seagrass habitats in the western Pacific | |
JP2021158994A (en) | Server for managing distribution information of plankton, user terminal, and system with server and user terminal | |
Bernhardt et al. | An evaluation of image analysis at benthic sites based on color segmentation | |
Domozi et al. | Surveying private pools in suburban areas with neural network based on drone photos | |
Lewis et al. | Size structure of broadnose sevengill sharks (Notorynchus cepedianus) in Sawdust Bay, Rakiura/Stewart Island, estimated using underwater stereo-photogrammetry | |
JP7132860B2 (en) | VIDEO INFORMATION MANAGEMENT SYSTEM AND VIDEO INFORMATION MANAGEMENT METHOD | |
West et al. | MetaTree: augmented reality narrative explorations of urban forests | |
da Silva et al. | Image dataset of urine test results on petri dishes for deep learning classification | |
Florisson | Can recreational fishers provide an effective means of monitoring artificial reefs? | |
Lawas | Complementary use of aiborne LiDAR and terrestrial laser scanner to assess above ground biomass/carbon in Ayer Hitam tropical rain forest reserve |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A80 | Written request to apply exceptions to lack of novelty of invention |
Free format text: JAPANESE INTERMEDIATE CODE: A80 Effective date: 20200430 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20230116 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230808 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20230810 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20231004 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20231201 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20240305 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240315 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7462265 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |