JP7462265B2 - Automatic plankton detection method - Google Patents

Automatic plankton detection method Download PDF

Info

Publication number
JP7462265B2
JP7462265B2 JP2020064380A JP2020064380A JP7462265B2 JP 7462265 B2 JP7462265 B2 JP 7462265B2 JP 2020064380 A JP2020064380 A JP 2020064380A JP 2020064380 A JP2020064380 A JP 2020064380A JP 7462265 B2 JP7462265 B2 JP 7462265B2
Authority
JP
Japan
Prior art keywords
plankton
user terminal
information
image
maximum width
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020064380A
Other languages
Japanese (ja)
Other versions
JP2021158995A (en
Inventor
敏治 柳川
昭史 中村
儀一郎 林
和広 吉田
義雄 林
享子 神谷
桂司 山下
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Chugoku Electric Power Co Inc
Sessile Research Corp
Original Assignee
Chugoku Electric Power Co Inc
Sessile Research Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Chugoku Electric Power Co Inc, Sessile Research Corp filed Critical Chugoku Electric Power Co Inc
Priority to JP2020064380A priority Critical patent/JP7462265B2/en
Publication of JP2021158995A publication Critical patent/JP2021158995A/en
Application granted granted Critical
Publication of JP7462265B2 publication Critical patent/JP7462265B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02ATECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE
    • Y02A40/00Adaptation technologies in agriculture, forestry, livestock or agroalimentary production
    • Y02A40/80Adaptation technologies in agriculture, forestry, livestock or agroalimentary production in fisheries management
    • Y02A40/81Aquaculture, e.g. of fish

Description

特許法第30条第2項適用 令和元年10月15日~18日開催のシーテック2019にて、口頭発表および展示場にて公開Article 30, paragraph 2 of the Patent Act applied. Oral presentation and exhibition at CEATEC 2019 held from October 15 to 18, 2019

本発明は、自動プランクトン検出方法に関する。 The present invention relates to an automatic plankton detection method.

現在の牡蠣の養殖方法では、牡蠣の付着期幼生が浮遊し始める夏の初め頃に、ホタテの貝殻等の付着基盤を海中に吊るし,幼生を基盤に付着させることにより種苗を確保している。従って、牡蠣の幼生が豊富な場所が特定できれば、効率よく牡蠣の種苗を確保し,養殖を開始することが可能になる。しかし、実際には、自治体の担当者や漁業者自身が、顕微鏡の拡大観察により計数しているのが現状であり、この方法では検出サンプル点数に限界がある。特に自然条件により付着期幼生の発生量が少ない採苗不良の年においては,検出サンプル点数を増やすことが課題であり,付着期幼生検出手法の効率化が求められている。 In the current oyster farming method, at the beginning of summer when the oyster attachment stage larvae start floating, attachment substrates such as scallop shells are suspended in the sea and the larvae are allowed to attach to the substrate to secure seedlings. Therefore, if a location with an abundance of oyster larvae can be identified, it will be possible to efficiently secure oyster seedlings and begin farming. However, in reality, local government officials and fishermen themselves count the oysters by magnifying them under a microscope, and this method has a limit to the number of samples that can be detected. In particular, in years when the number of attachment stage larvae is low due to natural conditions, it is a challenge to increase the number of detection samples, and there is a demand for more efficient methods of detecting attachment stage larvae.

本発明は、一般物体検出アルゴリズムを用いた新規な自動プランクトン検出方法を提供することを目的とする。 The present invention aims to provide a new automatic plankton detection method using a general object detection algorithm.

本発明の一実施態様は、コンピュータが、bounding boxを中心にした第1の所定のサイズの四角形の画像を学習データとして、一般物体検出アルゴリズムに学習させる第1の工程と、前記容器内の前記プランクトンを撮像した画像を、第2の所定のサイズの四角形に分割する第2の工程と、分割して得られた各の前記第2の所定のサイズの四角形内に前記プランクトンが存在するか、前記一般物体検出アルゴリズムに判断させる第3の工程と、を実行し、前記第2の工程において、隣り合う前記四角形の重なりの幅が、前記プランクトンの最大幅に基づいて定められている、容器中の特定のプランクトンを検出する方法である。前記プランクトンが、固着生物の浮遊幼生または付着期幼生であってもよい。前記プランクトンが、カキの眼点を有する付着期幼生であってもよい。一般物体検出アルゴリズムがR-CNN系モデル、SSD、またはYOLO系モデルであってもよい。前記四角形の重なりの前記幅が、前記プランクトンの前記最大幅の0.8倍以上1.2倍以下、0.9倍以上1.1倍以下、または0.95倍以上1.05倍以下であってもよい。 In one embodiment of the present invention, a computer executes a first step of training a general object detection algorithm using an image of a rectangle of a first predetermined size centered on a bounding box as training data, a second step of dividing an image of the plankton in the container into rectangles of a second predetermined size, and a third step of causing the general object detection algorithm to determine whether the plankton is present in each of the rectangles of the second predetermined size obtained by dividing the image. In the second step, the width of the overlap between adjacent rectangles is determined based on the maximum width of the plankton. The plankton may be a floating larva or a sessile larva of a sessile organism. The plankton may be an sessile larva having an eye spot of an oyster. The general object detection algorithm may be an R-CNN model, an SSD, or a YOLO model. The width of the overlap of the quadrangles may be 0.8 to 1.2 times, 0.9 to 1.1 times, or 0.95 to 1.05 times the maximum width of the plankton.

本発明の他の実施態様は、コンピュータに、上記いずれかの方法を実行させるプログラムである。このプログラムを、コンピュータによって読み取り可能に格納した記憶媒体も本発明の一実施態様である。 Another embodiment of the present invention is a program for causing a computer to execute any of the above methods. A storage medium storing this program in a computer-readable manner is also an embodiment of the present invention.

本発明によって、一般物体検出アルゴリズムを用いた新規な自動プランクトン検出方法を提供することができるようになった。 The present invention provides a novel automatic plankton detection method using a general object detection algorithm.

本発明の一実施形態にかかるプランクトンの分布情報を管理するためのシステムの模式図である。FIG. 1 is a schematic diagram of a system for managing plankton distribution information according to one embodiment of the present invention. 本発明の一実施形態にかかるユーザアプリのインターフェイスである。13 is an interface of a user application according to an embodiment of the present invention. 本発明の一実施形態にかかるユーザアプリの、第1の端末におけるインターフェイスである。1 is an interface of a user application on a first terminal according to an embodiment of the present invention. 本発明の一実施形態にかかるユーザアプリの、第2の端末におけるインターフェイス(エリアモード)である。13 is an interface (area mode) of a user application on a second terminal according to an embodiment of the present invention. 本発明の一実施形態にかかるユーザアプリの、第2の端末におけるインターフェイス(ポイントモード)である。13 is an interface (point mode) of a user application on a second terminal according to an embodiment of the present invention; 実施例で用いた画像の一例を示す。An example of an image used in the embodiment is shown below. 実施例で用いた画像に対し、目視でマガキ幼生を同定した時の画像を示す。In addition to the images used in the examples, images of oyster larvae identified by visual inspection are shown below.

本発明の目的、特徴、利点、及びそのアイデアは、本明細書の記載により、当業者には明らかであり、本明細書の記載から、当業者であれば、容易に本発明を再現できる。以下に記載された発明の実施の形態及び具体的な実施例などは、本発明の好ましい実施態様を示すものであり、例示又は説明のために示されているのであって、本発明をそれらに限定するものではない。本明細書で開示されている本発明の意図並びに範囲内で、本明細書の記載に基づき、様々な改変並びに修飾ができることは、当業者にとって明らかである。 The objectives, features, advantages, and ideas of the present invention will be clear to those skilled in the art from the description in this specification, and those skilled in the art will be able to easily reproduce the present invention from the description in this specification. The embodiments and specific examples of the invention described below show preferred embodiments of the present invention, and are shown for illustrative or explanatory purposes, and do not limit the present invention thereto. It will be clear to those skilled in the art that various changes and modifications can be made based on the description in this specification within the intent and scope of the present invention disclosed in this specification.

==プランクトンの分布情報を管理するためのサーバ==
本開示のサーバ11は、第1のユーザ端末21と、第2のユーザ端末31と、に通信可能に接続している、1または複数種類のプランクトンの分布情報を管理するためのサーバ11であって、第1のユーザ端末21から、プランクトンの画像を受信するための第1の受信手段12と、画像からプランクトンを検出し、その数を解析するための解析手段14と、解析した結果を、その結果を示すIDに結び付けて記憶するための記憶手段16と、解析した結果を、IDとともに第2の端末に送信するための送信手段13と、を備えるサーバ11である。IDは、第1のユーザ端末21からプランクトンの画像とともに受信してもよく、第1のユーザ端末21からプランクトンの画像を受信後、サーバ11がその画像に付与してもよい。
==Server for managing plankton distribution information==
The server 11 of the present disclosure is a server 11 for managing distribution information of one or more types of plankton, communicably connected to a first user terminal 21 and a second user terminal 31, and includes a first receiving means 12 for receiving an image of the plankton from the first user terminal 21, an analyzing means 14 for detecting the plankton from the image and analyzing the number of plankton, a storage means 16 for storing the analysis result by linking it to an ID indicating the result, and a transmitting means 13 for transmitting the analysis result together with the ID to the second terminal. The ID may be received from the first user terminal 21 together with the image of the plankton, or the server 11 may assign the ID to the image after receiving the image of the plankton from the first user terminal 21.

プランクトンの種類は特に限定されず、動物プランクトンであっても、植物プランクトンであってもよいが、付着期幼生であることが好ましく、例えば、カキ、フジツボ、イガイ、カメノテ、ヒドラなどが例示できるが、これらに限定されない。種類数も、1種類であっても複数種類であってもよい。 The type of plankton is not particularly limited, and may be zooplankton or phytoplankton, but it is preferable that the plankton be in the attached stage larvae, such as, but not limited to, oysters, barnacles, mussels, sea cucumbers, and hydra. The number of types may be one or more.

このサーバ11は、第1のユーザ端末21と通信可能に接続しており、第1のユーザ端末21から、プランクトンの画像を受信するための受信手段12を備える。プランクトンの画像とともに、プランクトンが採取された時間情報やプランクトンが採取された位置の位置情報を受信してもよい。サーバ11は、複数の第1のユーザ端末21と接続していてもよく、第1のユーザ端末21が様々な場所からデータを送ることによって、さまざまな地点のプランクトンの生息数を知ることができるようになる。 This server 11 is communicatively connected to a first user terminal 21, and includes a receiving means 12 for receiving images of plankton from the first user terminal 21. Along with the images of the plankton, it may receive information on the time when the plankton was collected and the location where the plankton was collected. The server 11 may be connected to a plurality of first user terminals 21, and the first user terminals 21 may send data from various locations, making it possible to know the population of plankton at various locations.

プランクトンの画像を受信したサーバ11は、解析手段14によって、その画像を解析し、視野にプランクトンが何個体いるかを計算する。この解析のためのプログラムは特に限定されないが、後述するプログラムを用いるのが好ましい。 The server 11 receives the image of the plankton and analyzes the image using the analysis means 14 to calculate how many plankton are present in the field of view. There are no particular limitations on the program used for this analysis, but it is preferable to use the program described below.

得られたプランクトン数は、画像に付与されたIDと結び付けて、記憶手段16に記憶する。記憶手段16は特に限定されないが、不揮発性記憶装置が好ましく、ROM、フラッシュメモリ、磁気記憶装置(ハードディスクドライブ、フロッピーディスク、磁気テープなど)、光ディスクなどが例示できる。 The obtained plankton count is linked to the ID assigned to the image and stored in the storage means 16. There are no particular limitations on the storage means 16, but a non-volatile storage device is preferable, and examples of the storage means 16 include ROM, flash memory, magnetic storage devices (hard disk drives, floppy disks, magnetic tapes, etc.), and optical disks.

このサーバ11は、第2のユーザ端末31と通信可能に接続しており、第2のユーザ端末31に対して、解析した結果をIDと結び付けて送信するための送信手段13を備える。解析した結果と同時に、第1のユーザ端末21から送信されたプランクトンの画像、プランクトンが採取された時間情報、および/またはプランクトンが採取された位置の位置情報などを送信してもよい。このサーバ11は、受信手段12によって第2のユーザ端末31から解析結果の要求を受信し、それに従って、解析した結果を第2の端末31に送信してもよい。その際、位置情報や時間情報は、それらに対する要求を受信してそれに従って送信してもよく、自動的に、IDに紐づけられた位置情報や時間情報を送信してもよい。 This server 11 is communicably connected to the second user terminal 31, and includes a transmission means 13 for linking the analysis results with an ID and transmitting them to the second user terminal 31. At the same time as the analysis results, the image of the plankton transmitted from the first user terminal 21, information on the time when the plankton was collected, and/or location information on the location where the plankton was collected may be transmitted. This server 11 may receive a request for the analysis results from the second user terminal 31 via the receiving means 12, and transmit the analysis results to the second terminal 31 accordingly. In this case, the location information and time information may be transmitted according to a request received for them, or the location information and time information linked to the ID may be transmitted automatically.

第1のユーザ端末21から受信する時間情報の内容は特に限定されず、日だけであっても、日時であってもよい。 The content of the time information received from the first user terminal 21 is not particularly limited, and may be just the day or the date and time.

第1のユーザ端末21から受信する位置情報の内容は特に限定されず、緯度と経度のような数字であっても、地図上の位置であってもよい。地図上の位置の場合、第1のユーザ端末21とサーバ11が同じ地図情報を共有しており、その中の位置を特定した情報であってもよく、位置情報に、地図とその中の位置を示す情報が含まれていてもよい。 The content of the location information received from the first user terminal 21 is not particularly limited, and may be numbers such as latitude and longitude, or a location on a map. In the case of a location on a map, the first user terminal 21 and the server 11 share the same map information, and the information may specify a location within that map, or the location information may include information indicating the map and the location within it.

第2のユーザ端末31に送信する時間情報の内容は特に限定されず、日だけであっても、日時であってもよい。 The content of the time information sent to the second user terminal 31 is not particularly limited, and may be just the day or the date and time.

第2のユーザ端末31に送信する位置情報の内容は特に限定されず、緯度と経度のような数字であっても、地図上の位置であってもよい。地図上の位置の場合、第2のユーザ端末31とサーバ11が同じ地図情報を共有しており、その中の位置を特定した情報であってもよく、位置情報に、地図とその中の位置を示す情報が含まれていてもよい。 The content of the location information to be sent to the second user terminal 31 is not particularly limited, and may be numbers such as latitude and longitude, or a location on a map. In the case of a location on a map, the second user terminal 31 and the server 11 share the same map information, and the information may specify a location within that map, or the location information may include information indicating the map and the location within it.

第1のユーザ端末21から受信する位置情報と第2のユーザ端末31に送信する位置情報とは、同じデータであっても異なるデータであってもよいが、例えば、第1のユーザ端末21から緯度と経度を受信して、第2のユーザ端末31に地図上の位置で送信する場合など、受信する位置情報と送信する位置情報に含まれるデータが異なる場合、サーバ11は、受信する位置情報を送信する位置情報に変換する変換手段15(例えば、コンバータなど)を有する。 The location information received from the first user terminal 21 and the location information transmitted to the second user terminal 31 may be the same data or different data, but when the data contained in the received location information and the transmitted location information are different, for example when latitude and longitude are received from the first user terminal 21 and transmitted to the second user terminal 31 as a position on a map, the server 11 has a conversion means 15 (e.g., a converter) that converts the received location information into the transmitted location information.

本開示のサーバは、クラウドサーバであってもよい。 The server of the present disclosure may be a cloud server.

==第1のユーザ端末21==
第1のユーザ端末21は、上述したサーバ11と通信可能に接続しており、プランクトンの画像を撮像するための撮像装置22と、プランクトンの画像を前記サーバ11に送信するための送信手段23と、を備える。送信手段23は、プランクトンの画像とともに、プランクトンが採取された時間情報やプランクトンが採取された位置の位置情報を送信してもよい。時間情報や位置情報の詳細は、上述したとおりである。
First User Terminal 21
The first user terminal 21 is communicably connected to the above-mentioned server 11, and includes an imaging device 22 for capturing an image of the plankton, and a transmission means 23 for transmitting the image of the plankton to the server 11. The transmission means 23 may transmit, together with the image of the plankton, time information at which the plankton was collected and location information of the location at which the plankton was collected. Details of the time information and location information are as described above.

撮像装置22は、カメラやビデオであってもよい。撮像装置22は、サーバ11が、プランクトンを特定できるレベルの解像度を持つ必要がある。レンズ口径が小さい場合など、ズーム機能を有することが好ましい。ズーム機能の機構は特に限定されないが、デジタルズームより光学ズームであるほうが好ましい。 The imaging device 22 may be a camera or a video. The imaging device 22 must have a resolution that allows the server 11 to identify plankton. It is preferable for the imaging device 22 to have a zoom function, for example when the lens aperture is small. The mechanism of the zoom function is not particularly limited, but an optical zoom is preferable to a digital zoom.

第1のユーザ端末21は、コンピュータでもよいが、野外での使用を考えると、携帯電話機能を有するタブレットやスマートフォンが好ましく、携帯電話でもよい。 The first user terminal 21 may be a computer, but considering outdoor use, a tablet or smartphone with mobile phone functionality is preferable, and a mobile phone is also acceptable.

第1のユーザ端末21がサーバ11に送信する位置情報は、ユーザが入力しても、第1のユーザ端末21がGPS機能やWi-Fi受信手段などの位置特定手段を有し、自動でユーザ端末の現在地を特定してもよい。ユーザが入力したり、位置特定手段が特定したりして生じるオリジナルの位置情報と、第1のユーザ端末21は、オリジナルの位置情報をサーバ11に送る位置情報に変換する変換手段(例えば、コンバータなど)を有し、サーバ11に送る位置情報を、オリジナルの位置情報と異なるデータにしてもよい。 The location information transmitted by the first user terminal 21 to the server 11 may be input by the user, or the first user terminal 21 may have a location identification means such as a GPS function or Wi-Fi receiving means, and automatically identify the current location of the user terminal. The original location information generated by the user input or identification by the location identification means, and the first user terminal 21 may have a conversion means (e.g., a converter) that converts the original location information into location information to be transmitted to the server 11, and the location information to be transmitted to the server 11 may be data different from the original location information.

なお、サーバ11に送信した画像、時間情報、位置情報は、関連付けて、第1のユーザ端末21が有する記憶装置24に保存してもよい、
==第2のユーザ端末31==
第2のユーザ端末31は、サーバ11がプランクトンの画像を解析して得られた結果をIDとともに受信するための受信手段32と、解析した結果をIDとともに表示するための表示装置33と、を備える。受信手段32は、プランクトンの画像を解析して得られた結果とともに、プランクトンの画像、プランクトンが採取された時間情報、および/またはプランクトンが採取された位置の位置情報などを前記IDとともに受信してもよい。時間情報や位置情報の詳細は、上述したとおりである。
The image, time information, and location information transmitted to the server 11 may be stored in association with each other in the storage device 24 of the first user terminal 21.
Second User Terminal 31
The second user terminal 31 includes a receiving means 32 for receiving the results of the analysis of the plankton image by the server 11 together with the ID, and a display device 33 for displaying the analysis results together with the ID. The receiving means 32 may receive the plankton image, time information when the plankton was collected, and/or location information of the location where the plankton was collected together with the ID, along with the results of the analysis of the plankton image. Details of the time information and location information are as described above.

第2のユーザ端末31は、携帯電話でもよいが、表示の際、さまざまな表示方法を行うことを考えると、コンピュータ機能を有するタブレットやスマートフォンが好ましいが、PCでもよい。第2のユーザ端末31は第1のユーザ端末21と同一の機器であっても異なる機器であってもよい。 The second user terminal 31 may be a mobile phone, but considering that various display methods will be used when displaying, a tablet or smartphone with computer functions is preferable, but a PC may also be used. The second user terminal 31 may be the same device as the first user terminal 21 or a different device.

第2のユーザ端末31がサーバ11から受信する位置情報は、第1のユーザ端末21がサーバ11に送信した第1の位置情報であっても、サーバ11が第1の位置情報から変換した第2の位置情報であってもかまわない。第2のユーザ端末31が第1の位置情報を受信するとき、表示手段33で第1の位置情報を表示してもよく、変換装置35(コンバータなど)で第1の位置情報を第2の位置情報に変換して、表示手段33で第1の位置情報を表示してもよい。第2のユーザ端末31が第2の位置情報を受信するとき、表示手段33で第2の位置情報を表示してもよく、変換装置35で第2の位置情報を第3の位置情報に変換して、表示手段33で第3の位置情報を表示してもよい。 The location information that the second user terminal 31 receives from the server 11 may be the first location information that the first user terminal 21 sent to the server 11, or may be the second location information converted from the first location information by the server 11. When the second user terminal 31 receives the first location information, it may display the first location information on the display means 33, or may convert the first location information into second location information using a conversion device 35 (such as a converter) and display the first location information on the display means 33. When the second user terminal 31 receives the second location information, it may display the second location information on the display means 33, or may convert the second location information into third location information using the conversion device 35 and display the third location information on the display means 33.

例えば、第2のユーザ端末31がサーバ11から緯度と経度の情報を得て、表示手段33で、IDとともに解析した結果と緯度と経度の数値を表示してもよい。また、緯度と経度の数値を地図上の位置に変換し、表示手段33で、解析した結果と地図上の位置を表示してもよい。あるいは、緯度と経度の数値を地図上の位置に変換し、表示手段33で、解析した結果と緯度と経度の数値を表示し、緯度と経度の数値をクリックすると、地図上の位置が現れるようにしてもよい。逆に、まずプランクトンを採取した位置が地図上で示され、地図上での位置をクリックすると、その緯度と経度が現れるようにしてもよい。表示手段33における表示方法は特に限定されず、ID、解析結果、プランクトンを採取した時刻、プランクトンを採取した位置の緯度と経路などを表にして表してもよい。 For example, the second user terminal 31 may obtain latitude and longitude information from the server 11, and display the analysis results and the latitude and longitude values together with the ID on the display means 33. The latitude and longitude values may also be converted to positions on a map, and the analysis results and the positions on the map may be displayed on the display means 33. Alternatively, the latitude and longitude values may be converted to positions on a map, and the analysis results and the latitude and longitude values may be displayed on the display means 33, and the positions on the map may be displayed when the latitude and longitude values are clicked. Conversely, the position where the plankton was collected may be shown on the map first, and the latitude and longitude may be displayed when the position on the map is clicked. The display method on the display means 33 is not particularly limited, and the ID, analysis results, time when the plankton was collected, the latitude and route of the position where the plankton was collected, etc. may be displayed in a table.

なお、第2のユーザ端末31がサーバ11から受信したプランクトンの画像、解析結果、時間情報、および/または位置情報は、関連付けて、第2のユーザ端末31が有する記憶装置34に保存してもよい。 The plankton images, analysis results, time information, and/or location information received by the second user terminal 31 from the server 11 may be associated and stored in the storage device 34 of the second user terminal 31.

==プランクトンの分布情報を管理するためのシステム==
本実施形態にかかるシステムは、プランクトンの分布情報を管理するためのシステムであって、サーバと、第1のユーザ端末と、第2のユーザ端末を含む。サーバと、第1のユーザ端末と、第2のユーザ端末の個々の詳細は、上述したとおりである。
==System for managing plankton distribution information==
The system according to the present embodiment is a system for managing plankton distribution information, and includes a server, a first user terminal, and a second user terminal. The details of the server, the first user terminal, and the second user terminal are as described above.

このシステムは、複数の第1のユーザ端末と複数の第2のユーザ端末とが、サーバに通信可能に接続していてもよい。それによって、複数の第1のユーザ端末からアップロードされた、複数の地点におけるプランクトンの分布情報を一度に管理することができるようになり、複数の第2のユーザ端末の条件を満たせば、どこからでもプランクトンの分布情報をダウンロードできるようになる。 In this system, multiple first user terminals and multiple second user terminals may be communicatively connected to a server. This makes it possible to simultaneously manage plankton distribution information at multiple locations uploaded from multiple first user terminals, and to download plankton distribution information from anywhere if the conditions of multiple second user terminals are met.

==プランクトンの分布情報の利用==
プランクトンの分布情報を利用するための方法の一例として、図1のBのシステムを用いた方法を以下に詳細に解説する。なお、本実施形態では、第1のユーザ端末21の機能と第2のユーザ端末31の機能とは、一つのユーザアプリで実行されるものとする。そのインターフェイスは、例えば、図2に示すようなもので、情報提供と情報取得を選択できるようになっている。
==Utilization of plankton distribution information==
As an example of a method for utilizing plankton distribution information, a method using the system shown in FIG. 1B will be described in detail below. In this embodiment, the functions of the first user terminal 21 and the second user terminal 31 are executed by a single user application. The interface is, for example, as shown in FIG. 2, and allows the user to select between providing information and acquiring information.

まず、プランクトンの分布情報を提供するユーザは、第1のユーザ端末21を用い、撮像装置22で、プランクトンの画像を撮像する。そして、ユーザアプリを用いて、「採取地点データ取得クラウドへのデータ送信」ボタンを押し、情報提供操作を行う。図3にユーザアプリの次画面を示す。画面上で、「採取地点データ取得」ボタンを押すと、GPS機能によって、採取地点の緯度及び経度を測定され、自動で座標が入力される。同時に、時計機能によって、操作時の日時が入力される。「画像登録」ボタンを押して、「参照」ボタンを押して、画像を選択し、「登録」ボタンを押して、画像を登録する。最後に、「登録済」の地点IDの左にあるチェックボックスにチェックを入れ,画面下の「クラウドへ送信」ボタンを押して、サーバにこれらの情報をアップロードする。 First, a user providing plankton distribution information uses the first user terminal 21 to capture an image of the plankton with the imaging device 22. Then, using the user app, the user presses the "Acquire collection point data and send data to cloud" button to provide information. Figure 3 shows the next screen of the user app. When the "Acquire collection point data" button is pressed on the screen, the GPS function measures the latitude and longitude of the collection point and the coordinates are automatically entered. At the same time, the clock function enters the date and time of the operation. Press the "Register image" button, press the "Browse" button to select an image, and press the "Register" button to register the image. Finally, check the checkbox to the left of the "Registered" point ID and press the "Send to cloud" button at the bottom of the screen to upload this information to the server.

サーバが、第1のユーザ端末21から、プランクトンの画像を受信すると、画像からプランクトン検出プログラムを用い、プランクトンを検出し、その数を測定する。その数と、第1のユーザ端末21から受信した時間情報と位置情報を、送信されたIDに紐づけて、記憶手段16に記憶する。 When the server receives an image of plankton from the first user terminal 21, it uses a plankton detection program to detect plankton from the image and counts the number of plankton. The number, along with the time information and location information received from the first user terminal 21, are linked to the transmitted ID and stored in the storage means 16.

プランクトンの分布情報を求めるユーザは、第2のユーザ端末31で、ユーザアプリを用いて、図2の「検出結果表示」ボタンを押し、情報要求操作を行う。ユーザアプリは、サーバに記憶されたプランクトンの数と時間情報と位置情報を得て、データを解析し、以下に説明するような表示でデータを提供する。次画面でプランクトンの分布情報を得たい地域を選択し、その中で特定のエリアの情報を得たい場合、エリアモードボタンを押し、情報を得たい日時のボタンを押す(図4A)と、情報の存在する地点が、点で表示され、選択できるエリアが表示される(図4B)。情報を得たいエリアをクリックすると、そのエリアで入力された情報がリストとして表示される(図4C)。過去の積算情報を得たい場合、「1週間前まで積算」ボタンを押すと、1週間前までのデータを重ねてみることができる(図4D)。特定の場所の情報が得たければ、ポイントモードボタンを押し(図5A)、情報のある点をクリックする(図5B)。すると、その位置で入力された情報が得られる(図5C)。過去の積算情報を得たい場合、「1週間前まで積算」ボタンを押すと、1週間前までのデータを重ねてみることができる(図5D)。 A user who wants to obtain plankton distribution information uses the user application on the second user terminal 31 to press the "display detection results" button in FIG. 2 to perform an information request operation. The user application obtains the number of plankton, time information, and location information stored in the server, analyzes the data, and provides the data in a display format as described below. On the next screen, select the area for which you want to obtain plankton distribution information, and if you want to obtain information on a specific area within that area, press the area mode button and the button for the date and time for which you want information (FIG. 4A). The points where information exists are displayed as dots, and the selectable areas are displayed (FIG. 4B). When you click on the area for which you want information, the information entered in that area is displayed as a list (FIG. 4C). If you want to obtain accumulated information from the past, press the "accumulated up to one week ago" button to overlay data from up to one week ago (FIG. 4D). If you want to obtain information on a specific location, press the point mode button (FIG. 5A) and click on a point with information (FIG. 5B). Then, the information entered at that location is obtained (FIG. 5C). If you want to obtain past accumulated information, press the "Accumulated up to one week ago" button to overlay data from up to one week ago (Figure 5D).

==プランクトン検出方法==
本実施形態にかかるプランクトン検出方法は、コンピュータが、物体の位置を表すbounding box (bbox)を中心にした第1の所定のサイズの四角形を切り取った画像を学習データとして、一般物体検出アルゴリズムに学習させる第1の工程と、容器内のプランクトンを撮像した画像を、第2の所定のサイズの四角形に分割する第2の工程と、分割して得られた各の第2の所定のサイズの四角形内にプランクトンが存在するか判断させる第3の工程と、を行う方法であって、第2の工程において、隣り合う四角形の重なりの幅が、プランクトンの最大幅とほぼ同じである、容器中の特定のプランクトンを検出する方法である。
==How to detect plankton==
The plankton detection method of this embodiment is a method that performs the following steps: a first step in which a computer trains a general object detection algorithm using an image of a rectangle of a first predetermined size centered on a bounding box (bbox) that represents the position of the object as training data; a second step in which an image of plankton in a container is divided into rectangles of a second predetermined size; and a third step in which the computer determines whether plankton is present in each of the rectangles of the second predetermined size obtained by dividing the image; in the second step, the method detects specific plankton in a container where the overlap width of adjacent rectangles is approximately the same as the maximum width of the plankton.

第1の工程において、物体の位置を表すbounding box (bbox)を中心にした第1の所定のサイズの四角形を切り取った画像を作製する。ここで、プランクトンを正確に検出するため、所定のサイズは、プランクトン全体が入る大きさ以上であって,一般物体検出アルゴリズムが処理できる大きさ以下であればよい。第1の所定のサイズの四角形は、好ましくはプランクトンの最大幅の1.3倍より大きい正方形、より好ましくは、1.5倍より大きい正方形、さらに好ましくは2.0倍より大きい正方形であり、好ましくはプランクトンの最大幅の6.0倍より小さい正方形、より好ましくは、4.5倍より小さい正方形、さらに好ましくは4.0倍より小さい正方形である。あるいは、短辺がプランクトンの最大幅の1.0倍より大きい長方形、好ましくは、1.3倍より大きい長方形、より好ましくは、1.5倍より大きい長方形、さらに好ましくは2.0倍より大きい長方形であり、好ましくは長辺がプランクトンの最大幅の6.0倍より小さい長方形、より好ましくは、4.5倍より小さい長方形、さらに好ましくは4.0倍より小さい長方形である。本明細書で、プランクトンの最大幅というのは、画像上でプランクトンを横切る直線をひいたときに、プランクトンともっとも重なりが長くなる場合の、プランクトンと直線が重なっている部分の線分の長さを言う。また、プランクトンの最大高さというのは、プランクトンの最大幅となる線分に垂直な直線のうち、プランクトンともっとも重なりが長くなる場合の、重なっている部分の線分の長さを言う。 In the first step, an image is created by cutting out a rectangle of a first predetermined size centered on a bounding box (bbox) that represents the position of the object. Here, in order to accurately detect plankton, the predetermined size may be a size that is equal to or larger than the size that the entire plankton can be contained in, and equal to or smaller than the size that the general object detection algorithm can process. The rectangle of the first predetermined size is preferably a square that is larger than 1.3 times the maximum width of the plankton, more preferably a square that is larger than 1.5 times, and even more preferably a square that is larger than 2.0 times, and preferably a square that is smaller than 6.0 times the maximum width of the plankton, more preferably a square that is smaller than 4.5 times, and even more preferably a square that is smaller than 4.0 times. Alternatively, it is a rectangle whose short side is larger than 1.0 times the maximum width of the plankton, preferably a rectangle that is larger than 1.3 times, more preferably a rectangle that is larger than 1.5 times, and even more preferably a rectangle that is larger than 2.0 times, and preferably a rectangle whose long side is smaller than 6.0 times the maximum width of the plankton, more preferably a rectangle that is smaller than 4.5 times, and even more preferably a rectangle that is smaller than 4.0 times. In this specification, the maximum width of the plankton refers to the length of the line segment where the plankton overlaps with the line drawn across the plankton on the image, when the line segment overlaps the plankton for the longest time. Additionally, the maximum height of the plankton refers to the length of the line segment where the plankton overlaps with the line perpendicular to the line segment that is the maximum width of the plankton, when the line segment overlaps the plankton for the longest time.

検出対象とするプランクトンの学習に使用するbounding box (bbox)の数は特に限定されないが、1000~2000個が好ましく、2000~3000個がより好ましく、3000個~4000個がさらに好ましい。画像には、プランクトンの向きがランダムに映っているのが好ましい。 The number of bounding boxes (bboxes) used to learn the plankton to be detected is not particularly limited, but is preferably 1000 to 2000, more preferably 2000 to 3000, and even more preferably 3000 to 4000. It is preferable that the orientation of the plankton is randomly shown in the image.

プランクトンの種類は特に限定されず、動物プランクトンであっても、植物プランクトンであってもよいが、固着生物の浮遊幼生または付着期幼生であることが好ましく、例えば、カキ、フジツボ、イガイ、カメノテ、ヒドラなどが例示できるが、これらに限定されない。種類数も、1種類であっても複数種類であってもよい。ただし、眼点があるほうが、一般物体検出アルゴリズムによる検出力が高まるので好ましい。 The type of plankton is not particularly limited, and may be zooplankton or phytoplankton, but is preferably a floating or attached larva of a sessile organism, such as, but not limited to, oysters, barnacles, mussels, sea urchins, and hydra. The number of types may be one or more. However, it is preferable to have eyespots, as this increases the detection power of the general object detection algorithm.

用いる一般物体検出アルゴリズムは特に限定されないが、R-CNN系モデル(例えば、Fast R-CNN、Faster R-CNN、Mask R-CNN)、SSD、またはYOLO系モデル(例えば、YOLO v1~v3)が好ましい。 The general object detection algorithm used is not particularly limited, but an R-CNN-based model (e.g., Fast R-CNN, Faster R-CNN, Mask R-CNN), SSD, or a YOLO-based model (e.g., YOLO v1 to v3) is preferred.

第2の工程において、測定する容器内のプランクトンを撮像した画像を、第2の所定のサイズの四角形に分割する。四角形の形状は特に限定されないが、対辺が平行であればよく、平行四辺形やひし形でもよいが、長方形がより好ましく、正方形がさらに好ましい。各辺の長さは、プランクトンの最大幅の1.0倍より大きいのが好ましく、1.5倍より大きいのがより好ましく、2.0倍より大きいのがさらに好ましく、最大幅の12.0倍より小さいのが好ましく、9.0倍より小さいのがより好ましく、6.0倍より小さいのがさらに好ましい。そして、四角形を平行な辺にそってずらして並べることが好ましく、4辺のいずれにおいても、隣り合う四角形の重なりの幅が、プランクトンの最大幅に基づいて定められ、最大幅とほぼ同じであるのが好ましい。それによって、すべてのプランクトンについてプランクトン全体がどこかの四角形に入るようになる。隣り合う四角形の重なりの幅が、プランクトンの最大幅より小さいと、どの四角形にも全体が入らないプランクトンが増え、プランクトンの最大幅より大きいと、複数の四角形に入るプランクトンが増える。ここで、隣り合う四角形の重なりの幅とは、四角形を平行な辺にそってずらしたときの、ずらした長さのことを言うものとする。具体的には、この隣り合う四角形の重なりの幅がプランクトンの最大幅の0.8~1.2倍であることが好ましく、0.9~1.1倍であることがより好ましく、0.95~1.05倍であることがさらに好ましい。 In the second step, the image of the plankton in the container to be measured is divided into rectangles of a second predetermined size. The shape of the rectangle is not particularly limited, but it is sufficient that the opposite sides are parallel. It may be a parallelogram or a rhombus, but a rectangle is more preferable, and a square is even more preferable. The length of each side is preferably greater than 1.0 times the maximum width of the plankton, more preferably greater than 1.5 times, and even more preferably greater than 2.0 times, preferably less than 12.0 times the maximum width, more preferably less than 9.0 times, and even more preferably less than 6.0 times. It is preferable to arrange the rectangles by shifting them along the parallel sides, and the width of the overlap between adjacent rectangles on any of the four sides is determined based on the maximum width of the plankton and is preferably approximately the same as the maximum width. As a result, for all plankton, the entire plankton is contained in some rectangle. If the overlap width of adjacent rectangles is smaller than the maximum width of the plankton, there will be more plankton that do not entirely fit into any rectangle, and if it is larger than the maximum width of the plankton, there will be more plankton that fit into multiple rectangles. Here, the overlap width of adjacent rectangles refers to the length of shift when the rectangles are shifted along their parallel sides. Specifically, the overlap width of adjacent rectangles is preferably 0.8 to 1.2 times the maximum width of the plankton, more preferably 0.9 to 1.1 times, and even more preferably 0.95 to 1.05 times.

第3の工程において、分割して得られた各の第2の所定のサイズの四角形内にプランクトンが存在するか、先に学習させた一般物体検出アルゴリズムに判断させる。こうして、プランクトンの数をコンピュータに測定させることができるようになる。複数種類のプランクトンが存在するときは、各々のプランクトンの数を測定できる。 In the third step, the previously trained general object detection algorithm is made to determine whether plankton is present within each of the second predetermined size rectangles obtained by division. In this way, it becomes possible to have the computer measure the number of plankton. When multiple types of plankton are present, the number of each type of plankton can be measured.

江田島周辺海域で、プランクトンネットで採取し、水道水を加えて活動を停止させ、沈降する順に分画を回収した。マガキ幼生は他のプランクトンに比べると重いため、早く沈降した分画のプランクトンを回収することによって、ほぼマガキ幼生だけを採取した。シャーレに入れて、デジタルカメラを用い、眼点が目で認識できる程度に光学ズームで拡大して写真撮影を行った。図6にその一例を示す。 Plankton were collected from the waters around Etajima using a plankton net, tap water was added to stop their activity, and the fractions were collected in the order of their sinking. Because oyster larvae are heavier than other plankton, by collecting the fraction of plankton that sank quickly, almost only oyster larvae were collected. They were placed in a petri dish and photographed with a digital camera, enlarging with optical zoom until the eyespots could be seen with the naked eye. An example is shown in Figure 6.

2992×2992px(7.6×7.6mm)の大きさの160画像について、図7に示すように、(0)最大幅が270μm以上で眼点のあるマガキ幼生(1)最大幅が270μm以上で眼点なし(2)最大幅が210~270μm以上、の3つのグループで目視で確認したところ、(0)1561個体(1)1432個体(2)2536個体特定できた。この画像ファイルを15°ずつずらし、さらに反転することによって、画像数を7680画像とし、各画像ファイルから、bboxを基点に300×300pxの画像を切り取ることによって、264640枚の画像ファイルを作製した。SSD300に対し、これを学習データとして、32枚ずつ24000回入力するのを1サイクルとし、3サイクル入力して学習させた。学習時間は、GPUを用いて、約6.6日であった。 As shown in Figure 7, 160 images measuring 2992 x 2992px (7.6 x 7.6mm) were visually checked into three groups: (0) oyster larvae with eyespots and a maximum width of 270μm or more, (1) oyster larvae without eyespots and a maximum width of 270μm or more, and (2) oyster larvae with a maximum width of 210-270μm or more. (0) 1561 individuals, (1) 1432 individuals, and (2) 2536 individuals were identified. The image files were shifted by 15° and then inverted to make the number of images 7680, and 264640 image files were created by cutting out 300 x 300px images from each image file with the bbox as the base point. This was used as learning data for the SSD300, and 32 images were input 24000 times, one cycle, for three cycles of input. The learning time was about 6.6 days using a GPU.

学習に使用していない同じ大きさの画像に対し、300×300pxの正方形を150pxずつずらして切り取り、1画像につき、361枚の画像にして各画像ごとに最大幅が270μm以上で眼点のあるマガキ幼生を検出させた(閾値はConfidence:0.6,non_maximum_suppression:0.4)ところ、 precisionは0.97、recallは0.96となった。なお、precision およびrecallは、両方とも物体検出の評価指標であって、precisionは、最大幅が270μm以上で眼点のあるマガキ幼生と検出した幼生のうち、正しかったものの割合のことであり、recallは、画像に写る270μm以上で眼点のあるマガキ幼生のうち,正しく検出されるものの割合のことである。 For images of the same size that were not used for learning, 300 x 300 px squares were cut out, shifted by 150 px each, and 361 images were created for each image. For each image, oyster larvae with eyespots and a maximum width of 270 μm or more were detected (thresholds were Confidence: 0.6, non_maximum_suppression: 0.4). The precision was 0.97 and the recall was 0.96. Note that precision and recall are both evaluation indices for object detection. Precision is the proportion of oyster larvae with eyespots and a maximum width of 270 μm or more that were correctly detected, and recall is the proportion of oyster larvae with eyespots and a maximum width of 270 μm or more that were correctly detected, among those detected.

このように、本開示の方法によって、十分な精度を保って目的のプランクトンの数を測定できる。 In this way, the method disclosed herein makes it possible to measure the number of target plankton with sufficient accuracy.

11 サーバ
12 受信手段
13 送信手段
14 解析手段
15 変換手段
16 記憶手段
21 第1のユーザ端末
22 撮像手段
23 送信手段
24 記憶手段
31 第2のユーザ端末
32 受信手段
33 表示手段
34 記6手段
35 変換手段
REFERENCE SIGNS LIST 11 Server 12 Receiving means 13 Transmitting means 14 Analyzing means 15 Converting means 16 Storage means 21 First user terminal 22 Imaging means 23 Transmitting means 24 Storage means 31 Second user terminal 32 Receiving means 33 Display means 34 35 Conversion means

Claims (8)

コンピュータが、
bounding boxを中心にした第1の所定のサイズの四角形の画像を学習データとして、一般物体検出アルゴリズムに学習させる第1の工程と、
容器内のプランクトンを撮像した画像を、第2の所定のサイズの四角形に分割する第2の工程と、
分割して得られた各の前記第2の所定のサイズの四角形内に前記プランクトンが存在するか、前記一般物体検出アルゴリズムに判断させる第3の工程と、
を行い、
前記第2の工程において、隣り合う前記四角形の重なりの幅が、前記プランクトンの最大幅に基づいて定められ、
前記四角形の重なりの前記幅が、前記プランクトンの前記最大幅の0.8倍以上1.2倍以下である、容器中の特定のプランクトンを検出する方法。
The computer
A first step of training a generic object detection algorithm using a rectangular image of a first predetermined size centered on a bounding box as training data;
A second step of dividing the image of the plankton in the container into rectangles of a second predetermined size;
A third step of causing the generic object detection algorithm to determine whether the plankton is present within each of the quadrangles of the second predetermined size obtained by the division;
Do the following:
In the second step, the width of the overlap between the adjacent rectangles is determined based on the maximum width of the plankton ;
A method for detecting specific plankton in a container , wherein the width of the overlap of the rectangles is greater than or equal to 0.8 times and less than or equal to 1.2 times the maximum width of the plankton.
前記プランクトンが、固着生物の浮遊幼生または付着期幼生である、請求項1に記載の方法。 The method according to claim 1, wherein the plankton is a planktonic or attached larva of a sessile organism. 前記プランクトンが、カキの付着期幼生である、請求項1または2に記載の方法。 The method according to claim 1 or 2, wherein the plankton is oyster larvae in the attachment stage. 一般物体検出アルゴリズムがR-CNN系モデル、SSD、またはYOLO系モデルである、請求項1~3のいずれか1項に記載の方法。 The method according to any one of claims 1 to 3, wherein the general object detection algorithm is an R-CNN-based model, an SSD, or a YOLO-based model. 前記四角形の重なりの前記幅が、前記プランクトンの前記最大幅の0.9倍以上1.1倍以下である、請求項1~4のいずれか1項に記載の方法。 The method according to any one of claims 1 to 4, wherein the width of the overlap of the quadrangles is 0.9 to 1.1 times the maximum width of the plankton. 前記四角形の重なりの前記幅が、前記プランクトンの前記最大幅の0.95倍以上1.05倍以下である、請求項1~4のいずれか1項に記載の方法。 The method according to any one of claims 1 to 4, wherein the width of the overlap of the quadrangles is 0.95 to 1.05 times the maximum width of the plankton. コンピュータに、請求項1~6のいずれか1項に記載の方法を実行させるプログラム。 A program for causing a computer to execute the method according to any one of claims 1 to 6 . 請求項7に記載のプログラムを、コンピュータによって読み取り可能に格納した記憶媒体。 A storage medium storing the program according to claim 7 in a computer-readable manner.
JP2020064380A 2020-03-31 2020-03-31 Automatic plankton detection method Active JP7462265B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020064380A JP7462265B2 (en) 2020-03-31 2020-03-31 Automatic plankton detection method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020064380A JP7462265B2 (en) 2020-03-31 2020-03-31 Automatic plankton detection method

Publications (2)

Publication Number Publication Date
JP2021158995A JP2021158995A (en) 2021-10-11
JP7462265B2 true JP7462265B2 (en) 2024-04-05

Family

ID=78001519

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020064380A Active JP7462265B2 (en) 2020-03-31 2020-03-31 Automatic plankton detection method

Country Status (1)

Country Link
JP (1) JP7462265B2 (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20050126505A1 (en) 2003-12-10 2005-06-16 Gallager Scott M. Optical method and system for rapid identification of multiple refractive index materials using multiscale texture and color invariants
WO2015133187A1 (en) 2014-03-04 2015-09-11 富士フイルム株式会社 Cell imaging control device, method and program
US20150356725A1 (en) 2013-01-28 2015-12-10 Sinvent As System and method for counting zooplankton
WO2019176048A1 (en) 2018-03-15 2019-09-19 オリンパス株式会社 Cell image processing device
CN110501278A (en) 2019-07-10 2019-11-26 同济大学 A kind of method for cell count based on YOLOv3 and density estimation

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2960327B2 (en) * 1995-03-30 1999-10-06 神奈川県 Biological image processing method and processing system for fisheries

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20050126505A1 (en) 2003-12-10 2005-06-16 Gallager Scott M. Optical method and system for rapid identification of multiple refractive index materials using multiscale texture and color invariants
US20150356725A1 (en) 2013-01-28 2015-12-10 Sinvent As System and method for counting zooplankton
JP2016506726A (en) 2013-01-28 2016-03-07 シー − フィード エーエス System and method for counting zooplankton
WO2015133187A1 (en) 2014-03-04 2015-09-11 富士フイルム株式会社 Cell imaging control device, method and program
WO2019176048A1 (en) 2018-03-15 2019-09-19 オリンパス株式会社 Cell image processing device
CN110501278A (en) 2019-07-10 2019-11-26 同济大学 A kind of method for cell count based on YOLOv3 and density estimation

Also Published As

Publication number Publication date
JP2021158995A (en) 2021-10-11

Similar Documents

Publication Publication Date Title
Walden-Schreiner et al. Digital footprints: Incorporating crowdsourced geographic information for protected area management
Goetze et al. A field and video analysis guide for diver operated stereo‐video
Jonker et al. Surveys of benthic reef communities using underwater digital photography and counts of juvenile corals
Seibert et al. Virtual staff gauges for crowd-based stream level observations
Rosel et al. Photo-identification capture-mark-recapture techniques for estimating abundance of bay, sound and estuary populations of Bottlenose dolphins along the US East Coast and Gulf of Mexico, a workshop report
Louhaichi et al. Digital charting technique for monitoring rangeland vegetation cover at local scale.
Sequeira et al. Error and bias in size estimates of whale sharks: implications for understanding demography
Dunn et al. Un-crewed aerial vehicle population survey of three sympatrically breeding seabird species at Signy Island, South Orkney Islands
Pierce et al. Photographic identification of sharks
Silva et al. Ecological study and risk mapping of leishmaniasis in an endemic area of Brazil based on a geographical information systems approach.
Harvey et al. The BRUVs workshop–An Australia-wide synthesis of baited remote underwater video data to answer broad-scale ecological questions about fish, sharks and rays
Psarros et al. INFORMATION TECHNOLOGY AND ARCHAEOLOGICAL EXCAVATIONS: A BRIEF OVERVIEW.
de la Torre Cerro et al. A review of the methods for studying biotic interactions in phenological analyses
JP7462265B2 (en) Automatic plankton detection method
Karume et al. Use of remote sensing for population number determination
McKenzie Guidelines for the rapid assessment of seagrass habitats in the western Pacific
JP2021158994A (en) Server for managing distribution information of plankton, user terminal, and system with server and user terminal
Bernhardt et al. An evaluation of image analysis at benthic sites based on color segmentation
Domozi et al. Surveying private pools in suburban areas with neural network based on drone photos
Lewis et al. Size structure of broadnose sevengill sharks (Notorynchus cepedianus) in Sawdust Bay, Rakiura/Stewart Island, estimated using underwater stereo-photogrammetry
JP7132860B2 (en) VIDEO INFORMATION MANAGEMENT SYSTEM AND VIDEO INFORMATION MANAGEMENT METHOD
West et al. MetaTree: augmented reality narrative explorations of urban forests
da Silva et al. Image dataset of urine test results on petri dishes for deep learning classification
Florisson Can recreational fishers provide an effective means of monitoring artificial reefs?
Lawas Complementary use of aiborne LiDAR and terrestrial laser scanner to assess above ground biomass/carbon in Ayer Hitam tropical rain forest reserve

Legal Events

Date Code Title Description
A80 Written request to apply exceptions to lack of novelty of invention

Free format text: JAPANESE INTERMEDIATE CODE: A80

Effective date: 20200430

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230116

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230808

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230810

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20231004

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231201

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240305

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240315

R150 Certificate of patent or registration of utility model

Ref document number: 7462265

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150