JP2021043485A - Image analysis program, image analysis method and image analysis device - Google Patents
Image analysis program, image analysis method and image analysis device Download PDFInfo
- Publication number
- JP2021043485A JP2021043485A JP2019162614A JP2019162614A JP2021043485A JP 2021043485 A JP2021043485 A JP 2021043485A JP 2019162614 A JP2019162614 A JP 2019162614A JP 2019162614 A JP2019162614 A JP 2019162614A JP 2021043485 A JP2021043485 A JP 2021043485A
- Authority
- JP
- Japan
- Prior art keywords
- image
- image analysis
- region
- infrared band
- area
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000010191 image analysis Methods 0.000 title claims abstract description 117
- 238000003703 image analysis method Methods 0.000 title claims abstract description 17
- 238000000034 method Methods 0.000 claims abstract description 32
- 238000007667 floating Methods 0.000 claims description 8
- 238000003384 imaging method Methods 0.000 claims description 7
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 claims description 5
- 238000009360 aquaculture Methods 0.000 description 51
- 244000144974 aquaculture Species 0.000 description 51
- 230000003287 optical effect Effects 0.000 description 12
- 238000004458 analytical method Methods 0.000 description 11
- 238000010586 diagram Methods 0.000 description 9
- 238000004891 communication Methods 0.000 description 8
- 230000006870 function Effects 0.000 description 5
- 238000001514 detection method Methods 0.000 description 4
- 230000000007 visual effect Effects 0.000 description 4
- 238000009313 farming Methods 0.000 description 3
- 241000237502 Ostreidae Species 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000005259 measurement Methods 0.000 description 2
- 235000020636 oyster Nutrition 0.000 description 2
- 238000001228 spectrum Methods 0.000 description 2
- 241001474374 Blennius Species 0.000 description 1
- 241000237503 Pectinidae Species 0.000 description 1
- 241001261506 Undaria pinnatifida Species 0.000 description 1
- 230000002411 adverse Effects 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 230000002079 cooperative effect Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 235000020637 scallop Nutrition 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
Images
Classifications
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02A—TECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE
- Y02A90/00—Technologies having an indirect contribution to adaptation to climate change
- Y02A90/30—Assessment of water resources
Landscapes
- Instructional Devices (AREA)
- Image Analysis (AREA)
Abstract
Description
本発明は、画像解析プログラム、方法及び装置に関する。 The present invention relates to image analysis programs, methods and devices.
我が国の沿岸域では海面での養殖業が盛んであり、世界の人口増加に対応するための水産物の供給源として養殖業は重要な役割を担っている。養殖業は自然の恵みの上に成り立っており、過度な養殖は生態系に悪影響を及ぼすおそれがあることが指摘されている。このことから、近年漁業権者には、実際に海面に設置されている養殖施設の台数や緯度および経度等の空間配置等を把握することが求められつつある。 The aquaculture industry on the surface of the sea is thriving in the coastal areas of Japan, and the aquaculture industry plays an important role as a source of marine products to respond to the increase in the world's population. It has been pointed out that the aquaculture industry is built on the blessings of nature, and that excessive aquaculture may adversely affect the ecosystem. For this reason, in recent years, fishery rights holders are required to grasp the number of aquaculture facilities actually installed on the sea surface and the spatial arrangement such as latitude and longitude.
例えば我が国において施行予定の改正漁業法第90条によると、漁業権者には、漁場の活用の状況等を各都道府県知事に報告する義務が生じるとされている。我が国の海洋政策である第3期海洋基本計画においても、海洋状況の把握(Maritime Domain Awareness: MDA)は基本施策の一つとして位置づけられており、海洋における情報の収集、集約および共有が求められつつある。 For example, according to Article 90 of the revised Fisheries Law, which is scheduled to come into effect in Japan, fishery rights holders are obliged to report the status of utilization of fishing grounds to the prefectural governors. Maritime Domain Awareness (MDA) is also positioned as one of the basic measures in Japan's Ocean Policy, the Third Basic Ocean Plan, and it is required to collect, aggregate and share information in the ocean. It's on the way.
また近年では、人工衛星や航空機等による上空からのリモートセンシング技術の利用が広まりつつある。例えば特許文献1には、衛星画像とディジタルマップとを比較照合することにより、海面上の目標物を検出する技術が開示されている。
In recent years, the use of remote sensing technology from the sky by artificial satellites and aircraft has become widespread. For example,
養殖業は漁業権に基づいて行われているところ、実際に海面に設置されている養殖施設の台数や位置情報等は、各地域における漁業権者である漁業協同組合等が自主的に管理しているに過ぎず、正確な台数や位置情報等は把握されていない。養殖施設は沿岸域に数多く設置されており、定期的な現地調査により養殖施設を定量的に把握することは非効率的であり現実的ではない。 The aquaculture industry is carried out based on fishery rights, but the number and location information of aquaculture facilities actually installed on the surface of the sea are voluntarily managed by the fishery cooperatives, etc., who are the owners of the fishery rights in each region. The exact number and location information are not known. Many aquaculture facilities are installed in coastal areas, and it is inefficient and impractical to quantitatively grasp aquaculture facilities through regular field surveys.
特許文献1の技術は、海面上の目標物を検出する技術ではあっても、検出した目標物の大きさ(面積)、数、および位置情報等の、目標物に関連する情報を生成する技術ではない。
Although the technique of
本発明は、上空から撮像された画像に基づいて対象物を識別し、識別した対象物に関連する情報を生成するための画像解析プログラム、方法及び装置を提供する。 The present invention provides an image analysis program, method and apparatus for identifying an object based on an image captured from the sky and generating information related to the identified object.
上記目的を達成するための本発明は、例えば以下に示す態様を含む。
(項1)
コンピュータに、
対象物を含む地球上の領域が撮像された近赤外バンド画像にオブジェクトベース画像解析を適用して、前記近赤外バンド画像において前記対象物の領域が識別された第1の識別画像を生成し、
前記第1の識別画像に基づいて、前記対象物に関連する関連情報を生成する、
処理を実行させるための、画像解析プログラム。
(項2)
コンピュータに、
前記第1の識別画像に基づいて、識別された前記対象物の領域を包含するバッファ領域を、前記近赤外バンド画像よりも高い解像度を有し、前記近赤外バンド画像と同一の前記地球上の領域が撮像された高精細画像に設定し、
前記バッファ領域の範囲内で前記高精細画像にオブジェクトベース画像解析を適用して、前記高精細画像において前記対象物の領域が識別された第2の識別画像を生成し、
前記第1の識別画像に代えて前記第2の識別画像に基づいて、前記対象物に関連する関連情報を生成する、
処理を実行させるための、項1に記載の画像解析プログラム。
(項3)
コンピュータに、
前記バッファ領域を囲む参照領域を前記高精細画像に設定し、
前記高精細画像について、前記参照領域の輝度値を閾値として用いて、前記バッファ領域の範囲内で前記高精細画像に前記オブジェクトベース画像解析を適用する、
処理を実行させるための、項2に記載の画像解析プログラム。
(項4)
前記高精細画像はパンクロマチックバンド画像である、項2または3に記載の画像解析プログラム。
(項5)
コンピュータに、
前記対象物の大きさおよび数の少なくともいずれかに関する情報を生成する処理を実行させる、項1から4のいずれかに記載の画像解析プログラム。
(項6)
コンピュータに、
前記近赤外バンド画像に対応付けられている撮像範囲の緯度および経度の情報に基づいて、前記対象物の位置に関する情報を生成する処理を実行させる、項1から5のいずれかに記載の画像解析プログラム。
(項7)
コンピュータに、
前記近赤外バンド画像内の陸域の領域に画像マスクを適用する処理を実行させる、項1から6のいずれかに記載の画像解析プログラム。
(項8)
前記対象物は、水域に浮遊する物体である、項1から7のいずれかに記載の画像解析プログラム。
(項9)
対象物を含む地球上の領域が撮像された近赤外バンド画像にオブジェクトベース画像解析を適用して、前記近赤外バンド画像において前記対象物の領域が識別された第1の識別画像を生成する第1識別画像生成ステップと、
前記第1の識別画像に基づいて、前記対象物に関連する関連情報を生成する関連情報生成ステップと、
を含む、画像解析方法。
(項10)
対象物を含む地球上の領域が撮像された近赤外バンド画像にオブジェクトベース画像解析を適用して、前記近赤外バンド画像において前記対象物の領域が識別された第1の識別画像を生成する第1識別画像生成部と、
前記第1の識別画像に基づいて、前記対象物に関連する関連情報を生成する関連情報生成部と、
を備える、画像解析装置。
The present invention for achieving the above object includes, for example, the following aspects.
(Item 1)
On the computer
Object-based image analysis is applied to a near-infrared band image in which a region on the earth including an object is captured to generate a first identification image in which the region of the object is identified in the near-infrared band image. And
Generates relevant information related to the object based on the first identification image.
An image analysis program for executing processing.
(Item 2)
On the computer
The buffer region including the region of the identified object based on the first identification image has a higher resolution than the near-infrared band image and is the same as the earth in the near-infrared band image. Set the upper area to the captured high-definition image,
Object-based image analysis is applied to the high-definition image within the buffer region to generate a second identification image in which the region of the object is identified in the high-definition image.
Based on the second identification image instead of the first identification image, related information related to the object is generated.
(Item 3)
On the computer
The reference area surrounding the buffer area is set in the high-definition image, and the reference area is set.
For the high-definition image, the object-based image analysis is applied to the high-definition image within the range of the buffer region by using the brightness value of the reference region as a threshold value.
(Item 4)
(Item 5)
On the computer
(Item 6)
On the computer
(Item 7)
On the computer
(Item 8)
(Item 9)
Object-based image analysis is applied to a near-infrared band image in which a region on the earth including an object is captured to generate a first identification image in which the region of the object is identified in the near-infrared band image. First identification image generation step and
A related information generation step of generating related information related to the object based on the first identification image, and a related information generation step.
Image analysis methods, including.
(Item 10)
Object-based image analysis is applied to a near-infrared band image in which a region on the earth including an object is captured to generate a first identification image in which the region of the object is identified in the near-infrared band image. First identification image generation unit and
A related information generation unit that generates related information related to the object based on the first identification image, and a related information generation unit.
An image analysis device.
本発明によると、上空から撮像された画像に基づいて対象物を識別し、識別した対象物に関連する情報を生成するための画像解析装置、方法およびプログラムを提供することができる。 According to the present invention, it is possible to provide an image analysis device, a method and a program for identifying an object based on an image captured from the sky and generating information related to the identified object.
以下、本発明の実施形態を、添付の図面を参照して詳細に説明する。なお、以下の説明および図面において、同じ符号は同じまたは類似の構成要素を示すこととし、よって、同じまたは類似の構成要素に関する重複した説明を省略する。
[発明の概略]
Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings. In the following description and drawings, the same reference numerals indicate the same or similar components, and thus duplicate description of the same or similar components will be omitted.
[Outline of Invention]
図1は、本発明の一実施形態に係る画像解析装置の使用態様を説明するための図である。 FIG. 1 is a diagram for explaining a usage mode of the image analysis device according to the embodiment of the present invention.
一実施形態に係る画像解析装置1は、上空から撮像された画像に基づいて対象物9を識別し、識別した対象物9に関連する情報35を生成する装置である。本実施形態では、画像解析により情報を生成する対象物9は、例えば沿岸域の海面に浮遊した状態で設置されている養殖筏である。画像解析により生成する情報35は、養殖筏の大きさ(面積)、数、および位置情報(緯度および経度)等の、養殖筏に関連する情報である。
The
画像解析には、例えば衛星8により対象物9の上空から撮像された光学衛星画像が用いられる。本実施形態では、光学衛星画像は、例えば近赤外バンド画像31および高精細画像32である。高精細画像32は、近赤外バンド画像31よりも高い解像度を有している。高精細画像32には、例えばパンクロマチックバンド画像を用いることができる。近赤外バンド画像31および高精細画像32は対をなしており、これらは対象物9を含む地球上の同一の領域が撮像された画像である。
For image analysis, for example, an optical satellite image taken from the sky of the
衛星8から受信した光学衛星画像は、例えば外部サーバ2に保存されており、画像解析装置1は、ネットワークNを介して光学衛星画像を取得する。画像解析装置1は、取得した光学衛星画像(近赤外バンド画像31および高精細画像32)に基づいて画像解析を行い、対象物9に関連する情報35を生成する。
[装置の構成]
The optical satellite image received from the
[Device configuration]
図2は、本発明の一実施形態に係る画像解析装置の機能を説明するためのブロック図である。 FIG. 2 is a block diagram for explaining the function of the image analysis apparatus according to the embodiment of the present invention.
一実施形態に係る画像解析装置1(1A)は、データ処理部12と、補助記憶装置13と、入力部14と、表示部15と、通信インタフェース部(通信I/F部)16とを備えている。画像解析装置1は、タブレット端末またはスマートフォン等(以下、タブレット端末等と記載する)を用いて構成することができる。
The image analysis device 1 (1A) according to one embodiment includes a
本実施形態では、画像解析装置1は、ハードウェアの構成として、補助記憶装置13、入力部14、表示部15および通信I/F部16を備えている。図示していないが、画像解析装置1は、ハードウェアの構成として、データ処理を行うCPU等のプロセッサと、プロセッサがデータ処理の作業領域に使用するメモリとをさらに備えている。
In the present embodiment, the
補助記憶装置13は、オペレーティングシステム(OS)、各種制御プログラム、および、プログラムによって生成されたデータなどを記憶する不揮発性の記憶装置であり、例えば、フラッシュメモリやeMMC(embedded Multi Media Card)、SSD(Solid State Drive)等によって構成される。本実施形態では、補助記憶装置13には、近赤外バンド画像31、高精細画像32、第1の識別画像33、第2の識別画像34、関連情報35、および画像解析プログラムPが記憶される。
The
近赤外バンド画像31は、対象物9を含む地球上の領域が撮像された画像である。高精細画像32は、近赤外バンド画像31よりも高い解像度を有し、近赤外バンド画像31と同一の地球上の領域が撮像された画像である。近赤外バンド画像31および高精細画像32は対をなしており、これらは対象物9を含む地球上の同一の領域が撮像された画像である。本実施形態では、近赤外バンド画像31および高精細画像32には、衛星8により対象物9の上空から撮像された光学衛星画像を用いる。本実施形態において取り扱う近赤外バンド画像31および高精細画像32には、縮尺に関する情報と撮像範囲の緯度および経度の情報とを含むメタデータが記録されている。例示的には、近赤外バンド画像31および高精細画像32の光学衛星画像の画像データは、11ビット〜12ビットで表される輝度値(デジタルナンバー)のデータである。
The near-
本実施形態では、近赤外バンド画像31には、マルチスペクトルバンド画像から作成される、近赤外線の波長帯の画像を用いる。マルチスペクトルバンド画像とは、衛星8により観測される対象物9から反射または放射される電磁波のうち、近赤外、中間赤外および熱赤外等の複数の波長帯の電磁波を記録した画像を意味する。本実施形態では、高精細画像32にはパンクロマチックバンド画像を用いる。パンクロマチックバンド画像とは、衛星8により観測される対象物9から反射または放射される電磁波のうち、特定の1つの波長帯の電磁波のみを記録した画像を意味する。
In the present embodiment, the near-
第1の識別画像33は、近赤外バンド画像31にオブジェクトベース画像解析を適用することにより生成される画像である。第1の識別画像33では、オブジェクトベース画像解析により対象物9の領域41が識別されている。
The
第2の識別画像34は、バッファ領域42が設定された高精細画像32にオブジェクトベース画像解析を適用することにより生成される画像である。第2の識別画像34では、オブジェクトベース画像解析により対象物9の領域44が識別されている。
The
関連情報35は、対象物9に関連する情報である。本実施形態では、関連情報35は、対象物9の大きさ(面積)および数の少なくともいずれかを含む。近赤外バンド画像31に撮像範囲の緯度および経度の情報が対応付けられている場合、関連情報35は、対象物9の位置に関する情報を含むことができる。
The
画像解析プログラムPは、ソフトウェアによる機能ブロックである後述するデータ処理部12内の各部21〜28を実現するためのコンピュータプログラムである。画像解析プログラムPは、通信I/F部16により接続されるインターネット等のネットワークを介して画像解析装置1にインストールしてもよい。あるいは、画像解析プログラムPを記録したメモリカード等のコンピュータ読み取り可能な非一時的な有体の記録媒体を画像解析装置1に読み取らせることにより、画像解析プログラムPを画像解析装置1にインストールしてもよい。画像解析プログラムPは、例えばタブレット端末等のアプリケーションとすることができる。
The image analysis program P is a computer program for realizing each
入力部14は、例えばマウスやキーボード等で構成することができ、表示部15は、例えば液晶ディスプレイおよび有機ELディスプレイ等で構成することができる。本実施形態では、入力部14および表示部15はタッチパネルとして一体化されている。
The
通信I/F部16は、有線または無線のネットワークを介して、外部サーバ2等の外部機器とのデータの送受信を行う。通信I/F部16は、Bluetooth(登録商標)、Wi-Fi(登録商標)、およびZigBee(登録商標)等の種々の無線接続または有線接続であってもよい。
The communication I /
本実施形態では、画像解析装置1は、ソフトウェアの構成としてデータ処理部12を備えている。データ処理部12は、プロセッサが画像解析プログラムPを実行することにより実現される機能ブロックである。
In the present embodiment, the
近赤外バンド画像取得部21は、対象物9を含む地球上の領域が撮像された近赤外バンド画像31を取得する。
The near-infrared band
高精細画像取得部22は、近赤外バンド画像31よりも高い解像度を有し、近赤外バンド画像31と同一の地球上の領域が撮像された高精細画像32を取得する。
The high-definition
マスク適用部23は、近赤外バンド画像31内の陸域の領域に画像マスクを適用する。
The
第1識別画像生成部24は、近赤外バンド画像31にオブジェクトベース画像解析を適用して、近赤外バンド画像31において対象物9の領域41が識別された第1の識別画像33を生成する。
The first identification
バッファ領域設定部25は、第1の識別画像33に基づいて、識別された対象物9の領域41を包含するバッファ領域42を、高精細画像32に設定する。
Based on the
参照領域設定部26は、バッファ領域42を囲む参照領域43を高精細画像32に設定する。
The reference
第2識別画像生成部27は、バッファ領域42の範囲内で高精細画像32にオブジェクトベース画像解析を適用して、高精細画像32において対象物9の領域44が識別された第2の識別画像34を生成する。第2識別画像生成部27は、高精細画像32について、参照領域43の輝度値を閾値として用いて、バッファ領域42の範囲内で高精細画像32にオブジェクトベース画像解析を適用することができる。
The second identification
関連情報生成部28は、第2の識別画像34に基づいて、対象物9に関連する関連情報35を生成する。関連情報生成部28は、対象物9の大きさおよび数の少なくともいずれかに関する情報を生成することができる。関連情報生成部28は、近赤外バンド画像31に対応付けられている撮像範囲の緯度および経度の情報に基づいて、対象物9の位置に関する情報を生成することができる。
[処理手順]
The related
[Processing procedure]
図3は、本発明の一実施形態に係る画像解析方法の手順を説明するためのフローチャートである。 FIG. 3 is a flowchart for explaining the procedure of the image analysis method according to the embodiment of the present invention.
ステップS1(近赤外バンド画像取得ステップ)において、対象物9を含む地球上の領域が撮像された、解析対象領域の近赤外バンド画像31を取得する。本実施形態では、解析対象とする地球上の領域を含む、解析対象領域の近赤外バンド画像31および高精細画像32は、予め衛星8により撮像されて外部サーバ2に保存されており、画像解析装置1は、外部サーバ2から近赤外バンド画像31を取得する。
In step S1 (near-infrared band image acquisition step), the near-
図4は、解析対象領域の近赤外バンド画像の一例である。図示する近赤外バンド画像31中、中央の黒色の領域は海域(水域)であり、海域の周辺の灰色または白色の領域は陸域である。図面中央の海域には、画像解析処理により識別して関連情報35を生成する対象物である複数の養殖筏9が撮像されていることを確認することができる。
FIG. 4 is an example of a near-infrared band image of the analysis target region. In the illustrated near-
ステップS2(画像マスク適用ステップ)において、近赤外バンド画像31内の陸域の領域に画像マスクを適用する。本実施形態では、海域に浮遊している養殖筏9を画像解析処理により識別するため、画像解析処理の対象外となる地面や森、畑、水田、住宅地等の陸域の領域には、画像マスクを適用する。以下に説明する画像解析処理において、近赤外バンド画像31内の領域のうち画像マスクが適用されている領域には、画像解析処理は適用されない。
In step S2 (image mask application step), the image mask is applied to the land region in the near
ステップS3(高精細画像取得ステップ)において、近赤外バンド画像31と同一の地球上の領域が撮像された、解析対象領域の高精細画像32を取得する。本実施形態では、画像解析装置1は、近赤外バンド画像31と対をなす高精細画像32を外部サーバ2から取得する。
In step S3 (high-definition image acquisition step), a high-
ステップS4において、解析対象の領域を複数の単位領域Uに分割する。単位領域Uとは、以下のステップS5〜ステップS8において画像解析装置1が画像解析処理を行う際に、処理単位とする領域である。
In step S4, the area to be analyzed is divided into a plurality of unit areas U. The unit area U is an area to be used as a processing unit when the
図5は、単位領域Uについて拡大表示された近赤外バンド画像および高精細画像の一例である。(A)は近赤外バンド画像31であり、(B)は高精細画像32である。
FIG. 5 is an example of a near-infrared band image and a high-definition image enlarged and displayed for the unit region U. (A) is a near-
解析対象の近赤外バンド画像31および高精細画像32は、それぞれが複数の単位領域Uに分割される。近赤外バンド画像31および高精細画像32は対をなしており、単位領域Uも近赤外バンド画像31と高精細画像32との間において対をなしている。すなわち、図4に例示する位置の単位領域Uに対して以下のステップS5〜S8の画像解析処理を行う際には、図5に示す同じ領域が撮像された単位領域Uの近赤外バンド画像31および高精細画像32を用いて画像解析処理が行われる。
The near-
ステップS5(第1識別画像生成ステップ)において、近赤外バンド画像31にオブジェクトベース画像解析を適用して、近赤外バンド画像31において対象物9の領域41が識別された第1の識別画像33を生成する。本実施形態では、オブジェクトベース画像解析において用いる輝度値(光学衛星画像では、画像値またはデジタルナンバーとも呼ばれる)のしきい値は、例えば表示部15に表示される近赤外バンド画像31の輝度値のヒストグラムに基づいて、例えばオペレータにより任意で決定される。決定された輝度値のしきい値は、例えばオペレータにより入力部14を介して画像解析装置1に入力される。
In step S5 (first identification image generation step), object-based image analysis is applied to the near-
図6は、オブジェクトベース画像解析を適用する際に画像に設定するバッファ領域および参照領域を説明するための模式的な図である。図7は、近赤外バンド画像の単位領域について生成された第1の識別画像の一例である。 FIG. 6 is a schematic diagram for explaining a buffer area and a reference area set in an image when applying object-based image analysis. FIG. 7 is an example of a first identification image generated for a unit region of a near-infrared band image.
領域41は、近赤外バンド画像31にオブジェクトベース画像解析を適用することにより識別される対象物9の領域である。本実施形態では、領域41は、オブジェクトベース画像解析により、海面に設置されている養殖筏9であると判断された画素の集合である。オブジェクトベース画像解析とは、性質が近い近隣の画素を1つのオブジェクトとして結合し、この結合したオブジェクトを単位として行う画像解析の手法である。オブジェクトベース画像解析によると、目視による判断に近い結果を得ることが可能となる。
The
近赤外バンド画像31において領域41が識別されることにより、近赤外バンド画像31と対をなす高精細画像32においてバッファ領域42および参照領域43が設定される。これらバッファ領域42および参照領域43は、第2の識別画像34を生成する際に高精細画像32に設定される仮想的な領域である。言い換えると、バッファ領域42および参照領域43は、近赤外バンド画像31および高精細画像32を用いた2段階のオブジェクトベース画像解析を行うための仮想的な領域である。すなわち、近赤外バンド画像31を用いた1段階目のオブジェクトベース画像解析により、対象物9の領域の概略を識別し、高精細画像32を用いた、バッファ領域42の範囲内での2段階目のオブジェクトベース画像解析により、対象物9の領域を詳細に識別する。
By identifying the
バッファ領域42は、対象物9の領域41を包含する領域である。本実施形態では、バッファ領域42は、領域41と、領域41の外周から所定の画素数(例えば、2画素〜5画素程度)の範囲内の領域とを包含する領域である。参照領域43は、バッファ領域42を囲む領域であり、領域41およびバッファ領域42を包含しない領域である。本実施形態では、参照領域43は、バッファ領域42の外周から所定の画素数(例えば、1画素〜5画素程度)の範囲内の領域である。
The
ステップS6(バッファ領域設定ステップ)において、第1の識別画像33に基づいて、識別された対象物9の領域41を包含するバッファ領域42を高精細画像32に設定する。好ましくは、本ステップに引き続き、バッファ領域42を囲む参照領域43を高精細画像32に設定する。
In step S6 (buffer area setting step), the
図6および図7を参照して説明したように、第1の識別画像33において対象物9であると識別されている複数の領域41のそれぞれについて、対をなす高精細画像32においてバッファ領域42および参照領域43を設定する。
As described with reference to FIGS. 6 and 7, for each of the plurality of
ステップS7(第2識別画像生成ステップ)において、バッファ領域42の範囲内で高精細画像32にオブジェクトベース画像解析を適用して、高精細画像32において対象物9の領域44が識別された第2の識別画像34を生成する。本ステップでは、高精細画像32について、参照領域43の輝度値を閾値として用いて、バッファ領域42の範囲内で高精細画像32にオブジェクトベース画像解析を適用することができる。
In step S7 (second identification image generation step), the object-based image analysis is applied to the high-
図8は、高精細画像の単位領域について生成された第2の識別画像の一例である。識別される対象物9の領域について、図7に示す第1の識別画像33中の領域41と、図8に示す第2の識別画像34中の領域44とを比較すると、図8に示す領域44の方が、対象物9の輪郭をより正確に識別していることが理解される。
FIG. 8 is an example of a second identification image generated for a unit region of a high-definition image. Regarding the region of the
図9は、解析対象領域中の図4に示す単位領域とは別の単位領域について生成された識別画像の一例である。(A)は第1の識別画像33であり、(B)は第2の識別画像34である。図9に示す別の単位領域Uについても、第2の識別画像34中の領域44の方が、対象物9の輪郭をより正確に識別していることが理解される。
FIG. 9 is an example of an identification image generated for a unit area different from the unit area shown in FIG. 4 in the analysis target area. (A) is the
ステップS8(関連情報生成ステップ)において、第2の識別画像34に基づいて、対象物9に関連する関連情報35を生成する。本実施形態では、第2の識別画像34中に領域44として識別されている対象物9について、領域の数をカウントし領域の大きさを算出する公知の画像処理技術に基づいて、対象物9の大きさおよび数の少なくともいずれかに関する情報を関連情報35として生成する。図8を参照すると、第2の識別画像34中の領域44のそばには、一例として、領域44の大きさに基づいて算出される対象物9(養殖筏9)の面積が示されている。
In step S8 (related information generation step), the
本ステップでは、さらに、近赤外バンド画像31に対応付けられている撮像範囲の緯度および経度の情報に基づいて、対象物9の位置に関する情報を関連情報35として生成することができる。通常、衛星8により撮像されている近赤外バンド画像31には、縮尺に関する情報と撮像範囲の緯度および経度の情報とを含むメタデータが記録されている。本実施形態では、このメタデータと、単位領域Uの第2の識別画像34内での領域44の位置とに基づいて、対象物9の領域44の位置に関する情報を、関連情報35として生成する。
In this step, further, information on the position of the
ステップS9において、分割した単位領域Uを全て処理する(ステップS9においてYes)までステップS5から処理を繰り返し、単位領域U内に含まれている対象物9に関連する関連情報35を次々に生成する。
[効果]
In step S9, the processing is repeated from step S5 until all the divided unit areas U are processed (Yes in step S9), and
[effect]
以上、本発明の一実施形態に係る画像解析装置、方法およびプログラムによると、上空から撮像された画像に基づいて対象物を識別し、識別した対象物に関連する情報を生成することができる。生成した関連情報は、識別した対象物に関連する情報として活用することができる。例えば対象物が養殖筏の場合、漁業権者は、実際に海面に設置されている養殖施設の台数や緯度および経度等の空間配置を、高い精度で定量的に把握することが可能となる。 As described above, according to the image analysis apparatus, method and program according to the embodiment of the present invention, it is possible to identify an object based on an image captured from the sky and generate information related to the identified object. The generated related information can be used as information related to the identified object. For example, when the object is aquaculture raft, the fishery right holder can quantitatively grasp the number of aquaculture facilities actually installed on the sea surface and the spatial arrangement such as latitude and longitude with high accuracy.
また、対象物である養殖筏の識別および関連情報の生成は、衛星等により対象物の上空から撮像された画像に基づいてなされているので、漁業権者は非効率的な現地調査を行う必要はない。衛星により撮像された光学衛星画像を画像解析に用いる場合、光学衛星画像は衛星が地球の衛星軌道上を周回することにより定期的に撮像されるので、関連情報も定期的に生成することが可能である。 In addition, since the identification of the aquaculture raft, which is the object, and the generation of related information are performed based on the image taken from the sky of the object by satellite, etc., the fishery right holder needs to conduct an inefficient field survey. There is no. When an optical satellite image image taken by a satellite is used for image analysis, the optical satellite image is periodically captured by the satellite orbiting the earth's satellite orbit, so that related information can also be generated regularly. Is.
また、近赤外バンド画像31では、対象物9である養殖筏9と海面との輝度値の差が大きく記録されている。これにより、オブジェクトベース画像解析において用いることで良好な識別結果を得ることができるしきい値の範囲が拡大し、しきい値の設定がし易くなる。
[他の実施形態]
Further, in the near-
[Other Embodiments]
以下において説明する他の実施形態に係る画像解析装置1(1B)および画像解析方法は、特に言及しない限り、上記した一実施形態に係る画像解析装置および画像解析方法と同様であるので、重複する説明は省略する。 Unless otherwise specified, the image analysis apparatus 1 (1B) and the image analysis method according to the other embodiments described below are the same as the image analysis apparatus and the image analysis method according to the above-described embodiment, and thus overlap. The description is omitted.
上記実施形態では、高精細画像32にオブジェクトベース画像解析を適用して第2の識別画像34を生成し、第2の識別画像34に基づいて関連情報35を生成しているが、関連情報35を生成する手順はこれに限定されない。他の実施形態では、高精細画像32は用いずに近赤外バンド画像31を用いて画像解析を行う。すなわち、他の実施形態では、近赤外バンド画像31にオブジェクトベース画像解析を適用することにより生成される第1の識別画像33に基づいて、関連情報35を生成する。
In the above embodiment, the object-based image analysis is applied to the high-
図10は、本発明の他の実施形態に係る画像解析装置の機能を説明するためのブロック図である。他の実施形態に係る画像解析装置1Bでは、図2を参照して説明した上記実施形態に係る画像解析装置1Aにおいて、高精細画像取得部22、バッファ領域設定部25、参照領域設定部26、第2識別画像生成部27が省略されている。また、関連情報生成部28は、第2の識別画像34に代えて第1の識別画像33に基づいて、対象物9に関連する関連情報35を生成する。
FIG. 10 is a block diagram for explaining the function of the image analysis apparatus according to another embodiment of the present invention. In the
図11は、本発明の他の実施形態に係る画像解析方法の手順を説明するためのフローチャートである。他の実施形態に係る画像解析方法では、図3を参照して説明した上記実施形態に係る画像解析方法において、ステップS3,S6,S7を省略している。また、ステップS8において、第2の識別画像34に代えて第1の識別画像33に基づいて、対象物9に関連する関連情報35を生成する。図7を参照すると、第1の識別画像33中の領域41のそばには、一例として、領域41の大きさに基づいて算出される対象物9(養殖筏9)の面積が示されている。
[その他の形態]
FIG. 11 is a flowchart for explaining the procedure of the image analysis method according to another embodiment of the present invention. In the image analysis method according to the other embodiment, steps S3, S6, and S7 are omitted in the image analysis method according to the above embodiment described with reference to FIG. Further, in step S8, the
[Other forms]
以上、本発明を特定の実施形態によって説明したが、本発明は上記した実施形態に限定されるものではない。 Although the present invention has been described above by the specific embodiment, the present invention is not limited to the above-described embodiment.
上記実施形態では、近赤外バンド画像31内の陸域の領域に画像マスクを適用しているが、例えば処理対象の領域が全て海域であると予め把握可能な場合は、画像マスクを適用する処理は省略することができる。
In the above embodiment, the image mask is applied to the land area in the near-
上記実施形態では、解析対象の領域を複数の単位領域Uに分割し、分割した単位領域Uのそれぞれについて画像解析処理を行っているが、複数の単位領域Uに分割することなく、解析対象の領域について画像解析処理を行ってもよい。 In the above embodiment, the area to be analyzed is divided into a plurality of unit areas U, and image analysis processing is performed for each of the divided unit areas U. However, the analysis target is not divided into a plurality of unit areas U. Image analysis processing may be performed on the region.
上記実施形態では、解析対象領域の近赤外バンド画像31および高精細画像32を外部サーバ2から取得して画像解析処理を行っているが、近赤外バンド画像31および高精細画像32の取得元は外部サーバ2に限定されない。近赤外バンド画像31および高精細画像32は衛星8から直接取得することもできる。また、例えば本発明の画像解析プログラムが衛星8自体にインストールされている場合には、これら近赤外バンド画像31および高精細画像32を外部から取得する手順を省略することもできる。
In the above embodiment, the near-
上記実施形態では、画像解析装置1は一体の装置として実現されているが、画像解析装置1は一体の装置である必要はなく、プロセッサ、メモリ、補助記憶装置13等が別所に配置され、これらが互いにネットワークで接続されていてもよい。データ処理部12の機能および補助記憶装置13内のデータ項目は、一部または全部が、通信I/F部16を介して接続される外部サーバ2においてクラウド化されていてもよい。
In the above embodiment, the
上記実施形態では、データ処理部12を構成する各機能ブロック21〜28はソフトウェアにより実現されているが、これら各機能ブロック21〜28は、一部または全部がハードウェアとして実現されてもよい。データ処理部12を構成する各機能ブロック21〜28の処理は単一のプロセッサで処理される必要はなく、複数のプロセッサで分散して処理されてもよい。また、プロセッサに代えて、FPGA(Field Programmable Gate Array)が処理を行ってもよいし、例えばGPU(Graphics Processing Unit)をアクセラレータとして用いて、プロセッサが行う並列演算処理を補助してもよい。すなわちプロセッサが行う処理とは、プロセッサまたはFPGAが、GPU等のアクセラレータを用いて行う処理も含むことを意味する。
In the above embodiment, the
上記実施形態では、タブレット端末またはスマートフォン等を用いて画像解析装置1を構成しているが、パーソナルコンピュータ等の汎用計算機を用いて画像解析装置1を構成してもよい。
In the above embodiment, the
上記実施形態では、画像解析に光学衛星画像を用いているが、画像解析に用いる画像は光学衛星画像に限らず、例えば航空機やドローン等から撮像された画像であってもよい。すなわち、画像解析に用いる画像は、対象物9の上空から撮像された画像であればよい。航空機やドローンには、例えば近赤外バンド画像31および高精細画像32の少なくとも2種類の画像を撮像可能な撮像装置を搭載すればよい。
In the above embodiment, the optical satellite image is used for the image analysis, but the image used for the image analysis is not limited to the optical satellite image, and may be an image taken from, for example, an aircraft or a drone. That is, the image used for the image analysis may be an image captured from the sky above the
上記実施形態では、高精細画像32にパンクロマチックバンド画像を用いているが、高精細画像32はパンクロマチックバンド画像に限定されない。高精細画像32は、近赤外バンド画像31よりも高い解像度を有し、近赤外バンド画像31と同一の地球上の領域が撮像された画像であればよい。
In the above embodiment, the panchromatic band image is used for the high-
上記実施形態では、画像解析により情報を生成する対象物9は、例えば沿岸域の海面に浮遊した状態で設置されている養殖筏であるが、対象物9は水域に浮遊する物体(浮遊物)に限らない。対象物9は、例えば砂漠地帯等の陸域に例えばモスボール化して保管されている航空機や車両等であってもよく、対象物9は、オブジェクトベース画像解析により背景画像から抽出可能な物体であればよい。
In the above embodiment, the
以下に本発明の実施例を示し、本発明の特徴をより明確にする。
[第1の実施例]
Examples of the present invention are shown below to further clarify the features of the present invention.
[First Example]
第1の実施例では、本発明の上記した他の実施形態に係る画像解析方法により得られる対象物9の数および面積(すなわち、近赤外バンド画像31において識別された領域41の数および面積)について、現地調査における実測値との比較を行った。また、同様の比較を、他の形式の衛星画像(RGB画像)を画像解析することにより得られる結果と、近赤外バンド画像を用いずにパンクロマチックバンド画像のみを画像解析することにより得られる結果とに対しても行った。
In the first embodiment, the number and area of the
岩手県と宮城県との県境に位置する広田湾を対象の領域とした。広田湾は、湾開口部の長さが約4.8km、奥行きが約9km、面積が約37.1km2、湾内および湾口の最大水深が約56mのリアス式海外である。湾内ではカキ、ワカメ、ホタテ貝等の海面養殖が行われている。本実施例では、カキの養殖に用いられる長さ約10m、幅約4mの養殖筏を識別して、識別した養殖筏の数および面積を算出し、現地調査における実測値との比較を行った。 The target area was Hirota Bay, which is located on the prefectural border between Iwate and Miyagi prefectures. Hirota Bay is a rias-type overseas with a bay opening length of about 4.8 km, a depth of about 9 km, an area of about 37.1 km 2 , and a maximum water depth of about 56 m in the bay and at the mouth of the bay. Sea surface aquaculture of oysters, wakame seaweed, scallops, etc. is carried out in the bay. In this example, we identified aquaculture rafts with a length of about 10 m and a width of about 4 m used for oyster cultivation, calculated the number and area of the identified aquaculture rafts, and compared them with the measured values in the field survey. ..
画像解析には、2015年4月30日に人工衛星Pleiades1Aにより観測された、空間分解能2.0mのマルチスペクトルバンド画像を用いた。このマルチスペクトルバンド画像から、RGB画像(R:バンド3、G:バンド2、B:バンド1)と、近赤外バンド画像(バンド4)との2種類の画像を作成し、作成したこれら2種類の画像のそれぞれを用いた場合について、画像解析を行った。また、空間分解能0.5mのパンクロマチックバンド画像のみを用いた場合について、画像解析を行った。画像の解析には、ソフトウェアENVI5.5(米国Harris GeoSpatial社)を用い、ルールベースのオブジェクトベース解析を行った。画像解析の条件として、海面のスペクトル領域を除外したスペクトルを養殖筏として設定した。
For the image analysis, a multispectral band image with a spatial resolution of 2.0 m, which was observed by the artificial satellite Pleiades1A on April 30, 2015, was used. From this multispectral band image, two types of images, an RGB image (R:
現地調査は2015年9月29日に行い、養殖筏が規則正しく区画毎に配置されていることを確認した。空間配置については、パンクロマチックバンド画像を用いた目視判断を行うことにより、対象とする領域の海域全体で1053台の養殖筏が設置されていることを確認した。 A field survey was conducted on September 29, 2015, and it was confirmed that the aquaculture rafts were regularly arranged in each section. Regarding the spatial arrangement, by visually judging using the panchromatic band image, it was confirmed that 1053 aquaculture rafts were installed in the entire sea area of the target area.
RGB画像を用いた画像解析からは、897台の養殖筏が検出された。これは目視判断による結果と比較して約85%の検出率であった。また、養殖筏1台あたりの平均面積は約48m2であった。実際の養殖筏の面積は約40m2であることから、RGB画像を用いた画像解析では、実際の面積よりも大きく検出された。この面積の大きさの違いは、画像解析に用いた人工衛星Pleiades1Aによる近赤外バンド画像の空間分解能の2ピクセル分の面積(約8.0m2)に相当する。
From image analysis using RGB images, 897 farmed rafts were detected. This was a detection rate of about 85% as compared with the result by visual judgment. The average area per aquaculture raft was about 48 m 2 . Since the actual area of the aquaculture raft is about 40 m 2 , it was detected larger than the actual area in the image analysis using the RGB image. This difference in the size of the area corresponds to the area (about 8.0 m 2 ) of 2 pixels of the spatial resolution of the near-infrared band image by the
近赤外バンド画像を用いた画像解析からは、1030台の養殖筏が検出された。これは目視判断による結果と比較して約98%の検出率であった。また、養殖筏1台あたりの平均面積は約49m2であり、RGB画像を用いた場合と同様に、実際よりも2ピクセル程度大きく面積が検出された。養殖筏の台数が実際よりも少なく検出された理由としては、例えば、互いに近い距離で配置されている養殖筏や、漁船が係留されていた養殖筏等では、それぞれが区別されずに1つのオブジェクトとして解析されていることが理由として考えられる。また、これによって、養殖筏1台あたりの平均面積も、実際の面積よりも大きく検出されたと考えられる。 Image analysis using near-infrared band images detected 1030 aquaculture rafts. This was a detection rate of about 98% as compared with the result by visual judgment. In addition, the average area per aquaculture raft was about 49 m 2 , and the area was detected to be about 2 pixels larger than the actual area, as in the case of using the RGB image. The reason why the number of aquaculture rafts was detected less than the actual number is that, for example, in aquaculture rafts arranged close to each other and aquaculture rafts where fishing boats were moored, each object is not distinguished. It is considered that the reason is that it is analyzed as. In addition, it is considered that the average area per aquaculture raft was also detected to be larger than the actual area.
パンクロマチックバンド画像のみを用いた画像解析からは、1319台の養殖筏が検出された。これは目視判断による結果と比較して約25%の検出率の増加であった。また、養殖筏1台あたりの平均面積は約30m2であり、実際の面積よりも小さく検出された。養殖筏の台数が実際よりも多く検出された理由としては、画像解析に用いたパンクロマチックバンド画像の空間分解能(0.5m)では、1台の養殖筏が2〜4台程度の複数の細かいオブジェクトとして解析されたことが理由として考えられる。また、これによって、養殖筏1台あたりの平均面積も、実際の面積よりも小さく検出されたと考えられる。 Image analysis using only panchromatic band images detected 1319 farmed rafts. This was an increase in detection rate of about 25% compared to the result by visual judgment. The average area per aquaculture raft was about 30 m 2 , which was detected smaller than the actual area. The reason why the number of aquaculture rafts was detected more than the actual number is that the spatial resolution (0.5 m) of the panchromatic band image used for image analysis shows that one aquaculture raft is a plurality of small rafts of about 2 to 4 rafts. The reason may be that it was analyzed as an object. In addition, it is considered that the average area per aquaculture raft was also detected to be smaller than the actual area.
以上、第1の実施例より、オブジェクトベース画像解析により養殖筏の台数を検出する場合には、必ずしも空間分解能が高いパンクロマチックバンド画像を用いる必要はなく、マルチスペクトルバンド画像程度の空間分解能で十分であることが示された。また、RGB画像を用いるよりも、近赤外バンド画像を用いることにより、養殖筏の検出率が向上することが示された。
[第2の実施例]
As described above, from the first embodiment, when detecting the number of cultivated rafts by object-based image analysis, it is not always necessary to use a panchromatic band image having a high spatial resolution, and a spatial resolution of about a multispectral band image is sufficient. Was shown to be. It was also shown that the detection rate of the aquaculture raft is improved by using the near-infrared band image rather than using the RGB image.
[Second Example]
第2の実施例では、本発明の上記した二種類の実施形態に係る画像解析方法のそれぞれにより得られる対象物9の面積について、現地調査における実測値との比較を行った。すなわち、第2の実施例では、近赤外バンド画像31を用いた1段階目のオブジェクトベース画像解析により識別された領域41の面積と、高精細画像32を用いた、バッファ領域42の範囲内での2段階目のオブジェクトベース画像解析により識別された領域44の面積とのそれぞれを、現地調査における実測値と比較した。宮城県石巻市長面浦を対象の領域とし、長面浦の海面に浮遊した状態で設置されている養殖筏を対象物として検出し、対象物の関連情報として面積を算出した。現地調査における養殖筏の実測は、2019年5月21日に行われた。
In the second embodiment, the area of the
図12は、第2の実施例において行った現地調査の結果を説明するための図である。対象の領域とした宮城県石巻市長面浦のRGB画像(白黒表示)を(A)に示し、現地調査において実測された養殖筏の面積を(B)の表に示す。現地における実測は、(A)のRGB画像中に番号1〜10で示す地点に設置されている養殖筏について行われた。
FIG. 12 is a diagram for explaining the results of the field survey conducted in the second embodiment. The RGB image (black and white display) of Nakazuraura, Ishinomaki City, Miyagi Prefecture, which was the target area, is shown in (A), and the area of the aquaculture raft actually measured in the field survey is shown in Table (B). The actual measurement at the site was performed on the aquaculture rafts installed at the points indicated by
図13は、第2の実施例において行った画像解析結果の一例である。(A)は第1の識別画像であり、(B)は第2の識別画像である。(A)および(B)に示す識別画像は、番号6〜8で示す養殖筏の海域について拡大表示されている。また、(A)には、第1の識別画像に基づいて生成されたそれぞれの養殖筏の面積が表示されている。(A)と同様に(B)にも、第2の識別画像に基づいて生成されたそれぞれの養殖筏の面積が表示されている。 FIG. 13 is an example of the result of image analysis performed in the second embodiment. (A) is a first identification image, and (B) is a second identification image. The identification images shown in (A) and (B) are enlarged and displayed for the sea area of the aquaculture raft shown by Nos. 6 to 8. Further, in (A), the area of each aquaculture raft generated based on the first identification image is displayed. Similar to (A), (B) also displays the area of each aquaculture raft generated based on the second identification image.
図14は、第2の実施例において行った現地調査における実測値との比較結果を説明するための図である。(A)は、上記した二種類の画像解析方法のそれぞれにより得られる養殖筏の面積と、現地調査における養殖筏の面積の実測値とを比較するためのグラフである。(B)は、上記した二種類の画像解析方法のそれぞれにより得られる養殖筏の面積について実測値との差分を示した表である。(B)の表には、番号1〜10で示す地点に設置されているそれぞれの養殖筏について、実測値との差分が示されている。
FIG. 14 is a diagram for explaining the comparison result with the measured value in the field survey conducted in the second embodiment. (A) is a graph for comparing the area of the aquaculture raft obtained by each of the above two types of image analysis methods with the measured value of the area of the aquaculture raft in the field survey. (B) is a table showing the difference between the measured value and the area of the aquaculture raft obtained by each of the above two types of image analysis methods. In the table (B), the difference from the measured value is shown for each aquaculture raft installed at the points indicated by
(A)のグラフを参照すると、例えば番号6および番号10の養殖筏については、高精細画像を用いずに近赤外バンド画像に基づく画像解析により得られた面積の値は、実測値から約20%程度も広めに算出されていた。(B)の表を参照して、実測値による面積と、上記した二種類の画像解析方法のそれぞれにより得られる面積との差分の標準偏差を算出した。近赤外バンド画像に基づく画像解析については、標準偏差は11.21m2であり、高精細画像に基づく画像解析については、標準偏差は3.60m2であった。このことから、高精細画像に基づく画像解析の方が、得られる面積のばらつきが少ないことが確認された。 Referring to the graph of (A), for example, for the aquaculture rafts of No. 6 and No. 10, the value of the area obtained by the image analysis based on the near infrared band image without using the high-definition image is about about the measured value. It was calculated to be as wide as 20%. With reference to the table in (B), the standard deviation of the difference between the measured area and the area obtained by each of the above two types of image analysis methods was calculated. For image analysis based on near-infrared band images, the standard deviation was 11.21 m 2 , and for image analysis based on high-definition images, the standard deviation was 3.60 m 2 . From this, it was confirmed that the image analysis based on the high-definition image has less variation in the obtained area.
以上、第2の実施例より、オブジェクトベース画像解析により養殖筏の台数を検出し、検出した養殖筏の面積を算出する場合には、近赤外バンド画像および高精細画像を用いて2段階のオブジェクトベース画像解析を行うことが好ましいことが示された。 As described above, from the second embodiment, when the number of aquaculture rafts is detected by object-based image analysis and the area of the detected aquaculture rafts is calculated, the near-infrared band image and the high-definition image are used in two steps. It has been shown that it is preferable to perform object-based image analysis.
1(1A,1B) 画像解析装置
2 外部サーバ
8 衛星
9 対象物(養殖筏)
12 データ処理部
13 補助記憶装置
14 入力部
15 表示部
16 通信インタフェース部
21 近赤外バンド画像取得部
22 高精細画像取得部
23 マスク適用部
24 識別画像生成部
25 バッファ領域設定部
26 参照領域設定部
27 識別画像生成部
28 関連情報生成部
31 近赤外バンド画像
32 高精細画像(パンクロマチックバンド画像)
33 第1の識別画像
34 第2の識別画像
35 関連情報
41 対象物の領域
42 バッファ領域
43 参照領域
44 対象物の領域
N ネットワーク
P 画像解析プログラム
U 単位領域
1 (1A, 1B)
12
33
Claims (10)
対象物を含む地球上の領域が撮像された近赤外バンド画像にオブジェクトベース画像解析を適用して、前記近赤外バンド画像において前記対象物の領域が識別された第1の識別画像を生成し、
前記第1の識別画像に基づいて、前記対象物に関連する関連情報を生成する、
処理を実行させるための、画像解析プログラム。 On the computer
Object-based image analysis is applied to a near-infrared band image in which a region on the earth including an object is captured to generate a first identification image in which the region of the object is identified in the near-infrared band image. And
Generates relevant information related to the object based on the first identification image.
An image analysis program for executing processing.
前記第1の識別画像に基づいて、識別された前記対象物の領域を包含するバッファ領域を、前記近赤外バンド画像よりも高い解像度を有し、前記近赤外バンド画像と同一の前記地球上の領域が撮像された高精細画像に設定し、
前記バッファ領域の範囲内で前記高精細画像にオブジェクトベース画像解析を適用して、前記高精細画像において前記対象物の領域が識別された第2の識別画像を生成し、
前記第1の識別画像に代えて前記第2の識別画像に基づいて、前記対象物に関連する関連情報を生成する、
処理を実行させるための、請求項1に記載の画像解析プログラム。 On the computer
The buffer region including the region of the identified object based on the first identification image has a higher resolution than the near-infrared band image and is the same as the earth in the near-infrared band image. Set the upper area to the captured high-definition image,
Object-based image analysis is applied to the high-definition image within the buffer region to generate a second identification image in which the region of the object is identified in the high-definition image.
Based on the second identification image instead of the first identification image, related information related to the object is generated.
The image analysis program according to claim 1, wherein the process is executed.
前記バッファ領域を囲む参照領域を前記高精細画像に設定し、
前記高精細画像について、前記参照領域の輝度値を閾値として用いて、前記バッファ領域の範囲内で前記高精細画像に前記オブジェクトベース画像解析を適用する、
処理を実行させるための、請求項2に記載の画像解析プログラム。 On the computer
The reference area surrounding the buffer area is set in the high-definition image, and the reference area is set.
For the high-definition image, the object-based image analysis is applied to the high-definition image within the range of the buffer region by using the brightness value of the reference region as a threshold value.
The image analysis program according to claim 2, wherein the process is executed.
前記対象物の大きさおよび数の少なくともいずれかに関する情報を生成する処理を実行させる、請求項1から4のいずれかに記載の画像解析プログラム。 On the computer
The image analysis program according to any one of claims 1 to 4, which executes a process of generating information regarding at least one of the size and number of the objects.
前記近赤外バンド画像に対応付けられている撮像範囲の緯度および経度の情報に基づいて、前記対象物の位置に関する情報を生成する処理を実行させる、請求項1から5のいずれかに記載の画像解析プログラム。 On the computer
The method according to any one of claims 1 to 5, wherein a process for generating information regarding the position of the object is executed based on the latitude and longitude information of the imaging range associated with the near-infrared band image. Image analysis program.
前記近赤外バンド画像内の陸域の領域に画像マスクを適用する処理を実行させる、請求項1から6のいずれかに記載の画像解析プログラム。 On the computer
The image analysis program according to any one of claims 1 to 6, wherein a process of applying an image mask to a land region in the near-infrared band image is executed.
前記第1の識別画像に基づいて、前記対象物に関連する関連情報を生成する関連情報生成ステップと、
を含む、画像解析方法。 Object-based image analysis is applied to a near-infrared band image in which a region on the earth including an object is captured to generate a first identification image in which the region of the object is identified in the near-infrared band image. First identification image generation step and
A related information generation step of generating related information related to the object based on the first identification image, and a related information generation step.
Image analysis methods, including.
前記第1の識別画像に基づいて、前記対象物に関連する関連情報を生成する関連情報生成部と、
を備える、画像解析装置。 Object-based image analysis is applied to a near-infrared band image in which a region on the earth including an object is captured to generate a first identification image in which the region of the object is identified in the near-infrared band image. First identification image generation unit and
A related information generation unit that generates related information related to the object based on the first identification image, and a related information generation unit.
An image analysis device.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019162614A JP7313676B2 (en) | 2019-09-06 | 2019-09-06 | Image analysis program, image analysis method and image analysis device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019162614A JP7313676B2 (en) | 2019-09-06 | 2019-09-06 | Image analysis program, image analysis method and image analysis device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021043485A true JP2021043485A (en) | 2021-03-18 |
JP7313676B2 JP7313676B2 (en) | 2023-07-25 |
Family
ID=74861665
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019162614A Active JP7313676B2 (en) | 2019-09-06 | 2019-09-06 | Image analysis program, image analysis method and image analysis device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7313676B2 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2022196637A1 (en) | 2021-03-17 | 2022-09-22 | 三菱マテリアル株式会社 | Surface-coated cutting tool |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH11109013A (en) * | 1997-10-06 | 1999-04-23 | Mitsubishi Electric Corp | Target-detecting device |
JP2007018387A (en) * | 2005-07-08 | 2007-01-25 | Ntt Data Corp | Apparatus and method for preparing map of green covering ratio, and program |
JP2008226176A (en) * | 2007-03-15 | 2008-09-25 | Toshiba Corp | Thermal target tracking device and method |
CN105184804A (en) * | 2015-10-12 | 2015-12-23 | 上海海大技术转移有限公司 | Sea surface small target detection method based on airborne infrared camera aerially-photographed image |
JP2018097506A (en) * | 2016-12-12 | 2018-06-21 | 株式会社日立製作所 | Satellite image processing system and method |
-
2019
- 2019-09-06 JP JP2019162614A patent/JP7313676B2/en active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH11109013A (en) * | 1997-10-06 | 1999-04-23 | Mitsubishi Electric Corp | Target-detecting device |
JP2007018387A (en) * | 2005-07-08 | 2007-01-25 | Ntt Data Corp | Apparatus and method for preparing map of green covering ratio, and program |
JP2008226176A (en) * | 2007-03-15 | 2008-09-25 | Toshiba Corp | Thermal target tracking device and method |
CN105184804A (en) * | 2015-10-12 | 2015-12-23 | 上海海大技术转移有限公司 | Sea surface small target detection method based on airborne infrared camera aerially-photographed image |
JP2018097506A (en) * | 2016-12-12 | 2018-06-21 | 株式会社日立製作所 | Satellite image processing system and method |
Non-Patent Citations (1)
Title |
---|
若林 裕之 ほか: "UAV搭載可視近赤外カメラを用いた猪苗代湖北部水域の水生植物モニタリング", 第66回(令和元年度春季)学術講演会論文集[CD−ROM], JPN6023018008, June 2019 (2019-06-01), pages 153 - 154, ISSN: 0005051464 * |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2022196637A1 (en) | 2021-03-17 | 2022-09-22 | 三菱マテリアル株式会社 | Surface-coated cutting tool |
Also Published As
Publication number | Publication date |
---|---|
JP7313676B2 (en) | 2023-07-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10049434B2 (en) | Systems and methods for object detection | |
US9466130B2 (en) | Systems and methods for enhancing displayed images | |
Boldt et al. | Development of stereo camera methodologies to improve pelagic fish biomass estimates and inform ecosystem management in marine waters | |
US8498480B2 (en) | Computationally efficient method for image segmentation with intensity and texture discrimination | |
Hayes et al. | Drones and deep learning produce accurate and efficient monitoring of large-scale seabird colonies | |
Andrew et al. | Semi‐automated detection of eagle nests: an application of very high‐resolution image data and advanced image analyses to wildlife surveys | |
Traganos et al. | Cubesat-derived detection of seagrasses using planet imagery following unmixing-based denoising: Is small the next big? | |
Barnas et al. | A comparison of drone imagery and ground-based methods for estimating the extent of habitat destruction by lesser snow geese (Anser caerulescens caerulescens) in La Pérouse Bay | |
US11334986B2 (en) | System and method for processing images of agricultural fields for remote phenotype measurement | |
Brown et al. | Automated aerial animal detection when spatial resolution conditions are varied | |
Kolli et al. | Automatic extraction of large-scale aquaculture encroachment areas using Canny Edge Otsu algorithm in Google Earth Engine–the case study of Kolleru Lake, South India | |
CN114758249A (en) | Target object monitoring method, device, equipment and medium based on field night environment | |
US20160019699A1 (en) | Edge detection in images | |
JP7313676B2 (en) | Image analysis program, image analysis method and image analysis device | |
US20160267382A1 (en) | Methods and devices for analysis of digital color images and methods of applying color image analysis | |
Rodofili et al. | Remote sensing techniques for automated marine mammals detection: a review of methods and current challenges | |
McNabb et al. | Quantification and analysis of icebergs in a tidewater glacier fjord using an object-based approach | |
Collings et al. | Depth from satellite images: depth retrieval using a stereo and radiative transfer-based hybrid method | |
CN112507869B (en) | Underwater target behavior observation and water environment monitoring method based on machine vision | |
Collin et al. | Mapping bathymetry, habitat, and potential bleaching of coral reefs using Sentinel-2 | |
Hansen et al. | Classification of boulders in coastal environments using random forest machine learning on topo-bathymetric lidar data | |
Mahendra et al. | Mangroves Change Detection using Support Vector Machine Algorithm on Google Earth Engine (A Case Study in Part of Gulf of Bone, South Sulawesi, Indonesia) | |
Guimarães Paiva et al. | An assessment of the effectiveness of high definition cameras as remote monitoring tools for dolphin ecology studies | |
CN116229280B (en) | Method and device for identifying collapse sentry, electronic equipment and storage medium | |
Yoshida et al. | Horizontal visibility of an underwater low-resolution video camera modeled by practical parameters near the sea surface |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A80 | Written request to apply exceptions to lack of novelty of invention |
Free format text: JAPANESE INTERMEDIATE CODE: A80 Effective date: 20190927 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220607 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20230414 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230509 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230526 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230606 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230705 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7313676 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |