JP2021043485A - Image analysis program, image analysis method and image analysis device - Google Patents

Image analysis program, image analysis method and image analysis device Download PDF

Info

Publication number
JP2021043485A
JP2021043485A JP2019162614A JP2019162614A JP2021043485A JP 2021043485 A JP2021043485 A JP 2021043485A JP 2019162614 A JP2019162614 A JP 2019162614A JP 2019162614 A JP2019162614 A JP 2019162614A JP 2021043485 A JP2021043485 A JP 2021043485A
Authority
JP
Japan
Prior art keywords
image
image analysis
region
infrared band
area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019162614A
Other languages
Japanese (ja)
Other versions
JP7313676B2 (en
Inventor
裕樹 村田
Hiroki Murata
裕樹 村田
千夏 米澤
Chinatsu Yonezawa
千夏 米澤
輝久 小松
Teruhisa Komatsu
輝久 小松
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tohoku University NUC
Original Assignee
Tohoku University NUC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tohoku University NUC filed Critical Tohoku University NUC
Priority to JP2019162614A priority Critical patent/JP7313676B2/en
Publication of JP2021043485A publication Critical patent/JP2021043485A/en
Application granted granted Critical
Publication of JP7313676B2 publication Critical patent/JP7313676B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02ATECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE
    • Y02A90/00Technologies having an indirect contribution to adaptation to climate change
    • Y02A90/30Assessment of water resources

Landscapes

  • Instructional Devices (AREA)
  • Image Analysis (AREA)

Abstract

To provide an image analysis program, an image analysis method and an image analysis device, capable of identifying an object based on an image captured from the sky and generating information related to the identified object.SOLUTION: In an image analysis device 1, an image analysis program applies object-based image analysis to a near-infrared band image 31 in which a region on the earth including an object is captured, to generate a first identification image in which the region of the object is identified in the near-infrared band image 31, and to execute a process of generating related information 35 related to the object based on the first identification image.SELECTED DRAWING: Figure 2

Description

本発明は、画像解析プログラム、方法及び装置に関する。 The present invention relates to image analysis programs, methods and devices.

我が国の沿岸域では海面での養殖業が盛んであり、世界の人口増加に対応するための水産物の供給源として養殖業は重要な役割を担っている。養殖業は自然の恵みの上に成り立っており、過度な養殖は生態系に悪影響を及ぼすおそれがあることが指摘されている。このことから、近年漁業権者には、実際に海面に設置されている養殖施設の台数や緯度および経度等の空間配置等を把握することが求められつつある。 The aquaculture industry on the surface of the sea is thriving in the coastal areas of Japan, and the aquaculture industry plays an important role as a source of marine products to respond to the increase in the world's population. It has been pointed out that the aquaculture industry is built on the blessings of nature, and that excessive aquaculture may adversely affect the ecosystem. For this reason, in recent years, fishery rights holders are required to grasp the number of aquaculture facilities actually installed on the sea surface and the spatial arrangement such as latitude and longitude.

例えば我が国において施行予定の改正漁業法第90条によると、漁業権者には、漁場の活用の状況等を各都道府県知事に報告する義務が生じるとされている。我が国の海洋政策である第3期海洋基本計画においても、海洋状況の把握(Maritime Domain Awareness: MDA)は基本施策の一つとして位置づけられており、海洋における情報の収集、集約および共有が求められつつある。 For example, according to Article 90 of the revised Fisheries Law, which is scheduled to come into effect in Japan, fishery rights holders are obliged to report the status of utilization of fishing grounds to the prefectural governors. Maritime Domain Awareness (MDA) is also positioned as one of the basic measures in Japan's Ocean Policy, the Third Basic Ocean Plan, and it is required to collect, aggregate and share information in the ocean. It's on the way.

また近年では、人工衛星や航空機等による上空からのリモートセンシング技術の利用が広まりつつある。例えば特許文献1には、衛星画像とディジタルマップとを比較照合することにより、海面上の目標物を検出する技術が開示されている。 In recent years, the use of remote sensing technology from the sky by artificial satellites and aircraft has become widespread. For example, Patent Document 1 discloses a technique for detecting a target on the sea surface by comparing and collating a satellite image with a digital map.

特開2000−353234号公報Japanese Unexamined Patent Publication No. 2000-353234

養殖業は漁業権に基づいて行われているところ、実際に海面に設置されている養殖施設の台数や位置情報等は、各地域における漁業権者である漁業協同組合等が自主的に管理しているに過ぎず、正確な台数や位置情報等は把握されていない。養殖施設は沿岸域に数多く設置されており、定期的な現地調査により養殖施設を定量的に把握することは非効率的であり現実的ではない。 The aquaculture industry is carried out based on fishery rights, but the number and location information of aquaculture facilities actually installed on the surface of the sea are voluntarily managed by the fishery cooperatives, etc., who are the owners of the fishery rights in each region. The exact number and location information are not known. Many aquaculture facilities are installed in coastal areas, and it is inefficient and impractical to quantitatively grasp aquaculture facilities through regular field surveys.

特許文献1の技術は、海面上の目標物を検出する技術ではあっても、検出した目標物の大きさ(面積)、数、および位置情報等の、目標物に関連する情報を生成する技術ではない。 Although the technique of Patent Document 1 is a technique for detecting a target on the sea surface, it is a technique for generating information related to the target such as the size (area), number, and position information of the detected target. is not it.

本発明は、上空から撮像された画像に基づいて対象物を識別し、識別した対象物に関連する情報を生成するための画像解析プログラム、方法及び装置を提供する。 The present invention provides an image analysis program, method and apparatus for identifying an object based on an image captured from the sky and generating information related to the identified object.

上記目的を達成するための本発明は、例えば以下に示す態様を含む。
(項1)
コンピュータに、
対象物を含む地球上の領域が撮像された近赤外バンド画像にオブジェクトベース画像解析を適用して、前記近赤外バンド画像において前記対象物の領域が識別された第1の識別画像を生成し、
前記第1の識別画像に基づいて、前記対象物に関連する関連情報を生成する、
処理を実行させるための、画像解析プログラム。
(項2)
コンピュータに、
前記第1の識別画像に基づいて、識別された前記対象物の領域を包含するバッファ領域を、前記近赤外バンド画像よりも高い解像度を有し、前記近赤外バンド画像と同一の前記地球上の領域が撮像された高精細画像に設定し、
前記バッファ領域の範囲内で前記高精細画像にオブジェクトベース画像解析を適用して、前記高精細画像において前記対象物の領域が識別された第2の識別画像を生成し、
前記第1の識別画像に代えて前記第2の識別画像に基づいて、前記対象物に関連する関連情報を生成する、
処理を実行させるための、項1に記載の画像解析プログラム。
(項3)
コンピュータに、
前記バッファ領域を囲む参照領域を前記高精細画像に設定し、
前記高精細画像について、前記参照領域の輝度値を閾値として用いて、前記バッファ領域の範囲内で前記高精細画像に前記オブジェクトベース画像解析を適用する、
処理を実行させるための、項2に記載の画像解析プログラム。
(項4)
前記高精細画像はパンクロマチックバンド画像である、項2または3に記載の画像解析プログラム。
(項5)
コンピュータに、
前記対象物の大きさおよび数の少なくともいずれかに関する情報を生成する処理を実行させる、項1から4のいずれかに記載の画像解析プログラム。
(項6)
コンピュータに、
前記近赤外バンド画像に対応付けられている撮像範囲の緯度および経度の情報に基づいて、前記対象物の位置に関する情報を生成する処理を実行させる、項1から5のいずれかに記載の画像解析プログラム。
(項7)
コンピュータに、
前記近赤外バンド画像内の陸域の領域に画像マスクを適用する処理を実行させる、項1から6のいずれかに記載の画像解析プログラム。
(項8)
前記対象物は、水域に浮遊する物体である、項1から7のいずれかに記載の画像解析プログラム。
(項9)
対象物を含む地球上の領域が撮像された近赤外バンド画像にオブジェクトベース画像解析を適用して、前記近赤外バンド画像において前記対象物の領域が識別された第1の識別画像を生成する第1識別画像生成ステップと、
前記第1の識別画像に基づいて、前記対象物に関連する関連情報を生成する関連情報生成ステップと、
を含む、画像解析方法。
(項10)
対象物を含む地球上の領域が撮像された近赤外バンド画像にオブジェクトベース画像解析を適用して、前記近赤外バンド画像において前記対象物の領域が識別された第1の識別画像を生成する第1識別画像生成部と、
前記第1の識別画像に基づいて、前記対象物に関連する関連情報を生成する関連情報生成部と、
を備える、画像解析装置。
The present invention for achieving the above object includes, for example, the following aspects.
(Item 1)
On the computer
Object-based image analysis is applied to a near-infrared band image in which a region on the earth including an object is captured to generate a first identification image in which the region of the object is identified in the near-infrared band image. And
Generates relevant information related to the object based on the first identification image.
An image analysis program for executing processing.
(Item 2)
On the computer
The buffer region including the region of the identified object based on the first identification image has a higher resolution than the near-infrared band image and is the same as the earth in the near-infrared band image. Set the upper area to the captured high-definition image,
Object-based image analysis is applied to the high-definition image within the buffer region to generate a second identification image in which the region of the object is identified in the high-definition image.
Based on the second identification image instead of the first identification image, related information related to the object is generated.
Item 4. The image analysis program according to Item 1, for executing the process.
(Item 3)
On the computer
The reference area surrounding the buffer area is set in the high-definition image, and the reference area is set.
For the high-definition image, the object-based image analysis is applied to the high-definition image within the range of the buffer region by using the brightness value of the reference region as a threshold value.
Item 2. The image analysis program according to Item 2, for executing the process.
(Item 4)
Item 2. The image analysis program according to Item 2 or 3, wherein the high-definition image is a panchromatic band image.
(Item 5)
On the computer
Item 4. The image analysis program according to any one of Items 1 to 4, which executes a process of generating information regarding at least one of the size and number of the objects.
(Item 6)
On the computer
Item 2. The image according to any one of Items 1 to 5, wherein a process for generating information regarding the position of the object is executed based on the latitude and longitude information of the imaging range associated with the near-infrared band image. Analysis program.
(Item 7)
On the computer
Item 6. The image analysis program according to any one of Items 1 to 6, wherein a process of applying an image mask to a land region in the near-infrared band image is executed.
(Item 8)
Item 6. The image analysis program according to any one of Items 1 to 7, wherein the object is an object floating in a water area.
(Item 9)
Object-based image analysis is applied to a near-infrared band image in which a region on the earth including an object is captured to generate a first identification image in which the region of the object is identified in the near-infrared band image. First identification image generation step and
A related information generation step of generating related information related to the object based on the first identification image, and a related information generation step.
Image analysis methods, including.
(Item 10)
Object-based image analysis is applied to a near-infrared band image in which a region on the earth including an object is captured to generate a first identification image in which the region of the object is identified in the near-infrared band image. First identification image generation unit and
A related information generation unit that generates related information related to the object based on the first identification image, and a related information generation unit.
An image analysis device.

本発明によると、上空から撮像された画像に基づいて対象物を識別し、識別した対象物に関連する情報を生成するための画像解析装置、方法およびプログラムを提供することができる。 According to the present invention, it is possible to provide an image analysis device, a method and a program for identifying an object based on an image captured from the sky and generating information related to the identified object.

本発明の一実施形態に係る画像解析装置の使用態様を説明するための図である。It is a figure for demonstrating the usage mode of the image analysis apparatus which concerns on one Embodiment of this invention. 本発明の一実施形態に係る画像解析装置の機能を説明するためのブロック図である。It is a block diagram for demonstrating the function of the image analysis apparatus which concerns on one Embodiment of this invention. 本発明の一実施形態に係る画像解析方法の手順を説明するためのフローチャートである。It is a flowchart for demonstrating the procedure of the image analysis method which concerns on one Embodiment of this invention. 解析対象領域の近赤外バンド画像の一例である。This is an example of a near-infrared band image of the analysis target region. 単位領域Uについて拡大表示された近赤外バンド画像および高精細画像の一例である。This is an example of a near-infrared band image and a high-definition image enlarged and displayed for the unit region U. オブジェクトベース画像解析を適用する際に画像に設定するバッファ領域および参照領域を説明するための模式的な図である。It is a schematic diagram for demonstrating the buffer area and the reference area set in an image when applying an object-based image analysis. 近赤外バンド画像の単位領域について生成された第1の識別画像の一例である。This is an example of a first identification image generated for a unit region of a near-infrared band image. 高精細画像の単位領域について生成された第2の識別画像の一例である。This is an example of a second identification image generated for a unit area of a high-definition image. 解析対象領域中の図4に示す単位領域とは別の単位領域について生成された識別画像の一例である。This is an example of an identification image generated for a unit area different from the unit area shown in FIG. 4 in the analysis target area. 本発明の他の実施形態に係る画像解析装置の機能を説明するためのブロック図である。It is a block diagram for demonstrating the function of the image analysis apparatus which concerns on other embodiment of this invention. 本発明の他の実施形態に係る画像解析方法の手順を説明するためのフローチャートである。It is a flowchart for demonstrating the procedure of the image analysis method which concerns on other embodiment of this invention. 第2の実施例において行った現地調査の結果を説明するための図である。It is a figure for demonstrating the result of the field survey which carried out in 2nd Example. 第2の実施例において行った画像解析結果の一例である。This is an example of the result of image analysis performed in the second embodiment. 第2の実施例において行った現地調査における実測値との比較結果を説明するための図である。It is a figure for demonstrating the comparison result with the measured value in the field survey performed in the 2nd Example.

以下、本発明の実施形態を、添付の図面を参照して詳細に説明する。なお、以下の説明および図面において、同じ符号は同じまたは類似の構成要素を示すこととし、よって、同じまたは類似の構成要素に関する重複した説明を省略する。
[発明の概略]
Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings. In the following description and drawings, the same reference numerals indicate the same or similar components, and thus duplicate description of the same or similar components will be omitted.
[Outline of Invention]

図1は、本発明の一実施形態に係る画像解析装置の使用態様を説明するための図である。 FIG. 1 is a diagram for explaining a usage mode of the image analysis device according to the embodiment of the present invention.

一実施形態に係る画像解析装置1は、上空から撮像された画像に基づいて対象物9を識別し、識別した対象物9に関連する情報35を生成する装置である。本実施形態では、画像解析により情報を生成する対象物9は、例えば沿岸域の海面に浮遊した状態で設置されている養殖筏である。画像解析により生成する情報35は、養殖筏の大きさ(面積)、数、および位置情報(緯度および経度)等の、養殖筏に関連する情報である。 The image analysis device 1 according to one embodiment is an device that identifies an object 9 based on an image captured from the sky and generates information 35 related to the identified object 9. In the present embodiment, the object 9 for which information is generated by image analysis is, for example, a farming raft installed in a state of floating on the sea surface in a coastal area. The information 35 generated by the image analysis is information related to the aquaculture raft, such as the size (area), number, and position information (latitude and longitude) of the aquaculture raft.

画像解析には、例えば衛星8により対象物9の上空から撮像された光学衛星画像が用いられる。本実施形態では、光学衛星画像は、例えば近赤外バンド画像31および高精細画像32である。高精細画像32は、近赤外バンド画像31よりも高い解像度を有している。高精細画像32には、例えばパンクロマチックバンド画像を用いることができる。近赤外バンド画像31および高精細画像32は対をなしており、これらは対象物9を含む地球上の同一の領域が撮像された画像である。 For image analysis, for example, an optical satellite image taken from the sky of the object 9 by the satellite 8 is used. In this embodiment, the optical satellite images are, for example, a near-infrared band image 31 and a high-definition image 32. The high-definition image 32 has a higher resolution than the near-infrared band image 31. For the high-definition image 32, for example, a panchromatic band image can be used. The near-infrared band image 31 and the high-definition image 32 are paired, and these are images obtained by capturing the same region on the earth including the object 9.

衛星8から受信した光学衛星画像は、例えば外部サーバ2に保存されており、画像解析装置1は、ネットワークNを介して光学衛星画像を取得する。画像解析装置1は、取得した光学衛星画像(近赤外バンド画像31および高精細画像32)に基づいて画像解析を行い、対象物9に関連する情報35を生成する。
[装置の構成]
The optical satellite image received from the satellite 8 is stored in, for example, an external server 2, and the image analysis device 1 acquires the optical satellite image via the network N. The image analysis device 1 performs image analysis based on the acquired optical satellite images (near-infrared band image 31 and high-definition image 32), and generates information 35 related to the object 9.
[Device configuration]

図2は、本発明の一実施形態に係る画像解析装置の機能を説明するためのブロック図である。 FIG. 2 is a block diagram for explaining the function of the image analysis apparatus according to the embodiment of the present invention.

一実施形態に係る画像解析装置1(1A)は、データ処理部12と、補助記憶装置13と、入力部14と、表示部15と、通信インタフェース部(通信I/F部)16とを備えている。画像解析装置1は、タブレット端末またはスマートフォン等(以下、タブレット端末等と記載する)を用いて構成することができる。 The image analysis device 1 (1A) according to one embodiment includes a data processing unit 12, an auxiliary storage device 13, an input unit 14, a display unit 15, and a communication interface unit (communication I / F unit) 16. ing. The image analysis device 1 can be configured by using a tablet terminal, a smartphone or the like (hereinafter, referred to as a tablet terminal or the like).

本実施形態では、画像解析装置1は、ハードウェアの構成として、補助記憶装置13、入力部14、表示部15および通信I/F部16を備えている。図示していないが、画像解析装置1は、ハードウェアの構成として、データ処理を行うCPU等のプロセッサと、プロセッサがデータ処理の作業領域に使用するメモリとをさらに備えている。 In the present embodiment, the image analysis device 1 includes an auxiliary storage device 13, an input unit 14, a display unit 15, and a communication I / F unit 16 as hardware configurations. Although not shown, the image analysis apparatus 1 further includes a processor such as a CPU that performs data processing and a memory that the processor uses for a work area of data processing as a hardware configuration.

補助記憶装置13は、オペレーティングシステム(OS)、各種制御プログラム、および、プログラムによって生成されたデータなどを記憶する不揮発性の記憶装置であり、例えば、フラッシュメモリやeMMC(embedded Multi Media Card)、SSD(Solid State Drive)等によって構成される。本実施形態では、補助記憶装置13には、近赤外バンド画像31、高精細画像32、第1の識別画像33、第2の識別画像34、関連情報35、および画像解析プログラムPが記憶される。 The auxiliary storage device 13 is a non-volatile storage device that stores an operating system (OS), various control programs, data generated by the programs, and the like. For example, a flash memory, an eMMC (embedded Multi Media Card), or an SSD. (Solid State Drive) etc. In the present embodiment, the auxiliary storage device 13 stores a near-infrared band image 31, a high-definition image 32, a first identification image 33, a second identification image 34, related information 35, and an image analysis program P. To.

近赤外バンド画像31は、対象物9を含む地球上の領域が撮像された画像である。高精細画像32は、近赤外バンド画像31よりも高い解像度を有し、近赤外バンド画像31と同一の地球上の領域が撮像された画像である。近赤外バンド画像31および高精細画像32は対をなしており、これらは対象物9を含む地球上の同一の領域が撮像された画像である。本実施形態では、近赤外バンド画像31および高精細画像32には、衛星8により対象物9の上空から撮像された光学衛星画像を用いる。本実施形態において取り扱う近赤外バンド画像31および高精細画像32には、縮尺に関する情報と撮像範囲の緯度および経度の情報とを含むメタデータが記録されている。例示的には、近赤外バンド画像31および高精細画像32の光学衛星画像の画像データは、11ビット〜12ビットで表される輝度値(デジタルナンバー)のデータである。 The near-infrared band image 31 is an image obtained by capturing a region on the earth including the object 9. The high-definition image 32 has a higher resolution than the near-infrared band image 31, and is an image obtained by capturing the same region on the earth as the near-infrared band image 31. The near-infrared band image 31 and the high-definition image 32 are paired, and these are images obtained by capturing the same region on the earth including the object 9. In the present embodiment, the near-infrared band image 31 and the high-definition image 32 use an optical satellite image captured from above the object 9 by the satellite 8. In the near-infrared band image 31 and the high-definition image 32 handled in the present embodiment, metadata including information on the scale and latitude and longitude information of the imaging range is recorded. Illustratively, the image data of the optical satellite image of the near-infrared band image 31 and the high-definition image 32 is the data of the luminance value (digital number) represented by 11 bits to 12 bits.

本実施形態では、近赤外バンド画像31には、マルチスペクトルバンド画像から作成される、近赤外線の波長帯の画像を用いる。マルチスペクトルバンド画像とは、衛星8により観測される対象物9から反射または放射される電磁波のうち、近赤外、中間赤外および熱赤外等の複数の波長帯の電磁波を記録した画像を意味する。本実施形態では、高精細画像32にはパンクロマチックバンド画像を用いる。パンクロマチックバンド画像とは、衛星8により観測される対象物9から反射または放射される電磁波のうち、特定の1つの波長帯の電磁波のみを記録した画像を意味する。 In the present embodiment, the near-infrared band image 31 uses an image in the near-infrared wavelength band created from the multispectral band image. A multispectral band image is an image in which electromagnetic waves of a plurality of wavelength bands such as near infrared, mid-infrared, and thermal infrared are recorded among electromagnetic waves reflected or radiated from an object 9 observed by satellite 8. means. In this embodiment, a panchromatic band image is used for the high-definition image 32. The panchromatic band image means an image in which only the electromagnetic wave of one specific wavelength band among the electromagnetic waves reflected or radiated from the object 9 observed by the satellite 8 is recorded.

第1の識別画像33は、近赤外バンド画像31にオブジェクトベース画像解析を適用することにより生成される画像である。第1の識別画像33では、オブジェクトベース画像解析により対象物9の領域41が識別されている。 The first identification image 33 is an image generated by applying object-based image analysis to the near-infrared band image 31. In the first identification image 33, the region 41 of the object 9 is identified by object-based image analysis.

第2の識別画像34は、バッファ領域42が設定された高精細画像32にオブジェクトベース画像解析を適用することにより生成される画像である。第2の識別画像34では、オブジェクトベース画像解析により対象物9の領域44が識別されている。 The second identification image 34 is an image generated by applying object-based image analysis to the high-definition image 32 in which the buffer area 42 is set. In the second identification image 34, the region 44 of the object 9 is identified by object-based image analysis.

関連情報35は、対象物9に関連する情報である。本実施形態では、関連情報35は、対象物9の大きさ(面積)および数の少なくともいずれかを含む。近赤外バンド画像31に撮像範囲の緯度および経度の情報が対応付けられている場合、関連情報35は、対象物9の位置に関する情報を含むことができる。 The related information 35 is information related to the object 9. In this embodiment, the relevant information 35 includes at least one of the size (area) and number of objects 9. When the near-infrared band image 31 is associated with latitude and longitude information in the imaging range, the related information 35 can include information about the position of the object 9.

画像解析プログラムPは、ソフトウェアによる機能ブロックである後述するデータ処理部12内の各部21〜28を実現するためのコンピュータプログラムである。画像解析プログラムPは、通信I/F部16により接続されるインターネット等のネットワークを介して画像解析装置1にインストールしてもよい。あるいは、画像解析プログラムPを記録したメモリカード等のコンピュータ読み取り可能な非一時的な有体の記録媒体を画像解析装置1に読み取らせることにより、画像解析プログラムPを画像解析装置1にインストールしてもよい。画像解析プログラムPは、例えばタブレット端末等のアプリケーションとすることができる。 The image analysis program P is a computer program for realizing each unit 21 to 28 in the data processing unit 12 described later, which is a functional block by software. The image analysis program P may be installed in the image analysis device 1 via a network such as the Internet connected by the communication I / F unit 16. Alternatively, the image analysis program P is installed in the image analysis device 1 by causing the image analysis device 1 to read a computer-readable non-temporary tangible recording medium such as a memory card on which the image analysis program P is recorded. May be good. The image analysis program P can be an application such as a tablet terminal.

入力部14は、例えばマウスやキーボード等で構成することができ、表示部15は、例えば液晶ディスプレイおよび有機ELディスプレイ等で構成することができる。本実施形態では、入力部14および表示部15はタッチパネルとして一体化されている。 The input unit 14 can be composed of, for example, a mouse or a keyboard, and the display unit 15 can be composed of, for example, a liquid crystal display, an organic EL display, or the like. In the present embodiment, the input unit 14 and the display unit 15 are integrated as a touch panel.

通信I/F部16は、有線または無線のネットワークを介して、外部サーバ2等の外部機器とのデータの送受信を行う。通信I/F部16は、Bluetooth(登録商標)、Wi-Fi(登録商標)、およびZigBee(登録商標)等の種々の無線接続または有線接続であってもよい。 The communication I / F unit 16 transmits / receives data to / from an external device such as an external server 2 via a wired or wireless network. The communication I / F unit 16 may be various wireless or wired connections such as Bluetooth®, Wi-Fi®, and ZigBee®.

本実施形態では、画像解析装置1は、ソフトウェアの構成としてデータ処理部12を備えている。データ処理部12は、プロセッサが画像解析プログラムPを実行することにより実現される機能ブロックである。 In the present embodiment, the image analysis device 1 includes a data processing unit 12 as a software configuration. The data processing unit 12 is a functional block realized by the processor executing the image analysis program P.

近赤外バンド画像取得部21は、対象物9を含む地球上の領域が撮像された近赤外バンド画像31を取得する。 The near-infrared band image acquisition unit 21 acquires a near-infrared band image 31 in which a region on the earth including the object 9 is captured.

高精細画像取得部22は、近赤外バンド画像31よりも高い解像度を有し、近赤外バンド画像31と同一の地球上の領域が撮像された高精細画像32を取得する。 The high-definition image acquisition unit 22 has a higher resolution than the near-infrared band image 31, and acquires a high-definition image 32 in which the same region on the earth as the near-infrared band image 31 is captured.

マスク適用部23は、近赤外バンド画像31内の陸域の領域に画像マスクを適用する。 The mask application unit 23 applies the image mask to the land region in the near-infrared band image 31.

第1識別画像生成部24は、近赤外バンド画像31にオブジェクトベース画像解析を適用して、近赤外バンド画像31において対象物9の領域41が識別された第1の識別画像33を生成する。 The first identification image generation unit 24 applies object-based image analysis to the near-infrared band image 31 to generate a first identification image 33 in which the region 41 of the object 9 is identified in the near-infrared band image 31. To do.

バッファ領域設定部25は、第1の識別画像33に基づいて、識別された対象物9の領域41を包含するバッファ領域42を、高精細画像32に設定する。 Based on the first identification image 33, the buffer area setting unit 25 sets the buffer area 42 including the area 41 of the identified object 9 in the high-definition image 32.

参照領域設定部26は、バッファ領域42を囲む参照領域43を高精細画像32に設定する。 The reference area setting unit 26 sets the reference area 43 surrounding the buffer area 42 in the high-definition image 32.

第2識別画像生成部27は、バッファ領域42の範囲内で高精細画像32にオブジェクトベース画像解析を適用して、高精細画像32において対象物9の領域44が識別された第2の識別画像34を生成する。第2識別画像生成部27は、高精細画像32について、参照領域43の輝度値を閾値として用いて、バッファ領域42の範囲内で高精細画像32にオブジェクトベース画像解析を適用することができる。 The second identification image generation unit 27 applies object-based image analysis to the high-definition image 32 within the range of the buffer region 42, and the second identification image in which the region 44 of the object 9 is identified in the high-definition image 32. Generate 34. The second identification image generation unit 27 can apply object-based image analysis to the high-definition image 32 within the range of the buffer region 42 by using the brightness value of the reference region 43 as a threshold value for the high-definition image 32.

関連情報生成部28は、第2の識別画像34に基づいて、対象物9に関連する関連情報35を生成する。関連情報生成部28は、対象物9の大きさおよび数の少なくともいずれかに関する情報を生成することができる。関連情報生成部28は、近赤外バンド画像31に対応付けられている撮像範囲の緯度および経度の情報に基づいて、対象物9の位置に関する情報を生成することができる。
[処理手順]
The related information generation unit 28 generates related information 35 related to the object 9 based on the second identification image 34. The related information generation unit 28 can generate information regarding at least one of the size and the number of the objects 9. The related information generation unit 28 can generate information regarding the position of the object 9 based on the latitude and longitude information of the imaging range associated with the near-infrared band image 31.
[Processing procedure]

図3は、本発明の一実施形態に係る画像解析方法の手順を説明するためのフローチャートである。 FIG. 3 is a flowchart for explaining the procedure of the image analysis method according to the embodiment of the present invention.

ステップS1(近赤外バンド画像取得ステップ)において、対象物9を含む地球上の領域が撮像された、解析対象領域の近赤外バンド画像31を取得する。本実施形態では、解析対象とする地球上の領域を含む、解析対象領域の近赤外バンド画像31および高精細画像32は、予め衛星8により撮像されて外部サーバ2に保存されており、画像解析装置1は、外部サーバ2から近赤外バンド画像31を取得する。 In step S1 (near-infrared band image acquisition step), the near-infrared band image 31 of the analysis target region in which the region on the earth including the object 9 is captured is acquired. In the present embodiment, the near-infrared band image 31 and the high-definition image 32 of the analysis target region including the region on the earth to be analyzed are captured by the satellite 8 in advance and stored in the external server 2, and the images are stored in the external server 2. The analysis device 1 acquires the near-infrared band image 31 from the external server 2.

図4は、解析対象領域の近赤外バンド画像の一例である。図示する近赤外バンド画像31中、中央の黒色の領域は海域(水域)であり、海域の周辺の灰色または白色の領域は陸域である。図面中央の海域には、画像解析処理により識別して関連情報35を生成する対象物である複数の養殖筏9が撮像されていることを確認することができる。 FIG. 4 is an example of a near-infrared band image of the analysis target region. In the illustrated near-infrared band image 31, the black region in the center is the sea area (water area), and the gray or white region around the sea area is the land area. In the sea area in the center of the drawing, it can be confirmed that a plurality of aquaculture rafts 9 which are objects to be identified by image analysis processing and generate related information 35 are imaged.

ステップS2(画像マスク適用ステップ)において、近赤外バンド画像31内の陸域の領域に画像マスクを適用する。本実施形態では、海域に浮遊している養殖筏9を画像解析処理により識別するため、画像解析処理の対象外となる地面や森、畑、水田、住宅地等の陸域の領域には、画像マスクを適用する。以下に説明する画像解析処理において、近赤外バンド画像31内の領域のうち画像マスクが適用されている領域には、画像解析処理は適用されない。 In step S2 (image mask application step), the image mask is applied to the land region in the near infrared band image 31. In the present embodiment, since the aquaculture cage 9 floating in the sea area is identified by the image analysis processing, the land area such as the ground, forest, field, paddy field, residential area, etc., which is not the target of the image analysis processing, is used. Apply an image mask. In the image analysis process described below, the image analysis process is not applied to the region in the near-infrared band image 31 to which the image mask is applied.

ステップS3(高精細画像取得ステップ)において、近赤外バンド画像31と同一の地球上の領域が撮像された、解析対象領域の高精細画像32を取得する。本実施形態では、画像解析装置1は、近赤外バンド画像31と対をなす高精細画像32を外部サーバ2から取得する。 In step S3 (high-definition image acquisition step), a high-definition image 32 of the analysis target region in which the same region on the earth as the near-infrared band image 31 is captured is acquired. In the present embodiment, the image analysis device 1 acquires a high-definition image 32 paired with the near-infrared band image 31 from the external server 2.

ステップS4において、解析対象の領域を複数の単位領域Uに分割する。単位領域Uとは、以下のステップS5〜ステップS8において画像解析装置1が画像解析処理を行う際に、処理単位とする領域である。 In step S4, the area to be analyzed is divided into a plurality of unit areas U. The unit area U is an area to be used as a processing unit when the image analysis apparatus 1 performs image analysis processing in the following steps S5 to S8.

図5は、単位領域Uについて拡大表示された近赤外バンド画像および高精細画像の一例である。(A)は近赤外バンド画像31であり、(B)は高精細画像32である。 FIG. 5 is an example of a near-infrared band image and a high-definition image enlarged and displayed for the unit region U. (A) is a near-infrared band image 31, and (B) is a high-definition image 32.

解析対象の近赤外バンド画像31および高精細画像32は、それぞれが複数の単位領域Uに分割される。近赤外バンド画像31および高精細画像32は対をなしており、単位領域Uも近赤外バンド画像31と高精細画像32との間において対をなしている。すなわち、図4に例示する位置の単位領域Uに対して以下のステップS5〜S8の画像解析処理を行う際には、図5に示す同じ領域が撮像された単位領域Uの近赤外バンド画像31および高精細画像32を用いて画像解析処理が行われる。 The near-infrared band image 31 and the high-definition image 32 to be analyzed are each divided into a plurality of unit regions U. The near-infrared band image 31 and the high-definition image 32 are paired, and the unit region U is also paired between the near-infrared band image 31 and the high-definition image 32. That is, when performing the image analysis processing of the following steps S5 to S8 on the unit region U at the position illustrated in FIG. 4, the near-infrared band image of the unit region U in which the same region shown in FIG. 5 is imaged. Image analysis processing is performed using 31 and the high-definition image 32.

ステップS5(第1識別画像生成ステップ)において、近赤外バンド画像31にオブジェクトベース画像解析を適用して、近赤外バンド画像31において対象物9の領域41が識別された第1の識別画像33を生成する。本実施形態では、オブジェクトベース画像解析において用いる輝度値(光学衛星画像では、画像値またはデジタルナンバーとも呼ばれる)のしきい値は、例えば表示部15に表示される近赤外バンド画像31の輝度値のヒストグラムに基づいて、例えばオペレータにより任意で決定される。決定された輝度値のしきい値は、例えばオペレータにより入力部14を介して画像解析装置1に入力される。 In step S5 (first identification image generation step), object-based image analysis is applied to the near-infrared band image 31, and the first identification image in which the region 41 of the object 9 is identified in the near-infrared band image 31. Generate 33. In the present embodiment, the threshold value of the brightness value (also called the image value or the digital number in the optical satellite image) used in the object-based image analysis is, for example, the brightness value of the near-infrared band image 31 displayed on the display unit 15. Based on the histogram of, for example, it is arbitrarily determined by the operator. The determined threshold value of the brightness value is input to the image analysis device 1 by the operator, for example, via the input unit 14.

図6は、オブジェクトベース画像解析を適用する際に画像に設定するバッファ領域および参照領域を説明するための模式的な図である。図7は、近赤外バンド画像の単位領域について生成された第1の識別画像の一例である。 FIG. 6 is a schematic diagram for explaining a buffer area and a reference area set in an image when applying object-based image analysis. FIG. 7 is an example of a first identification image generated for a unit region of a near-infrared band image.

領域41は、近赤外バンド画像31にオブジェクトベース画像解析を適用することにより識別される対象物9の領域である。本実施形態では、領域41は、オブジェクトベース画像解析により、海面に設置されている養殖筏9であると判断された画素の集合である。オブジェクトベース画像解析とは、性質が近い近隣の画素を1つのオブジェクトとして結合し、この結合したオブジェクトを単位として行う画像解析の手法である。オブジェクトベース画像解析によると、目視による判断に近い結果を得ることが可能となる。 The region 41 is a region of the object 9 identified by applying object-based image analysis to the near-infrared band image 31. In the present embodiment, the region 41 is a set of pixels determined to be the aquaculture raft 9 installed on the sea surface by object-based image analysis. Object-based image analysis is a method of image analysis in which neighboring pixels having similar properties are combined as one object and the combined objects are used as a unit. According to object-based image analysis, it is possible to obtain results close to visual judgment.

近赤外バンド画像31において領域41が識別されることにより、近赤外バンド画像31と対をなす高精細画像32においてバッファ領域42および参照領域43が設定される。これらバッファ領域42および参照領域43は、第2の識別画像34を生成する際に高精細画像32に設定される仮想的な領域である。言い換えると、バッファ領域42および参照領域43は、近赤外バンド画像31および高精細画像32を用いた2段階のオブジェクトベース画像解析を行うための仮想的な領域である。すなわち、近赤外バンド画像31を用いた1段階目のオブジェクトベース画像解析により、対象物9の領域の概略を識別し、高精細画像32を用いた、バッファ領域42の範囲内での2段階目のオブジェクトベース画像解析により、対象物9の領域を詳細に識別する。 By identifying the region 41 in the near-infrared band image 31, the buffer region 42 and the reference region 43 are set in the high-definition image 32 paired with the near-infrared band image 31. The buffer area 42 and the reference area 43 are virtual areas set in the high-definition image 32 when the second identification image 34 is generated. In other words, the buffer region 42 and the reference region 43 are virtual regions for performing a two-step object-based image analysis using the near-infrared band image 31 and the high-definition image 32. That is, the outline of the region of the object 9 is identified by the first-stage object-based image analysis using the near-infrared band image 31, and the two stages within the range of the buffer region 42 using the high-definition image 32. Object-based image analysis of the eye identifies the region of object 9 in detail.

バッファ領域42は、対象物9の領域41を包含する領域である。本実施形態では、バッファ領域42は、領域41と、領域41の外周から所定の画素数(例えば、2画素〜5画素程度)の範囲内の領域とを包含する領域である。参照領域43は、バッファ領域42を囲む領域であり、領域41およびバッファ領域42を包含しない領域である。本実施形態では、参照領域43は、バッファ領域42の外周から所定の画素数(例えば、1画素〜5画素程度)の範囲内の領域である。 The buffer area 42 is an area including the area 41 of the object 9. In the present embodiment, the buffer area 42 is an area including the area 41 and an area within a range of a predetermined number of pixels (for example, about 2 pixels to 5 pixels) from the outer periphery of the area 41. The reference area 43 is an area surrounding the buffer area 42 and does not include the area 41 and the buffer area 42. In the present embodiment, the reference area 43 is an area within a predetermined number of pixels (for example, about 1 pixel to 5 pixels) from the outer circumference of the buffer area 42.

ステップS6(バッファ領域設定ステップ)において、第1の識別画像33に基づいて、識別された対象物9の領域41を包含するバッファ領域42を高精細画像32に設定する。好ましくは、本ステップに引き続き、バッファ領域42を囲む参照領域43を高精細画像32に設定する。 In step S6 (buffer area setting step), the buffer area 42 including the area 41 of the identified object 9 is set in the high-definition image 32 based on the first identification image 33. Preferably, following this step, the reference area 43 surrounding the buffer area 42 is set in the high-definition image 32.

図6および図7を参照して説明したように、第1の識別画像33において対象物9であると識別されている複数の領域41のそれぞれについて、対をなす高精細画像32においてバッファ領域42および参照領域43を設定する。 As described with reference to FIGS. 6 and 7, for each of the plurality of regions 41 identified as the object 9 in the first identification image 33, the buffer region 42 in the paired high-definition image 32. And the reference area 43 is set.

ステップS7(第2識別画像生成ステップ)において、バッファ領域42の範囲内で高精細画像32にオブジェクトベース画像解析を適用して、高精細画像32において対象物9の領域44が識別された第2の識別画像34を生成する。本ステップでは、高精細画像32について、参照領域43の輝度値を閾値として用いて、バッファ領域42の範囲内で高精細画像32にオブジェクトベース画像解析を適用することができる。 In step S7 (second identification image generation step), the object-based image analysis is applied to the high-definition image 32 within the range of the buffer region 42, and the region 44 of the object 9 is identified in the high-definition image 32. Identification image 34 is generated. In this step, for the high-definition image 32, the object-based image analysis can be applied to the high-definition image 32 within the range of the buffer region 42 by using the brightness value of the reference region 43 as a threshold value.

図8は、高精細画像の単位領域について生成された第2の識別画像の一例である。識別される対象物9の領域について、図7に示す第1の識別画像33中の領域41と、図8に示す第2の識別画像34中の領域44とを比較すると、図8に示す領域44の方が、対象物9の輪郭をより正確に識別していることが理解される。 FIG. 8 is an example of a second identification image generated for a unit region of a high-definition image. Regarding the region of the object 9 to be identified, when the region 41 in the first identification image 33 shown in FIG. 7 and the region 44 in the second identification image 34 shown in FIG. 8 are compared, the region shown in FIG. 8 is compared. It is understood that 44 more accurately identifies the contour of the object 9.

図9は、解析対象領域中の図4に示す単位領域とは別の単位領域について生成された識別画像の一例である。(A)は第1の識別画像33であり、(B)は第2の識別画像34である。図9に示す別の単位領域Uについても、第2の識別画像34中の領域44の方が、対象物9の輪郭をより正確に識別していることが理解される。 FIG. 9 is an example of an identification image generated for a unit area different from the unit area shown in FIG. 4 in the analysis target area. (A) is the first identification image 33, and (B) is the second identification image 34. Regarding another unit region U shown in FIG. 9, it is understood that the region 44 in the second identification image 34 identifies the contour of the object 9 more accurately.

ステップS8(関連情報生成ステップ)において、第2の識別画像34に基づいて、対象物9に関連する関連情報35を生成する。本実施形態では、第2の識別画像34中に領域44として識別されている対象物9について、領域の数をカウントし領域の大きさを算出する公知の画像処理技術に基づいて、対象物9の大きさおよび数の少なくともいずれかに関する情報を関連情報35として生成する。図8を参照すると、第2の識別画像34中の領域44のそばには、一例として、領域44の大きさに基づいて算出される対象物9(養殖筏9)の面積が示されている。 In step S8 (related information generation step), the related information 35 related to the object 9 is generated based on the second identification image 34. In the present embodiment, the object 9 identified as the region 44 in the second identification image 34 is based on a known image processing technique that counts the number of regions and calculates the size of the region. Information about at least one of the size and number of is generated as related information 35. Referring to FIG. 8, the area of the object 9 (cultured raft 9) calculated based on the size of the region 44 is shown as an example near the region 44 in the second identification image 34. ..

本ステップでは、さらに、近赤外バンド画像31に対応付けられている撮像範囲の緯度および経度の情報に基づいて、対象物9の位置に関する情報を関連情報35として生成することができる。通常、衛星8により撮像されている近赤外バンド画像31には、縮尺に関する情報と撮像範囲の緯度および経度の情報とを含むメタデータが記録されている。本実施形態では、このメタデータと、単位領域Uの第2の識別画像34内での領域44の位置とに基づいて、対象物9の領域44の位置に関する情報を、関連情報35として生成する。 In this step, further, information on the position of the object 9 can be generated as related information 35 based on the latitude and longitude information of the imaging range associated with the near-infrared band image 31. Normally, the near-infrared band image 31 imaged by the satellite 8 records metadata including information on the scale and latitude and longitude information on the imaging range. In the present embodiment, based on this metadata and the position of the area 44 in the second identification image 34 of the unit area U, information regarding the position of the area 44 of the object 9 is generated as the related information 35. ..

ステップS9において、分割した単位領域Uを全て処理する(ステップS9においてYes)までステップS5から処理を繰り返し、単位領域U内に含まれている対象物9に関連する関連情報35を次々に生成する。
[効果]
In step S9, the processing is repeated from step S5 until all the divided unit areas U are processed (Yes in step S9), and related information 35 related to the object 9 included in the unit area U is generated one after another. ..
[effect]

以上、本発明の一実施形態に係る画像解析装置、方法およびプログラムによると、上空から撮像された画像に基づいて対象物を識別し、識別した対象物に関連する情報を生成することができる。生成した関連情報は、識別した対象物に関連する情報として活用することができる。例えば対象物が養殖筏の場合、漁業権者は、実際に海面に設置されている養殖施設の台数や緯度および経度等の空間配置を、高い精度で定量的に把握することが可能となる。 As described above, according to the image analysis apparatus, method and program according to the embodiment of the present invention, it is possible to identify an object based on an image captured from the sky and generate information related to the identified object. The generated related information can be used as information related to the identified object. For example, when the object is aquaculture raft, the fishery right holder can quantitatively grasp the number of aquaculture facilities actually installed on the sea surface and the spatial arrangement such as latitude and longitude with high accuracy.

また、対象物である養殖筏の識別および関連情報の生成は、衛星等により対象物の上空から撮像された画像に基づいてなされているので、漁業権者は非効率的な現地調査を行う必要はない。衛星により撮像された光学衛星画像を画像解析に用いる場合、光学衛星画像は衛星が地球の衛星軌道上を周回することにより定期的に撮像されるので、関連情報も定期的に生成することが可能である。 In addition, since the identification of the aquaculture raft, which is the object, and the generation of related information are performed based on the image taken from the sky of the object by satellite, etc., the fishery right holder needs to conduct an inefficient field survey. There is no. When an optical satellite image image taken by a satellite is used for image analysis, the optical satellite image is periodically captured by the satellite orbiting the earth's satellite orbit, so that related information can also be generated regularly. Is.

また、近赤外バンド画像31では、対象物9である養殖筏9と海面との輝度値の差が大きく記録されている。これにより、オブジェクトベース画像解析において用いることで良好な識別結果を得ることができるしきい値の範囲が拡大し、しきい値の設定がし易くなる。
[他の実施形態]
Further, in the near-infrared band image 31, the difference in the brightness value between the aquaculture raft 9 which is the object 9 and the sea surface is greatly recorded. As a result, the range of the threshold value at which a good identification result can be obtained by using the object-based image analysis is expanded, and the threshold value can be easily set.
[Other Embodiments]

以下において説明する他の実施形態に係る画像解析装置1(1B)および画像解析方法は、特に言及しない限り、上記した一実施形態に係る画像解析装置および画像解析方法と同様であるので、重複する説明は省略する。 Unless otherwise specified, the image analysis apparatus 1 (1B) and the image analysis method according to the other embodiments described below are the same as the image analysis apparatus and the image analysis method according to the above-described embodiment, and thus overlap. The description is omitted.

上記実施形態では、高精細画像32にオブジェクトベース画像解析を適用して第2の識別画像34を生成し、第2の識別画像34に基づいて関連情報35を生成しているが、関連情報35を生成する手順はこれに限定されない。他の実施形態では、高精細画像32は用いずに近赤外バンド画像31を用いて画像解析を行う。すなわち、他の実施形態では、近赤外バンド画像31にオブジェクトベース画像解析を適用することにより生成される第1の識別画像33に基づいて、関連情報35を生成する。 In the above embodiment, the object-based image analysis is applied to the high-definition image 32 to generate the second identification image 34, and the related information 35 is generated based on the second identification image 34. The procedure for generating is not limited to this. In another embodiment, the image analysis is performed using the near-infrared band image 31 without using the high-definition image 32. That is, in another embodiment, the related information 35 is generated based on the first identification image 33 generated by applying the object-based image analysis to the near-infrared band image 31.

図10は、本発明の他の実施形態に係る画像解析装置の機能を説明するためのブロック図である。他の実施形態に係る画像解析装置1Bでは、図2を参照して説明した上記実施形態に係る画像解析装置1Aにおいて、高精細画像取得部22、バッファ領域設定部25、参照領域設定部26、第2識別画像生成部27が省略されている。また、関連情報生成部28は、第2の識別画像34に代えて第1の識別画像33に基づいて、対象物9に関連する関連情報35を生成する。 FIG. 10 is a block diagram for explaining the function of the image analysis apparatus according to another embodiment of the present invention. In the image analysis device 1B according to another embodiment, in the image analysis device 1A according to the above embodiment described with reference to FIG. 2, the high-definition image acquisition unit 22, the buffer area setting unit 25, the reference area setting unit 26, The second identification image generation unit 27 is omitted. Further, the related information generation unit 28 generates related information 35 related to the object 9 based on the first identification image 33 instead of the second identification image 34.

図11は、本発明の他の実施形態に係る画像解析方法の手順を説明するためのフローチャートである。他の実施形態に係る画像解析方法では、図3を参照して説明した上記実施形態に係る画像解析方法において、ステップS3,S6,S7を省略している。また、ステップS8において、第2の識別画像34に代えて第1の識別画像33に基づいて、対象物9に関連する関連情報35を生成する。図7を参照すると、第1の識別画像33中の領域41のそばには、一例として、領域41の大きさに基づいて算出される対象物9(養殖筏9)の面積が示されている。
[その他の形態]
FIG. 11 is a flowchart for explaining the procedure of the image analysis method according to another embodiment of the present invention. In the image analysis method according to the other embodiment, steps S3, S6, and S7 are omitted in the image analysis method according to the above embodiment described with reference to FIG. Further, in step S8, the related information 35 related to the object 9 is generated based on the first identification image 33 instead of the second identification image 34. Referring to FIG. 7, the area of the object 9 (cultured raft 9) calculated based on the size of the region 41 is shown as an example near the region 41 in the first identification image 33. ..
[Other forms]

以上、本発明を特定の実施形態によって説明したが、本発明は上記した実施形態に限定されるものではない。 Although the present invention has been described above by the specific embodiment, the present invention is not limited to the above-described embodiment.

上記実施形態では、近赤外バンド画像31内の陸域の領域に画像マスクを適用しているが、例えば処理対象の領域が全て海域であると予め把握可能な場合は、画像マスクを適用する処理は省略することができる。 In the above embodiment, the image mask is applied to the land area in the near-infrared band image 31, but for example, when it is possible to grasp in advance that the entire area to be processed is the sea area, the image mask is applied. The process can be omitted.

上記実施形態では、解析対象の領域を複数の単位領域Uに分割し、分割した単位領域Uのそれぞれについて画像解析処理を行っているが、複数の単位領域Uに分割することなく、解析対象の領域について画像解析処理を行ってもよい。 In the above embodiment, the area to be analyzed is divided into a plurality of unit areas U, and image analysis processing is performed for each of the divided unit areas U. However, the analysis target is not divided into a plurality of unit areas U. Image analysis processing may be performed on the region.

上記実施形態では、解析対象領域の近赤外バンド画像31および高精細画像32を外部サーバ2から取得して画像解析処理を行っているが、近赤外バンド画像31および高精細画像32の取得元は外部サーバ2に限定されない。近赤外バンド画像31および高精細画像32は衛星8から直接取得することもできる。また、例えば本発明の画像解析プログラムが衛星8自体にインストールされている場合には、これら近赤外バンド画像31および高精細画像32を外部から取得する手順を省略することもできる。 In the above embodiment, the near-infrared band image 31 and the high-definition image 32 of the analysis target region are acquired from the external server 2 and the image analysis processing is performed. However, the near-infrared band image 31 and the high-definition image 32 are acquired. Originally, it is not limited to the external server 2. The near-infrared band image 31 and the high-definition image 32 can also be acquired directly from the satellite 8. Further, for example, when the image analysis program of the present invention is installed on the satellite 8 itself, the procedure of acquiring the near-infrared band image 31 and the high-definition image 32 from the outside can be omitted.

上記実施形態では、画像解析装置1は一体の装置として実現されているが、画像解析装置1は一体の装置である必要はなく、プロセッサ、メモリ、補助記憶装置13等が別所に配置され、これらが互いにネットワークで接続されていてもよい。データ処理部12の機能および補助記憶装置13内のデータ項目は、一部または全部が、通信I/F部16を介して接続される外部サーバ2においてクラウド化されていてもよい。 In the above embodiment, the image analysis device 1 is realized as an integrated device, but the image analysis device 1 does not have to be an integrated device, and a processor, a memory, an auxiliary storage device 13, and the like are arranged in different places. May be networked to each other. Some or all of the functions of the data processing unit 12 and the data items in the auxiliary storage device 13 may be cloud-based on the external server 2 connected via the communication I / F unit 16.

上記実施形態では、データ処理部12を構成する各機能ブロック21〜28はソフトウェアにより実現されているが、これら各機能ブロック21〜28は、一部または全部がハードウェアとして実現されてもよい。データ処理部12を構成する各機能ブロック21〜28の処理は単一のプロセッサで処理される必要はなく、複数のプロセッサで分散して処理されてもよい。また、プロセッサに代えて、FPGA(Field Programmable Gate Array)が処理を行ってもよいし、例えばGPU(Graphics Processing Unit)をアクセラレータとして用いて、プロセッサが行う並列演算処理を補助してもよい。すなわちプロセッサが行う処理とは、プロセッサまたはFPGAが、GPU等のアクセラレータを用いて行う処理も含むことを意味する。 In the above embodiment, the functional blocks 21 to 28 constituting the data processing unit 12 are realized by software, but some or all of the functional blocks 21 to 28 may be realized as hardware. The processing of the functional blocks 21 to 28 constituting the data processing unit 12 does not have to be processed by a single processor, and may be distributed and processed by a plurality of processors. Further, instead of the processor, an FPGA (Field Programmable Gate Array) may perform the processing, or for example, a GPU (Graphics Processing Unit) may be used as an accelerator to assist the parallel arithmetic processing performed by the processor. That is, the processing performed by the processor means that the processing performed by the processor or FPGA using an accelerator such as a GPU is also included.

上記実施形態では、タブレット端末またはスマートフォン等を用いて画像解析装置1を構成しているが、パーソナルコンピュータ等の汎用計算機を用いて画像解析装置1を構成してもよい。 In the above embodiment, the image analysis device 1 is configured by using a tablet terminal, a smartphone, or the like, but the image analysis device 1 may be configured by using a general-purpose computer such as a personal computer.

上記実施形態では、画像解析に光学衛星画像を用いているが、画像解析に用いる画像は光学衛星画像に限らず、例えば航空機やドローン等から撮像された画像であってもよい。すなわち、画像解析に用いる画像は、対象物9の上空から撮像された画像であればよい。航空機やドローンには、例えば近赤外バンド画像31および高精細画像32の少なくとも2種類の画像を撮像可能な撮像装置を搭載すればよい。 In the above embodiment, the optical satellite image is used for the image analysis, but the image used for the image analysis is not limited to the optical satellite image, and may be an image taken from, for example, an aircraft or a drone. That is, the image used for the image analysis may be an image captured from the sky above the object 9. The aircraft or drone may be equipped with an image pickup device capable of capturing at least two types of images, for example, a near-infrared band image 31 and a high-definition image 32.

上記実施形態では、高精細画像32にパンクロマチックバンド画像を用いているが、高精細画像32はパンクロマチックバンド画像に限定されない。高精細画像32は、近赤外バンド画像31よりも高い解像度を有し、近赤外バンド画像31と同一の地球上の領域が撮像された画像であればよい。 In the above embodiment, the panchromatic band image is used for the high-definition image 32, but the high-definition image 32 is not limited to the panchromatic band image. The high-definition image 32 may have a higher resolution than the near-infrared band image 31, and may be an image in which the same region on the earth as the near-infrared band image 31 is captured.

上記実施形態では、画像解析により情報を生成する対象物9は、例えば沿岸域の海面に浮遊した状態で設置されている養殖筏であるが、対象物9は水域に浮遊する物体(浮遊物)に限らない。対象物9は、例えば砂漠地帯等の陸域に例えばモスボール化して保管されている航空機や車両等であってもよく、対象物9は、オブジェクトベース画像解析により背景画像から抽出可能な物体であればよい。 In the above embodiment, the object 9 for which information is generated by image analysis is, for example, a farming raft installed while floating on the sea surface in a coastal area, but the object 9 is an object (floating object) floating in a water area. Not limited to. The object 9 may be, for example, an aircraft or a vehicle stored in a land area such as a desert area as a mothball, and the object 9 may be an object that can be extracted from a background image by object-based image analysis. Just do it.

以下に本発明の実施例を示し、本発明の特徴をより明確にする。
[第1の実施例]
Examples of the present invention are shown below to further clarify the features of the present invention.
[First Example]

第1の実施例では、本発明の上記した他の実施形態に係る画像解析方法により得られる対象物9の数および面積(すなわち、近赤外バンド画像31において識別された領域41の数および面積)について、現地調査における実測値との比較を行った。また、同様の比較を、他の形式の衛星画像(RGB画像)を画像解析することにより得られる結果と、近赤外バンド画像を用いずにパンクロマチックバンド画像のみを画像解析することにより得られる結果とに対しても行った。 In the first embodiment, the number and area of the object 9 obtained by the image analysis method according to the other embodiment of the present invention (that is, the number and area of the region 41 identified in the near-infrared band image 31). ) Was compared with the measured value in the field survey. Further, the same comparison can be obtained by image analysis of satellite images (RGB images) of other formats and by image analysis of only panchromatic band images without using near infrared band images. I also went to the results.

岩手県と宮城県との県境に位置する広田湾を対象の領域とした。広田湾は、湾開口部の長さが約4.8km、奥行きが約9km、面積が約37.1km、湾内および湾口の最大水深が約56mのリアス式海外である。湾内ではカキ、ワカメ、ホタテ貝等の海面養殖が行われている。本実施例では、カキの養殖に用いられる長さ約10m、幅約4mの養殖筏を識別して、識別した養殖筏の数および面積を算出し、現地調査における実測値との比較を行った。 The target area was Hirota Bay, which is located on the prefectural border between Iwate and Miyagi prefectures. Hirota Bay is a rias-type overseas with a bay opening length of about 4.8 km, a depth of about 9 km, an area of about 37.1 km 2 , and a maximum water depth of about 56 m in the bay and at the mouth of the bay. Sea surface aquaculture of oysters, wakame seaweed, scallops, etc. is carried out in the bay. In this example, we identified aquaculture rafts with a length of about 10 m and a width of about 4 m used for oyster cultivation, calculated the number and area of the identified aquaculture rafts, and compared them with the measured values in the field survey. ..

画像解析には、2015年4月30日に人工衛星Pleiades1Aにより観測された、空間分解能2.0mのマルチスペクトルバンド画像を用いた。このマルチスペクトルバンド画像から、RGB画像(R:バンド3、G:バンド2、B:バンド1)と、近赤外バンド画像(バンド4)との2種類の画像を作成し、作成したこれら2種類の画像のそれぞれを用いた場合について、画像解析を行った。また、空間分解能0.5mのパンクロマチックバンド画像のみを用いた場合について、画像解析を行った。画像の解析には、ソフトウェアENVI5.5(米国Harris GeoSpatial社)を用い、ルールベースのオブジェクトベース解析を行った。画像解析の条件として、海面のスペクトル領域を除外したスペクトルを養殖筏として設定した。 For the image analysis, a multispectral band image with a spatial resolution of 2.0 m, which was observed by the artificial satellite Pleiades1A on April 30, 2015, was used. From this multispectral band image, two types of images, an RGB image (R: band 3, G: band 2, B: band 1) and a near infrared band image (band 4) were created, and these 2 were created. Image analysis was performed for each of the types of images. In addition, image analysis was performed when only a panchromatic band image having a spatial resolution of 0.5 m was used. For image analysis, software ENVI5.5 (Harris GeoSpatial, USA) was used to perform rule-based object-based analysis. As a condition for image analysis, a spectrum excluding the spectrum region of the sea surface was set as a farming raft.

現地調査は2015年9月29日に行い、養殖筏が規則正しく区画毎に配置されていることを確認した。空間配置については、パンクロマチックバンド画像を用いた目視判断を行うことにより、対象とする領域の海域全体で1053台の養殖筏が設置されていることを確認した。 A field survey was conducted on September 29, 2015, and it was confirmed that the aquaculture rafts were regularly arranged in each section. Regarding the spatial arrangement, by visually judging using the panchromatic band image, it was confirmed that 1053 aquaculture rafts were installed in the entire sea area of the target area.

RGB画像を用いた画像解析からは、897台の養殖筏が検出された。これは目視判断による結果と比較して約85%の検出率であった。また、養殖筏1台あたりの平均面積は約48mであった。実際の養殖筏の面積は約40mであることから、RGB画像を用いた画像解析では、実際の面積よりも大きく検出された。この面積の大きさの違いは、画像解析に用いた人工衛星Pleiades1Aによる近赤外バンド画像の空間分解能の2ピクセル分の面積(約8.0m)に相当する。 From image analysis using RGB images, 897 farmed rafts were detected. This was a detection rate of about 85% as compared with the result by visual judgment. The average area per aquaculture raft was about 48 m 2 . Since the actual area of the aquaculture raft is about 40 m 2 , it was detected larger than the actual area in the image analysis using the RGB image. This difference in the size of the area corresponds to the area (about 8.0 m 2 ) of 2 pixels of the spatial resolution of the near-infrared band image by the artificial satellite Pleiades 1A used for the image analysis.

近赤外バンド画像を用いた画像解析からは、1030台の養殖筏が検出された。これは目視判断による結果と比較して約98%の検出率であった。また、養殖筏1台あたりの平均面積は約49mであり、RGB画像を用いた場合と同様に、実際よりも2ピクセル程度大きく面積が検出された。養殖筏の台数が実際よりも少なく検出された理由としては、例えば、互いに近い距離で配置されている養殖筏や、漁船が係留されていた養殖筏等では、それぞれが区別されずに1つのオブジェクトとして解析されていることが理由として考えられる。また、これによって、養殖筏1台あたりの平均面積も、実際の面積よりも大きく検出されたと考えられる。 Image analysis using near-infrared band images detected 1030 aquaculture rafts. This was a detection rate of about 98% as compared with the result by visual judgment. In addition, the average area per aquaculture raft was about 49 m 2 , and the area was detected to be about 2 pixels larger than the actual area, as in the case of using the RGB image. The reason why the number of aquaculture rafts was detected less than the actual number is that, for example, in aquaculture rafts arranged close to each other and aquaculture rafts where fishing boats were moored, each object is not distinguished. It is considered that the reason is that it is analyzed as. In addition, it is considered that the average area per aquaculture raft was also detected to be larger than the actual area.

パンクロマチックバンド画像のみを用いた画像解析からは、1319台の養殖筏が検出された。これは目視判断による結果と比較して約25%の検出率の増加であった。また、養殖筏1台あたりの平均面積は約30mであり、実際の面積よりも小さく検出された。養殖筏の台数が実際よりも多く検出された理由としては、画像解析に用いたパンクロマチックバンド画像の空間分解能(0.5m)では、1台の養殖筏が2〜4台程度の複数の細かいオブジェクトとして解析されたことが理由として考えられる。また、これによって、養殖筏1台あたりの平均面積も、実際の面積よりも小さく検出されたと考えられる。 Image analysis using only panchromatic band images detected 1319 farmed rafts. This was an increase in detection rate of about 25% compared to the result by visual judgment. The average area per aquaculture raft was about 30 m 2 , which was detected smaller than the actual area. The reason why the number of aquaculture rafts was detected more than the actual number is that the spatial resolution (0.5 m) of the panchromatic band image used for image analysis shows that one aquaculture raft is a plurality of small rafts of about 2 to 4 rafts. The reason may be that it was analyzed as an object. In addition, it is considered that the average area per aquaculture raft was also detected to be smaller than the actual area.

以上、第1の実施例より、オブジェクトベース画像解析により養殖筏の台数を検出する場合には、必ずしも空間分解能が高いパンクロマチックバンド画像を用いる必要はなく、マルチスペクトルバンド画像程度の空間分解能で十分であることが示された。また、RGB画像を用いるよりも、近赤外バンド画像を用いることにより、養殖筏の検出率が向上することが示された。
[第2の実施例]
As described above, from the first embodiment, when detecting the number of cultivated rafts by object-based image analysis, it is not always necessary to use a panchromatic band image having a high spatial resolution, and a spatial resolution of about a multispectral band image is sufficient. Was shown to be. It was also shown that the detection rate of the aquaculture raft is improved by using the near-infrared band image rather than using the RGB image.
[Second Example]

第2の実施例では、本発明の上記した二種類の実施形態に係る画像解析方法のそれぞれにより得られる対象物9の面積について、現地調査における実測値との比較を行った。すなわち、第2の実施例では、近赤外バンド画像31を用いた1段階目のオブジェクトベース画像解析により識別された領域41の面積と、高精細画像32を用いた、バッファ領域42の範囲内での2段階目のオブジェクトベース画像解析により識別された領域44の面積とのそれぞれを、現地調査における実測値と比較した。宮城県石巻市長面浦を対象の領域とし、長面浦の海面に浮遊した状態で設置されている養殖筏を対象物として検出し、対象物の関連情報として面積を算出した。現地調査における養殖筏の実測は、2019年5月21日に行われた。 In the second embodiment, the area of the object 9 obtained by each of the image analysis methods according to the above two types of embodiments of the present invention was compared with the measured value in the field survey. That is, in the second embodiment, the area of the region 41 identified by the first-stage object-based image analysis using the near-infrared band image 31 and the range of the buffer region 42 using the high-definition image 32. Each of the areas of the region 44 identified by the second-stage object-based image analysis in was compared with the measured values in the field survey. The target area was Nakazuraura, Ishinomaki City, Miyagi Prefecture, and aquaculture rafts installed floating on the sea surface of Nakazuraura were detected as objects, and the area was calculated as related information to the objects. The actual measurement of the aquaculture raft in the field survey was conducted on May 21, 2019.

図12は、第2の実施例において行った現地調査の結果を説明するための図である。対象の領域とした宮城県石巻市長面浦のRGB画像(白黒表示)を(A)に示し、現地調査において実測された養殖筏の面積を(B)の表に示す。現地における実測は、(A)のRGB画像中に番号1〜10で示す地点に設置されている養殖筏について行われた。 FIG. 12 is a diagram for explaining the results of the field survey conducted in the second embodiment. The RGB image (black and white display) of Nakazuraura, Ishinomaki City, Miyagi Prefecture, which was the target area, is shown in (A), and the area of the aquaculture raft actually measured in the field survey is shown in Table (B). The actual measurement at the site was performed on the aquaculture rafts installed at the points indicated by numbers 1 to 10 in the RGB image of (A).

図13は、第2の実施例において行った画像解析結果の一例である。(A)は第1の識別画像であり、(B)は第2の識別画像である。(A)および(B)に示す識別画像は、番号6〜8で示す養殖筏の海域について拡大表示されている。また、(A)には、第1の識別画像に基づいて生成されたそれぞれの養殖筏の面積が表示されている。(A)と同様に(B)にも、第2の識別画像に基づいて生成されたそれぞれの養殖筏の面積が表示されている。 FIG. 13 is an example of the result of image analysis performed in the second embodiment. (A) is a first identification image, and (B) is a second identification image. The identification images shown in (A) and (B) are enlarged and displayed for the sea area of the aquaculture raft shown by Nos. 6 to 8. Further, in (A), the area of each aquaculture raft generated based on the first identification image is displayed. Similar to (A), (B) also displays the area of each aquaculture raft generated based on the second identification image.

図14は、第2の実施例において行った現地調査における実測値との比較結果を説明するための図である。(A)は、上記した二種類の画像解析方法のそれぞれにより得られる養殖筏の面積と、現地調査における養殖筏の面積の実測値とを比較するためのグラフである。(B)は、上記した二種類の画像解析方法のそれぞれにより得られる養殖筏の面積について実測値との差分を示した表である。(B)の表には、番号1〜10で示す地点に設置されているそれぞれの養殖筏について、実測値との差分が示されている。 FIG. 14 is a diagram for explaining the comparison result with the measured value in the field survey conducted in the second embodiment. (A) is a graph for comparing the area of the aquaculture raft obtained by each of the above two types of image analysis methods with the measured value of the area of the aquaculture raft in the field survey. (B) is a table showing the difference between the measured value and the area of the aquaculture raft obtained by each of the above two types of image analysis methods. In the table (B), the difference from the measured value is shown for each aquaculture raft installed at the points indicated by numbers 1 to 10.

(A)のグラフを参照すると、例えば番号6および番号10の養殖筏については、高精細画像を用いずに近赤外バンド画像に基づく画像解析により得られた面積の値は、実測値から約20%程度も広めに算出されていた。(B)の表を参照して、実測値による面積と、上記した二種類の画像解析方法のそれぞれにより得られる面積との差分の標準偏差を算出した。近赤外バンド画像に基づく画像解析については、標準偏差は11.21mであり、高精細画像に基づく画像解析については、標準偏差は3.60mであった。このことから、高精細画像に基づく画像解析の方が、得られる面積のばらつきが少ないことが確認された。 Referring to the graph of (A), for example, for the aquaculture rafts of No. 6 and No. 10, the value of the area obtained by the image analysis based on the near infrared band image without using the high-definition image is about about the measured value. It was calculated to be as wide as 20%. With reference to the table in (B), the standard deviation of the difference between the measured area and the area obtained by each of the above two types of image analysis methods was calculated. For image analysis based on near-infrared band images, the standard deviation was 11.21 m 2 , and for image analysis based on high-definition images, the standard deviation was 3.60 m 2 . From this, it was confirmed that the image analysis based on the high-definition image has less variation in the obtained area.

以上、第2の実施例より、オブジェクトベース画像解析により養殖筏の台数を検出し、検出した養殖筏の面積を算出する場合には、近赤外バンド画像および高精細画像を用いて2段階のオブジェクトベース画像解析を行うことが好ましいことが示された。 As described above, from the second embodiment, when the number of aquaculture rafts is detected by object-based image analysis and the area of the detected aquaculture rafts is calculated, the near-infrared band image and the high-definition image are used in two steps. It has been shown that it is preferable to perform object-based image analysis.

1(1A,1B) 画像解析装置
2 外部サーバ
8 衛星
9 対象物(養殖筏)
12 データ処理部
13 補助記憶装置
14 入力部
15 表示部
16 通信インタフェース部
21 近赤外バンド画像取得部
22 高精細画像取得部
23 マスク適用部
24 識別画像生成部
25 バッファ領域設定部
26 参照領域設定部
27 識別画像生成部
28 関連情報生成部
31 近赤外バンド画像
32 高精細画像(パンクロマチックバンド画像)
33 第1の識別画像
34 第2の識別画像
35 関連情報
41 対象物の領域
42 バッファ領域
43 参照領域
44 対象物の領域
N ネットワーク
P 画像解析プログラム
U 単位領域
1 (1A, 1B) Image analyzer 2 External server 8 Satellite 9 Object (aquaculture raft)
12 Data processing unit 13 Auxiliary storage device 14 Input unit 15 Display unit 16 Communication interface unit 21 Near infrared band image acquisition unit 22 High-definition image acquisition unit 23 Mask application unit 24 Identification image generation unit 25 Buffer area setting unit 26 Reference area setting Part 27 Identification image generation part 28 Related information generation part 31 Near infrared band image 32 High-definition image (panchromatic band image)
33 First identification image 34 Second identification image 35 Related information 41 Object area 42 Buffer area 43 Reference area 44 Object area N Network P Image analysis program U Unit area

Claims (10)

コンピュータに、
対象物を含む地球上の領域が撮像された近赤外バンド画像にオブジェクトベース画像解析を適用して、前記近赤外バンド画像において前記対象物の領域が識別された第1の識別画像を生成し、
前記第1の識別画像に基づいて、前記対象物に関連する関連情報を生成する、
処理を実行させるための、画像解析プログラム。
On the computer
Object-based image analysis is applied to a near-infrared band image in which a region on the earth including an object is captured to generate a first identification image in which the region of the object is identified in the near-infrared band image. And
Generates relevant information related to the object based on the first identification image.
An image analysis program for executing processing.
コンピュータに、
前記第1の識別画像に基づいて、識別された前記対象物の領域を包含するバッファ領域を、前記近赤外バンド画像よりも高い解像度を有し、前記近赤外バンド画像と同一の前記地球上の領域が撮像された高精細画像に設定し、
前記バッファ領域の範囲内で前記高精細画像にオブジェクトベース画像解析を適用して、前記高精細画像において前記対象物の領域が識別された第2の識別画像を生成し、
前記第1の識別画像に代えて前記第2の識別画像に基づいて、前記対象物に関連する関連情報を生成する、
処理を実行させるための、請求項1に記載の画像解析プログラム。
On the computer
The buffer region including the region of the identified object based on the first identification image has a higher resolution than the near-infrared band image and is the same as the earth in the near-infrared band image. Set the upper area to the captured high-definition image,
Object-based image analysis is applied to the high-definition image within the buffer region to generate a second identification image in which the region of the object is identified in the high-definition image.
Based on the second identification image instead of the first identification image, related information related to the object is generated.
The image analysis program according to claim 1, wherein the process is executed.
コンピュータに、
前記バッファ領域を囲む参照領域を前記高精細画像に設定し、
前記高精細画像について、前記参照領域の輝度値を閾値として用いて、前記バッファ領域の範囲内で前記高精細画像に前記オブジェクトベース画像解析を適用する、
処理を実行させるための、請求項2に記載の画像解析プログラム。
On the computer
The reference area surrounding the buffer area is set in the high-definition image, and the reference area is set.
For the high-definition image, the object-based image analysis is applied to the high-definition image within the range of the buffer region by using the brightness value of the reference region as a threshold value.
The image analysis program according to claim 2, wherein the process is executed.
前記高精細画像はパンクロマチックバンド画像である、請求項2または3に記載の画像解析プログラム。 The image analysis program according to claim 2 or 3, wherein the high-definition image is a panchromatic band image. コンピュータに、
前記対象物の大きさおよび数の少なくともいずれかに関する情報を生成する処理を実行させる、請求項1から4のいずれかに記載の画像解析プログラム。
On the computer
The image analysis program according to any one of claims 1 to 4, which executes a process of generating information regarding at least one of the size and number of the objects.
コンピュータに、
前記近赤外バンド画像に対応付けられている撮像範囲の緯度および経度の情報に基づいて、前記対象物の位置に関する情報を生成する処理を実行させる、請求項1から5のいずれかに記載の画像解析プログラム。
On the computer
The method according to any one of claims 1 to 5, wherein a process for generating information regarding the position of the object is executed based on the latitude and longitude information of the imaging range associated with the near-infrared band image. Image analysis program.
コンピュータに、
前記近赤外バンド画像内の陸域の領域に画像マスクを適用する処理を実行させる、請求項1から6のいずれかに記載の画像解析プログラム。
On the computer
The image analysis program according to any one of claims 1 to 6, wherein a process of applying an image mask to a land region in the near-infrared band image is executed.
前記対象物は、水域に浮遊する物体である、請求項1から7のいずれかに記載の画像解析プログラム。 The image analysis program according to any one of claims 1 to 7, wherein the object is an object floating in a water area. 対象物を含む地球上の領域が撮像された近赤外バンド画像にオブジェクトベース画像解析を適用して、前記近赤外バンド画像において前記対象物の領域が識別された第1の識別画像を生成する第1識別画像生成ステップと、
前記第1の識別画像に基づいて、前記対象物に関連する関連情報を生成する関連情報生成ステップと、
を含む、画像解析方法。
Object-based image analysis is applied to a near-infrared band image in which a region on the earth including an object is captured to generate a first identification image in which the region of the object is identified in the near-infrared band image. First identification image generation step and
A related information generation step of generating related information related to the object based on the first identification image, and a related information generation step.
Image analysis methods, including.
対象物を含む地球上の領域が撮像された近赤外バンド画像にオブジェクトベース画像解析を適用して、前記近赤外バンド画像において前記対象物の領域が識別された第1の識別画像を生成する第1識別画像生成部と、
前記第1の識別画像に基づいて、前記対象物に関連する関連情報を生成する関連情報生成部と、
を備える、画像解析装置。
Object-based image analysis is applied to a near-infrared band image in which a region on the earth including an object is captured to generate a first identification image in which the region of the object is identified in the near-infrared band image. First identification image generation unit and
A related information generation unit that generates related information related to the object based on the first identification image, and a related information generation unit.
An image analysis device.
JP2019162614A 2019-09-06 2019-09-06 Image analysis program, image analysis method and image analysis device Active JP7313676B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019162614A JP7313676B2 (en) 2019-09-06 2019-09-06 Image analysis program, image analysis method and image analysis device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019162614A JP7313676B2 (en) 2019-09-06 2019-09-06 Image analysis program, image analysis method and image analysis device

Publications (2)

Publication Number Publication Date
JP2021043485A true JP2021043485A (en) 2021-03-18
JP7313676B2 JP7313676B2 (en) 2023-07-25

Family

ID=74861665

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019162614A Active JP7313676B2 (en) 2019-09-06 2019-09-06 Image analysis program, image analysis method and image analysis device

Country Status (1)

Country Link
JP (1) JP7313676B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022196637A1 (en) 2021-03-17 2022-09-22 三菱マテリアル株式会社 Surface-coated cutting tool

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11109013A (en) * 1997-10-06 1999-04-23 Mitsubishi Electric Corp Target-detecting device
JP2007018387A (en) * 2005-07-08 2007-01-25 Ntt Data Corp Apparatus and method for preparing map of green covering ratio, and program
JP2008226176A (en) * 2007-03-15 2008-09-25 Toshiba Corp Thermal target tracking device and method
CN105184804A (en) * 2015-10-12 2015-12-23 上海海大技术转移有限公司 Sea surface small target detection method based on airborne infrared camera aerially-photographed image
JP2018097506A (en) * 2016-12-12 2018-06-21 株式会社日立製作所 Satellite image processing system and method

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11109013A (en) * 1997-10-06 1999-04-23 Mitsubishi Electric Corp Target-detecting device
JP2007018387A (en) * 2005-07-08 2007-01-25 Ntt Data Corp Apparatus and method for preparing map of green covering ratio, and program
JP2008226176A (en) * 2007-03-15 2008-09-25 Toshiba Corp Thermal target tracking device and method
CN105184804A (en) * 2015-10-12 2015-12-23 上海海大技术转移有限公司 Sea surface small target detection method based on airborne infrared camera aerially-photographed image
JP2018097506A (en) * 2016-12-12 2018-06-21 株式会社日立製作所 Satellite image processing system and method

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
若林 裕之 ほか: "UAV搭載可視近赤外カメラを用いた猪苗代湖北部水域の水生植物モニタリング", 第66回(令和元年度春季)学術講演会論文集[CD−ROM], JPN6023018008, June 2019 (2019-06-01), pages 153 - 154, ISSN: 0005051464 *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022196637A1 (en) 2021-03-17 2022-09-22 三菱マテリアル株式会社 Surface-coated cutting tool

Also Published As

Publication number Publication date
JP7313676B2 (en) 2023-07-25

Similar Documents

Publication Publication Date Title
US10049434B2 (en) Systems and methods for object detection
US9466130B2 (en) Systems and methods for enhancing displayed images
Boldt et al. Development of stereo camera methodologies to improve pelagic fish biomass estimates and inform ecosystem management in marine waters
US8498480B2 (en) Computationally efficient method for image segmentation with intensity and texture discrimination
Hayes et al. Drones and deep learning produce accurate and efficient monitoring of large-scale seabird colonies
Andrew et al. Semi‐automated detection of eagle nests: an application of very high‐resolution image data and advanced image analyses to wildlife surveys
Traganos et al. Cubesat-derived detection of seagrasses using planet imagery following unmixing-based denoising: Is small the next big?
Barnas et al. A comparison of drone imagery and ground-based methods for estimating the extent of habitat destruction by lesser snow geese (Anser caerulescens caerulescens) in La Pérouse Bay
US11334986B2 (en) System and method for processing images of agricultural fields for remote phenotype measurement
Brown et al. Automated aerial animal detection when spatial resolution conditions are varied
Kolli et al. Automatic extraction of large-scale aquaculture encroachment areas using Canny Edge Otsu algorithm in Google Earth Engine–the case study of Kolleru Lake, South India
CN114758249A (en) Target object monitoring method, device, equipment and medium based on field night environment
US20160019699A1 (en) Edge detection in images
JP7313676B2 (en) Image analysis program, image analysis method and image analysis device
US20160267382A1 (en) Methods and devices for analysis of digital color images and methods of applying color image analysis
Rodofili et al. Remote sensing techniques for automated marine mammals detection: a review of methods and current challenges
McNabb et al. Quantification and analysis of icebergs in a tidewater glacier fjord using an object-based approach
Collings et al. Depth from satellite images: depth retrieval using a stereo and radiative transfer-based hybrid method
CN112507869B (en) Underwater target behavior observation and water environment monitoring method based on machine vision
Collin et al. Mapping bathymetry, habitat, and potential bleaching of coral reefs using Sentinel-2
Hansen et al. Classification of boulders in coastal environments using random forest machine learning on topo-bathymetric lidar data
Mahendra et al. Mangroves Change Detection using Support Vector Machine Algorithm on Google Earth Engine (A Case Study in Part of Gulf of Bone, South Sulawesi, Indonesia)
Guimarães Paiva et al. An assessment of the effectiveness of high definition cameras as remote monitoring tools for dolphin ecology studies
CN116229280B (en) Method and device for identifying collapse sentry, electronic equipment and storage medium
Yoshida et al. Horizontal visibility of an underwater low-resolution video camera modeled by practical parameters near the sea surface

Legal Events

Date Code Title Description
A80 Written request to apply exceptions to lack of novelty of invention

Free format text: JAPANESE INTERMEDIATE CODE: A80

Effective date: 20190927

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220607

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230414

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230509

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230526

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230606

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230705

R150 Certificate of patent or registration of utility model

Ref document number: 7313676

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150