JP2016165303A - Vegetation determination program, vegetation determination method, and vegetation determination device - Google Patents

Vegetation determination program, vegetation determination method, and vegetation determination device Download PDF

Info

Publication number
JP2016165303A
JP2016165303A JP2016112761A JP2016112761A JP2016165303A JP 2016165303 A JP2016165303 A JP 2016165303A JP 2016112761 A JP2016112761 A JP 2016112761A JP 2016112761 A JP2016112761 A JP 2016112761A JP 2016165303 A JP2016165303 A JP 2016165303A
Authority
JP
Japan
Prior art keywords
image
vegetation
plant
section
images
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2016112761A
Other languages
Japanese (ja)
Inventor
信行 栗田
Nobuyuki Kurita
信行 栗田
あきら 宮崎
Akira Miyazaki
あきら 宮崎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2016112761A priority Critical patent/JP2016165303A/en
Publication of JP2016165303A publication Critical patent/JP2016165303A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a vegetation determination program, a vegetation determination method, and vegetation determination device in which influence of the time of the year when an image is captured is suppressed.SOLUTION: A vegetation determination program allows a computer to execute processing of: severally calculating image feature quantities of at least a predetermined region regarding a first image and a second image which are obtained by imaging a predetermined region at different times of the year; referring to database including information showing different image feature quantities at different times of the year associating with types of plants, based on the times of the year when the images were captured to specify the type of plant included in the predetermined region of the first image and the type of plant included in the predetermined region of the second image; determining that the type of plant in the predetermined region has not been changed between the different times of the year in the case where the type of plant specified regarding the first image matches the type of plant specified regarding the second image, and determining that the type of plant in the predetermined region has been changed between different times of the year in the case where the type of plant specified regarding the first image does not match the type of plant specified regarding the second image.SELECTED DRAWING: Figure 3

Description

本件開示は、植生判定プログラム及び植生判定方法並びに植生判定装置に関する。   The present disclosure relates to a vegetation determination program, a vegetation determination method, and a vegetation determination apparatus.

植物を撮影した画像に基づいて、被写体となった植物の種類を判別する技術として、例えば、特許文献1の技法が提案されている。   For example, the technique of Patent Document 1 has been proposed as a technique for discriminating the type of plant that has become a subject based on an image of a plant photographed.

また、森林を上空から撮影して得られた画像に基づいて、撮影範囲に生育している樹木を種類別に分類し、森林の現況に関する情報を取得する技術として、例えば、特許文献2の技法が提案されている。   Further, as a technique for classifying trees growing in the photographing range according to the type based on an image obtained by photographing the forest from the sky and acquiring information on the current state of the forest, for example, the technique of Patent Document 2 is used. Proposed.

個々の画像の撮影範囲に生育している植物の種類は、当該植物が典型的な特徴を示している時期に撮影された画像から、上述した特許文献1,2などに開示された技法に基づいて判別することが可能である。   The types of plants growing in the shooting range of individual images are based on the techniques disclosed in Patent Documents 1 and 2 described above from images shot at a time when the plants show typical characteristics. Can be determined.

特開2002−203242号公報Japanese Patent Laid-Open No. 2002-203242 特開2010−86276号公報JP 2010-86276 A

ところで、異なる時期に同じ地域を撮影することで得られた複数の画像を比較し、画像中で変化した領域を検出しても、画像から検出した箇所と、家屋の異動や廃棄物の不法投棄などを含む様々な土地の用途変化があった場所とが対応しない場合がある。   By the way, multiple images obtained by photographing the same area at different times are compared, and even if a changed area is detected in the image, the location detected from the image and the change of the house or illegal dumping of waste There may be cases where it does not correspond to a place where various land uses have changed.

なぜなら、植物の状態は季節や農作業の進捗などによって大きく変化するため、同一の地域を撮影した画像でも、撮影を行った時期によって色などの特徴が異なるためである。例えば、落葉樹が生育している山林や圃場などを夏季に撮影した画像と、冬季に撮影した画像とでは、撮影対象の地域を覆っている植物、すなわち、植生に変化がないにもかかわらず、それぞれの画像中の山林や圃場に相当する領域の色を含む特徴は大きく異なる。このため、上述した二枚の画像を比較した場合には、画像中の山林や圃場に対応する領域が、当該領域に写っている地域の植生に変化がないにもかかわらず、画像間の差分として検出されてしまう場合がある。   This is because the state of the plant greatly changes depending on the season, the progress of farming, and the like, and even the images of the same region have different characteristics such as color depending on the time of shooting. For example, an image taken in the summer of a forest or field where deciduous trees are growing, and an image taken in the winter, the plant that covers the area to be photographed, i.e., there is no change in vegetation, Features including colors of regions corresponding to forests and fields in each image are greatly different. For this reason, when the two images described above are compared, the area corresponding to the forest or the field in the image is the difference between the images even though there is no change in the vegetation of the area reflected in the area. May be detected.

また、画像に基づいて撮影対象の植物の種類を判断する従来の技術では、撮影対象の植物が典型的な特徴を呈していない時期に撮影された画像に基づいて、被写体となった植物の種類を判定することは困難である。   In addition, in the conventional technique for determining the type of plant to be photographed based on the image, the type of plant that is the subject based on the image photographed when the plant to be photographed does not exhibit typical characteristics. Is difficult to determine.

このように、従来技術では、比較される各画像が撮影された時期によって、撮影範囲の植生が変化しているか否かを判定できない場合がある。   As described above, in the related art, it may not be possible to determine whether or not the vegetation in the shooting range has changed depending on the time when each image to be compared was shot.

1つの側面では、本発明は、画像の撮影時期の影響を抑制した植生判定プログラム及び植生判定方法並びに植生判定装置を提供することを目的とする。   In one aspect, an object of the present invention is to provide a vegetation determination program, a vegetation determination method, and a vegetation determination apparatus that suppress the influence of an image capturing time.

一つの観点による植生判定プログラムは、所定の領域をそれぞれ異なる時期に撮影して得られた第一の画像と第二の画像とについて少なくとも前記所定の領域の画像特徴量をそれぞれ算出し、植物の種類に対応付けて時期に応じて異なる画像特徴量を示す情報を含むデータベースを、撮影された時期に基づいて参照して、前記第一の画像の前記所定の領域に含まれる植物の種類と前記第二の画像の前記所定の領域に含まれる植物の種類を特定し、前記第1の画像について特定した植物の種類と、前記第2の画像について特定した植物の種類とが一致する場合に、前記所定の領域の植物の種類は前記異なる時期の間で変化していないと判断し、前記第1の画像について特定した植物の種類と、前記第2の画像について特定した植物の種類とが一致しない場合に、前記所定の領域の植物の種類は前記異なる時期の間で変化したと判断する処理をコンピュータに実行させる。   A vegetation determination program according to one aspect calculates an image feature amount of at least the predetermined region for each of the first image and the second image obtained by photographing the predetermined region at different times, A database including information indicating image feature amounts that differ according to time in association with types is referred to based on the time of shooting, and the types of plants included in the predetermined area of the first image and the database When the type of plant included in the predetermined area of the second image is specified, and the type of plant specified for the first image matches the type of plant specified for the second image, It is determined that the plant type in the predetermined region has not changed between the different times, and the plant type specified for the first image is identical to the plant type specified for the second image. If not, the type of plants of the predetermined region is to execute the process of determining that varied between the different times on a computer.

また、別の観点による植生判定方法は、所定の領域をそれぞれ異なる時期に撮影して得られた第一の画像と第二の画像とについて少なくとも前記所定の領域の画像特徴量をそれぞれ算出し、植物の種類に対応付けて時期に応じて異なる画像特徴量を示す情報を含むデータベースを、撮影された時期に基づいて参照して、前記第一の画像の前記所定の領域に含まれる植物の種類と前記第二の画像の前記所定の領域に含まれる植物の種類を特定し、前記第1の画像について特定した植物の種類と、前記第2の画像について特定した植物の種類とが一致する場合に、前記所定の領域の植物の種類は前記異なる時期の間で変化していないと判断し、前記第1の画像について特定した植物の種類と、前記第2の画像について特定した植物の種類とが一致しない場合に、前記所定の領域の植物の種類は前記異なる時期の間で変化したと判断する。   Further, the vegetation determination method according to another aspect calculates at least the image feature amount of the predetermined region for the first image and the second image obtained by photographing the predetermined region at different times, Types of plants included in the predetermined region of the first image with reference to a database including information indicating image feature quantities that differ according to the time in association with the types of plants based on the time of shooting. The type of plant included in the predetermined area of the second image and the type of plant specified for the first image matches the type of plant specified for the second image In addition, it is determined that the plant type of the predetermined region has not changed between the different times, the plant type specified for the first image, and the plant type specified for the second image Matches If no, the type of plants of the predetermined area is determined to have changed between the different times.

また、別の観点による植生判定装置は、所定の領域をそれぞれ異なる時期に撮影して得られた第一の画像と第二の画像とについて少なくとも前記所定の領域の画像特徴量をそれぞれ算出する算出部と、植物の種類に対応付けて時期に応じて異なる画像特徴量を示す情報を含むデータベースを、撮影された時期に基づいて参照して、前記第一の画像の前記所定の領域に含まれる植物の種類と前記第二の画像の前記所定の領域に含まれる植物の種類を特定する特定部と、前記第1の画像について特定した植物の種類と、前記第2の画像について特定した植物の種類とが一致する場合に、前記所定の領域の植物の種類は前記異なる時期の間で変化していないと判断し、前記第1の画像について特定した植物の種類と、前記第2の画像について特定した植物の種類とが一致しない場合に、前記所定の領域の植物の種類は前記異なる時期の間で変化したと判断する判断部とを有する。   In another aspect, the vegetation determination device calculates at least the image feature amount of the predetermined region for each of the first image and the second image obtained by photographing the predetermined region at different times. A database containing information indicating image features that differ depending on the time in association with the type of plant and the plant is referred to based on the time taken and included in the predetermined region of the first image A specifying unit for specifying a plant type and a plant type included in the predetermined area of the second image, a plant type specified for the first image, and a plant specified for the second image. When the type matches, it is determined that the plant type in the predetermined region has not changed between the different times, and the plant type specified for the first image and the second image Identify If the the type of plant does not match, the type of plants of the predetermined region has a determining section for determining a varied between the different times.

本件開示の植生判定プログラム及び植生判定方法並びに植生判定装置によれば、画像の撮影時期の影響を抑制することができる。   According to the vegetation determination program, the vegetation determination method, and the vegetation determination apparatus of the present disclosure, it is possible to suppress the influence of the image capturing time.

植生判定装置の一実施形態を示す図である。It is a figure which shows one Embodiment of a vegetation determination apparatus. 植物状態データベースの例を示す図である。It is a figure which shows the example of a plant state database. 植生の変化の有無を判定する処理のフローチャートの例を示す図(その1)である。It is a figure (the 1) which shows the example of the flowchart of the process which determines the presence or absence of the change of vegetation. 植生の変化の有無を判定する処理のフローチャートの例を示す図(その2)である。It is FIG. (2) which shows the example of the flowchart of the process which determines the presence or absence of the change of vegetation. 植生判定方法を適用した差分検出装置のハードウェア構成例を示す図である。It is a figure which shows the hardware structural example of the difference detection apparatus to which the vegetation determination method is applied. 差分検出処理のフローチャートの例を示す図である。It is a figure which shows the example of the flowchart of a difference detection process. 植生を判別する処理のフローチャートの例を示す図である。It is a figure which shows the example of the flowchart of the process which discriminates vegetation. 特徴量を推定する処理のフローチャートの例を示す図である。It is a figure which shows the example of the flowchart of the process which estimates a feature-value. 類似性を評価する処理のフローチャートの例を示す図である。It is a figure which shows the example of the flowchart of the process which evaluates similarity. 植生判定方法を適用した差分検出装置の別ハードウェア構成例を示す図である。It is a figure which shows another hardware structural example of the difference detection apparatus to which the vegetation determination method is applied. 地図情報データベースの例を示す図である。It is a figure which shows the example of a map information database. 差分検出処理のフローチャートの別例を示す図である。It is a figure which shows another example of the flowchart of a difference detection process. 地図情報を利用して植生の変化を判定する処理のフローチャートの別例を示す図である。It is a figure which shows another example of the flowchart of the process which determines the change of vegetation using map information.

以下、図面に基づいて、本発明の実施形態について詳細に説明する。   Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.

図1は、植生判定装置10の一実施形態を示している。植生判定装置10は、所定の地域を異なる時期に撮影して得られた二枚の画像A,Bを受け取り、各画像に基づいて、上述した地域に含まれる各地点における植生を判定するとともに、画像A,Bの撮影時期間に植生に変化があったか否かを判定する。   FIG. 1 shows an embodiment of a vegetation determination apparatus 10. The vegetation determination device 10 receives two images A and B obtained by photographing a predetermined area at different times, determines vegetation at each point included in the above-described area based on each image, and It is determined whether or not the vegetation has changed between the image A and B image capturing periods.

図1に示した植生判定装置10は、判別部11と、推定部12と、評価部13と、判断部14とを含んでいる。判別部11は、上述した画像A,Bを受け取り、また、推定部12は、植物状態データベースDBから、各植物を撮影することで得られる画像の特徴量を時期ごとに示す植物情報を受け取る。   The vegetation determination apparatus 10 illustrated in FIG. 1 includes a determination unit 11, an estimation unit 12, an evaluation unit 13, and a determination unit 14. The discriminating unit 11 receives the above-described images A and B, and the estimating unit 12 receives plant information indicating the feature amount of the image obtained by photographing each plant for each period from the plant state database DB.

判別部11は、画像A,Bのそれぞれを区分して得られる各区画の特徴量に基づいて、各区画に撮影された植物の種類をそれぞれ判別する。各区画は、例えば、画像A,Bのそれぞれに含まれる各画素であってもよいし、また、複数画素をまとめたブロックであってもよい。例えば、判別部11は、各区画の特徴量の一つである色を示す情報に基づいて、各区画に撮影された植物の種類を判別してもよい。ここで、画像A,Bの各区画は、撮影範囲内に含まれる各地点に対応しており、当該区画に撮影された植物は、当該区画に対応する地点を覆っている植物である。したがって、判別部11が、各区画について判別した植物の種類は、各区画に対応する地点の植生を示している。以下の説明では、画像に含まれる「各区画に撮影されている植物の種類を判別する」ことを、「各区画に対応する地点の植生を判別する」と称する。   The discriminating unit 11 discriminates the types of plants photographed in the respective sections based on the feature amounts of the respective sections obtained by classifying the images A and B. Each section may be, for example, each pixel included in each of the images A and B, or may be a block in which a plurality of pixels are collected. For example, the determination unit 11 may determine the type of plant photographed in each section based on information indicating a color that is one of the feature amounts of each section. Here, each section of the images A and B corresponds to each point included in the shooting range, and the plant photographed in the section is a plant covering the point corresponding to the section. Therefore, the kind of plant which the discrimination | determination part 11 discriminate | determined about each division has shown the vegetation of the point corresponding to each division. In the following description, “determining the type of plant photographed in each section” included in the image is referred to as “determining vegetation at a point corresponding to each section”.

なお、上述した画像A,Bは、位置合わせ済みの画像であり、画像A,Bの対応する区画は、上述した地域に含まれる同一の地点に対応する。   Note that the images A and B described above are images that have been aligned, and the corresponding sections of the images A and B correspond to the same point included in the region described above.

ここで、画像A,Bが、落葉広葉樹が生育している地域を含む撮影範囲を、それぞれ5月と12月に撮影して得られた画像である場合について考える。   Here, consider a case where the images A and B are images obtained by shooting the shooting range including the area where the deciduous broad-leaved tree grows in May and December, respectively.

この場合に、5月に撮影された画像Aの上述した地域が写っている領域に含まれる区画の色などの特徴量は、被写体となった植物の典型的な特徴を示している。したがって、判別部11は、当該区画の特徴量に基づいて、被写体となった植物の種類を判別することができる。   In this case, the feature amount such as the color of the section included in the region where the above-described region is captured in the image A taken in May indicates a typical feature of the plant that is the subject. Therefore, the determination unit 11 can determine the type of the plant that is the subject based on the feature amount of the section.

一方、12月に撮影された画像Bの対応する区画の特徴量は、落葉後の木の幹や枝などの色などの特徴を示している。そして、例えば、落葉後の各樹種の幹や枝などの色には、各樹種の葉色の違いほど大きな差異が無い。したがって、上述した判別部11により、画像Bの中で、落葉広葉樹林が写っている領域の各区画について、被写体となった植物の種類を判別することは困難である。   On the other hand, the feature amount of the corresponding section of the image B photographed in December indicates the characteristics such as the color of the trunk and branches of the tree after the fallen leaves. For example, the color of the trunk, branch, etc. of each tree species after falling leaves is not as great as the difference in the leaf color of each tree species. Therefore, it is difficult for the above-described determination unit 11 to determine the type of plant that is the subject for each section of the region where the deciduous broad-leaved forest is shown in the image B.

したがって、判別部11は、これらの画像A,Bに共通して含まれる落葉広葉樹林を撮影した領域に含まれる各区画について、画像Aについては植物を判別できるが、画像Bについては植物を判別できない旨の判別結果を得る。この場合に、前記植物の種類を判別できた区画が含まれる画像Aは第2画像の一例であり、前記植物の種類を判別できなかった区画が含まれる画像Bは第1画像の一例である。   Therefore, the discriminating unit 11 can discriminate a plant for the image A but discriminates a plant for the image B with respect to each section included in an area obtained by photographing the deciduous broad-leaved forest that is commonly included in the images A and B. The result of determination that it cannot be obtained. In this case, the image A including the section where the plant type can be determined is an example of the second image, and the image B including the section where the plant type cannot be determined is an example of the first image. .

推定部12は、植物状態データベースDBから受け取った植物情報に基づいて、第2画像に相当する画像Aの上述した領域に含まれる区画について判別された種類の植物が、第1画像に相当する画像Bの撮影時期において呈する状態を示す画像の特徴量を推定する。推定部12によって推定される特徴量は、例えば、画像Aに基づいて特定された植物が、画像Bの撮影時期に呈する色を示すスペクトル特性などである。推定部12は、例えば、画像Aについて得られた判別結果に基づいて、図2に示すような植物状態データベースDBを検索することにより、植物情報を取得してもよい。   Based on the plant information received from the plant state database DB, the estimating unit 12 determines that the type of plant determined for the section included in the above-described region of the image A corresponding to the second image corresponds to the first image. The feature amount of the image indicating the state presented at the shooting time of B is estimated. The feature amount estimated by the estimation unit 12 is, for example, a spectral characteristic indicating the color that the plant specified based on the image A exhibits at the time when the image B is captured. For example, the estimation unit 12 may acquire plant information by searching a plant state database DB as illustrated in FIG. 2 based on the determination result obtained for the image A.

図2は、植物状態データベースの例を示している。図2に示した植物状態データベースは、植物の種類ごとに、各時期に当該植物を撮影することで得られる画像の特徴量の一例である色を示すスペクトル特性を表すマルチスペクトルデータを保持している。   FIG. 2 shows an example of a plant state database. The plant state database shown in FIG. 2 holds multispectral data representing spectral characteristics indicating colors, which are examples of image feature amounts obtained by photographing the plant at each time for each type of plant. Yes.

図2に示した植物状態データベースDBは、各植物を撮影した場合に得られる画像の色を示すマルチスペクトルデータを、1年に含まれる各月に対応して保持している。なお、植物状態データベースは、図2に示した例に限らず、例えば、1年に含まれる各週あるいは各日に対応して、各植物を撮影した場合に得られる画像の色を示すマルチスペクトルデータをしてもよい。   The plant state database DB shown in FIG. 2 holds multispectral data indicating the color of an image obtained when each plant is photographed corresponding to each month included in one year. The plant state database is not limited to the example shown in FIG. 2, but for example, multispectral data indicating the color of an image obtained when each plant is photographed corresponding to each week or each day included in one year. You may do.

図2の例に示したマルチスペクトルデータは、可視光領域に含まれる赤色帯、緑色帯及び青色帯をそれぞれ代表するスペクトル値と、赤外領域に含まれる近赤外帯を代表するスペクトル値とを含んでいる。なお,図2において、赤色帯、緑色帯、青色帯及び近赤外帯を、それぞれ符号「赤」、「緑」、「青」、「近赤外」で示した。また、植物状態データベースDBに保持する各マルチスペクトルデータは、図2の例に限らず、上述した4つの波長帯とは異なる波長帯のスペクトル値を含んでもよいし、異なる数の波長帯のスペクトル値を含んでもよい。   The multispectral data shown in the example of FIG. 2 includes spectral values representing the red band, green band and blue band included in the visible light region, and spectral values representing the near infrared band included in the infrared region. Is included. In FIG. 2, the red band, the green band, the blue band, and the near-infrared band are indicated by the symbols “red”, “green”, “blue”, and “near-infrared”, respectively. Each multispectral data stored in the plant state database DB is not limited to the example of FIG. 2, and may include spectrum values in wavelength bands different from the above-described four wavelength bands, or spectra in different numbers of wavelength bands. It may contain a value.

図2に示した植物状態データベースDBは、植物の種類の一例である稲に対応して、4月に稲を撮影した場合に得られるマルチスペクトルデータおよび12月に稲を撮影した場合に得られるマルチスペクトルデータを含む情報を保持している。なお、図2の例では、4月に稲を撮影した場合に得られるマルチスペクトルデータを、符号R_r4,G_r4,B_r4,IR_r4で示している。また、12月に稲を撮影した場合に得られるマルチスペクトルデータを、符号R_r12,G_r12,B_r12,IR_r12で示している。   The plant state database DB shown in FIG. 2 is obtained when multi-spectrum data obtained when rice is photographed in April and when rice is photographed in December, corresponding to rice that is an example of plant types. It holds information including multispectral data. In the example of FIG. 2, multispectral data obtained when rice is photographed in April are denoted by reference characters R_r4, G_r4, B_r4, and IR_r4. In addition, multispectral data obtained when rice is photographed in December are indicated by symbols R_r12, G_r12, B_r12, and IR_r12.

同様に、図2に示した植物状態データベースDBは、植物の種類の別例であるカエデに対応して、4月にカエデを撮影した場合に得られるマルチスペクトルデータおよび12月にカエデを撮影した場合に得られるマルチスペクトルデータを含む情報を保持している。なお、図2の例では、4月にカエデを撮影した場合に得られるマルチスペクトルデータを、符号R_m4,G_m4,B_m4,IR_m4で示している。また、12月にカエデを撮影した場合に得られるマルチスペクトルデータを、符号R_m12,G_m12,B_m12,IR_m12で示している。   Similarly, the plant state database DB shown in FIG. 2 corresponds to a maple which is another example of the kind of plant, multispectral data obtained when a maple is photographed in April, and a maple is photographed in December. It holds information including multispectral data obtained in some cases. In the example of FIG. 2, multispectral data obtained when maple is photographed in April are indicated by reference symbols R_m4, G_m4, B_m4, and IR_m4. Further, multispectral data obtained when a maple is photographed in December are denoted by reference symbols R_m12, G_m12, B_m12, and IR_m12.

また、図2に示した植物状態データベースDBは、植物の種類の別例であるサクラに対応して、4月にサクラを撮影した場合に得られるマルチスペクトルデータおよび12月にサクラを撮影した場合に得られるマルチスペクトルデータを含む情報を保持している。なお、図2の例では、4月にサクラを撮影した場合に得られるマルチスペクトルデータを、符号R_c4,G_c4,B_c4,IR_c4で示している。また、12月にサクラを撮影した場合に得られるマルチスペクトルデータを、符号R_c12,G_c12,B_c12,IR_c12で示している。   In addition, the plant state database DB shown in FIG. 2 corresponds to the cherry tree which is another example of the plant type, and the multispectral data obtained when the cherry tree is photographed in April and the cherry tree is photographed in December. Holds information including multispectral data obtained. In the example of FIG. 2, multispectral data obtained when a cherry tree is photographed in April are indicated by reference symbols R_c4, G_c4, B_c4, and IR_c4. Further, multispectral data obtained when a cherry tree is photographed in December are denoted by reference symbols R_c12, G_c12, B_c12, and IR_c12.

例えば、被写体の植物がカエデである旨の判別結果が得られた場合に、図1に示した推定部12は、上述した植物データベースDBのカエデに対応する情報から、画像Bの撮影時期である12月に対応するマルチスペクトルデータを取得することができる。   For example, when a determination result that the subject plant is a maple is obtained, the estimation unit 12 illustrated in FIG. 1 is the shooting time of the image B from the information corresponding to the maple in the plant database DB described above. Multispectral data corresponding to December can be acquired.

推定部12は、上述したようにして得られたマルチスペクトルデータを、推定した特徴量として評価部13に渡す。なお、推定部12は、画像Bについては植物を判別できるが、画像Aについては植物を判別できない旨の判別結果が得られた区画について、判別された植物と画像Aの撮影時期とで特定されるマルチスペクトルデータを、推定した特徴量として評価部13に渡してもよい。また、推定部12は、植物状態データベースDBを利用する代わりに、各植物について季節や農作業の進捗に対応する当該植物の状態の変化を表すモデルを構築し、構築したモデルに基づいて、所望の時期に植物の状態を示す特徴量を推定してもよい。   The estimation unit 12 passes the multispectral data obtained as described above to the evaluation unit 13 as an estimated feature amount. Note that the estimation unit 12 can identify the plant for the image B, but identifies the section for which the determination result indicating that the plant cannot be identified for the image A is obtained based on the identified plant and the shooting time of the image A. Multispectral data may be passed to the evaluation unit 13 as an estimated feature amount. Moreover, the estimation part 12 constructs | assembles the model showing the change of the state of the said plant corresponding to a season or progress of farm work about each plant instead of using plant state database DB, Based on the constructed model, desired You may estimate the feature-value which shows the state of a plant in time.

評価部13は、画像Aについては植物を判別できるが、画像Bについては植物を判別できない旨の判別結果が得られた各区画について、推定部12で得られた特徴量と、画像Bに含まれる当該区画の画像の特徴量との類似性を評価する。例えば、評価部13は、画像Bの当該区画の特徴量として、例えば、当該区画の色を示すマルチスペクトルデータを判別部11から受け取り、受け取ったマルチスペクトルデータと推定部12で得られたマルチスペクトルデータとの類似度を算出してもよい。同様に、評価部13は、画像Bについては植物を判別できるが、画像Aについては植物を判別できない旨の判別結果が得られた各区画について、推定部12で得られた特徴量と、画像Bに含まれる当該区画の画像の特徴量との類似性を評価する。評価部13は、例えば、式(1)を用いて、2つのマルチスペクトルデータ間のユークリッド距離Dを算出し、得られたユークリッド距離Dを、値が小さいほど高い類似性があることを示す類似度として、判断部14に渡してもよい。
D=((Br1−Br2)2+(Bg1−Bg2)2+(Bb1−Bb2)2+(Bir1−Bir2)2)1/2 ・・・(1)
なお、式(1)において、推定部12で推定されたマルチスペクトルデータを符号Br1,Bg1,Bb1,Bir1で示し、植生が未判別の画像に含まれる区画に対応するマルチスペクトルデータを符号Br2,Bg2,Bb2,Bir2で示した。以下の説明では、マルチスペクトル間のユークリッド距離を、単に、マルチスペクトルデータ間の距離と称する。
The evaluation unit 13 can identify the plant for the image A, but includes the feature amount obtained by the estimation unit 12 and the image B for each section where the determination result that the plant cannot be identified for the image B is obtained. The similarity with the feature amount of the image of the section is evaluated. For example, the evaluation unit 13 receives, as the feature amount of the section of the image B, for example, multispectral data indicating the color of the section from the determination unit 11, and the received multispectral data and the multispectrum obtained by the estimation unit 12. The degree of similarity with data may be calculated. Similarly, the evaluation unit 13 can discriminate the plant for the image B, but the feature amount obtained by the estimation unit 12 and the image for each section where the discrimination result that the plant cannot be discriminated for the image A is obtained. The similarity with the feature amount of the image of the section included in B is evaluated. For example, the evaluation unit 13 calculates the Euclidean distance D between the two multispectral data using the formula (1), and the obtained Euclidean distance D is similar indicating that the smaller the value, the higher the similarity. You may pass to the judgment part 14 as a degree.
D = ((Br1-Br2) 2 + (Bg1-Bg2) 2 + (Bb1-Bb2) 2 + (Bir1-Bir2) 2) 1/2 ··· (1)
In Equation (1), the multispectral data estimated by the estimation unit 12 is indicated by symbols Br1, Bg1, Bb1, and Bir1, and the multispectral data corresponding to the section included in the image in which vegetation is not determined is denoted by symbols Br2, Indicated by Bg2, Bb2, and Bir2. In the following description, the Euclidean distance between multispectrals is simply referred to as the distance between multispectral data.

判断部14は、評価部13で得られた類似度により、推定部12で得られた特徴量と、植生が未判別の画像に含まれる区画の特徴量との間に類似性があることが示された場合に、画像A,Bの撮影時期の間に当該区画に対応する地点の植生は変化していないと判断する。例えば、推定部12で得られた12月のカエデが呈する色を示すマルチスペクトルデータと、画像Bの当該区画のマルチスペクトルデータとが類似すると評価された場合に、判断部14は、当該区画に対応する地点の植生に変化はないと判断する。つまり、判断部14は、画像A,Bに含まれる区画の特徴量の差異が、植生の判別結果として得られた植物が画像A,Bの撮影時期の間に呈する変化に相当する場合に、植生の変化はないと判断する。   The determination unit 14 may have a similarity between the feature amount obtained by the estimation unit 12 and the feature amount of a section included in an image in which vegetation is not yet determined, based on the similarity obtained by the evaluation unit 13. If indicated, it is determined that the vegetation at the point corresponding to the section has not changed during the photographing times of the images A and B. For example, when it is evaluated that the multispectral data indicating the color exhibited by the maple in December obtained by the estimation unit 12 and the multispectral data of the section of the image B are similar, the determination unit 14 sets the section to the section. Judge that there is no change in the vegetation at the corresponding point. In other words, the determination unit 14 determines that the difference in the feature amount of the sections included in the images A and B corresponds to the change that the plant obtained as a result of the vegetation determination exhibits during the shooting time of the images A and B. Judge that there is no change in vegetation.

逆に、推定部12で得られた特徴量と、植生が未判別の画像に含まれる区画の特徴量との間に類似性がないことが示された区画について、判断部14は、画像A,Bの撮影時期の間に当該区画の植生が変化したと判断する。つまり、判断部14は、画像A,Bに含まれる区画の特徴量の差異が、植生の判別結果として得られた植物が画像A,Bの撮影時期の間に呈する変化とは異なる場合に、植生の変化があると判断する。   On the other hand, for the section indicated that there is no similarity between the feature amount obtained by the estimation unit 12 and the feature amount of the section included in the image whose vegetation is not yet determined, , B, it is determined that the vegetation of the section has changed during the photographing period. In other words, the determination unit 14 determines that the difference in the feature amount of the sections included in the images A and B is different from the change that the plant obtained as a result of the vegetation determination exhibits during the shooting time of the images A and B. Judge that there is a change in vegetation.

このようにして、判断部14は、一方の画像において植生が未判別となった区画についても、当該区画の特徴量の差が他方の画像で判別された植物の状態変化を反映しているか否かに基づいて、対応する地点の植生に変化があるか否かを判断することができる。   In this way, the determination unit 14 also determines whether the difference in the feature amount of the section reflects the change in the state of the plant determined in the other image for the section where vegetation has not been determined in one image. Whether or not there is a change in the vegetation at the corresponding point can be determined.

なお、画像A,Bの撮影時期の間に当該区画の植生は変化していないと判断した場合に、判断部14は、画像A,Bにそれぞれ含まれる当該区画に対応する地点の植生は、同一であると判断することができる。つまり、一方の画像について判別部11によって得られた植物の種類の判別結果を、未判別となっていた画像の当該区画の判別結果として表示装置1に渡してもよい。   When it is determined that the vegetation of the section has not changed during the shooting times of the images A and B, the determination unit 14 determines that the vegetation at the point corresponding to the section included in each of the images A and B is It can be determined that they are the same. That is, the discrimination result of the plant type obtained by the discrimination unit 11 for one image may be passed to the display device 1 as the discrimination result of the section of the image that has not been discriminated.

また、判断部14は、画像A,Bにそれぞれ含まれる区画についてそれぞれ判別された植物の種類を示す情報を判別部11から受け取り、受け取った情報を照合することで、画像A,Bの撮影時期の間に当該区画に対応する地点の植生が変化したかを判断してもよい。   In addition, the determination unit 14 receives information indicating the types of plants determined for the sections included in the images A and B from the determination unit 11 and collates the received information, so that the shooting times of the images A and B are obtained. It may be determined whether the vegetation at the point corresponding to the section has changed during the period.

このように、本件開示の植生判定装置10によれば、判別部11により、画像A,Bのうち少なくとも一方について植生を判別できた区画について、画像A,Bの撮影時期の間に植生の変化があったか否かを判定することができる。これにより、例えば、二枚の画像の一方に撮影された植物が、冬季における落葉広葉樹林のように必ずしも典型的な状態を呈していない場合にも、対応する地域の植生に変化があるか否かを判定することが可能となる。つまり、本件開示の植生判定装置10によれば、処理対象の二枚の画像の一方が、撮影範囲に含まれる植物が典型的な状態を呈していない時期に撮影されている場合にも、二枚の画像の撮影時期の間に植生の変化があったか否かを判定することができる。   Thus, according to the vegetation determination apparatus 10 of the present disclosure, the change in vegetation between the image A and B shooting times for the sections in which the determination unit 11 has determined the vegetation for at least one of the images A and B. It can be determined whether or not there has been. Thus, for example, even if a plant photographed in one of the two images does not necessarily exhibit a typical state like a deciduous broad-leaved forest in winter, whether or not there is a change in vegetation in the corresponding region It becomes possible to determine. That is, according to the vegetation determination apparatus 10 of the present disclosure, even when one of the two images to be processed is photographed at a time when a plant included in the photographing range does not exhibit a typical state, It can be determined whether or not there has been a change in vegetation during the time when the images of the images were taken.

すなわち、本件開示の植生判定装置10によれば、二枚の画像それぞれが撮影された時期にかかわらず、画像の撮影範囲における植生の変化の有無を判定することができる。また、複数の画像から様々な組み合わせで選択した二枚の画像を本件開示の植生判定装置10に入力し、入力された二枚の画像それぞれに対応する撮影時期の間に画像の撮影範囲における植生の変化の有無を判定することも可能である。   That is, according to the vegetation determination device 10 of the present disclosure, it is possible to determine whether or not there is a change in vegetation in the image capturing range regardless of the time when each of the two images is captured. In addition, two images selected in various combinations from a plurality of images are input to the vegetation determination device 10 of the present disclosure, and vegetation in the image capturing range is captured during the imaging time corresponding to each of the two input images. It is also possible to determine the presence or absence of changes.

なお、図1に示した植生判定装置10による植生の変化の有無を判定する処理は、例えば、図3および図4に示すフローチャートによって表すことができる。   In addition, the process which determines the presence or absence of the change of the vegetation by the vegetation determination apparatus 10 shown in FIG. 1 can be represented by the flowchart shown in FIG. 3 and FIG.

図3および図4は、植生変化の有無を判定する処理のフローチャートの例を示している。図3に示したフローチャートと図4に示したフローチャートとは、符号1,2,3を付した結合子で接続されている。また、図1に示した植生判定装置10は、画像A,Bにそれぞれ含まれる区画ごとに、図3に示したステップ311〜ステップ317の処理および図4に示したステップS11〜S15の処理を実行する。   3 and 4 show examples of flowcharts of processing for determining the presence or absence of vegetation change. The flowchart shown in FIG. 3 and the flowchart shown in FIG. 4 are connected by connectors having reference numerals 1, 2, and 3. Moreover, the vegetation determination apparatus 10 shown in FIG. 1 performs the processing of steps 311 to 317 shown in FIG. 3 and the processing of steps S11 to S15 shown in FIG. 4 for each section included in the images A and B, respectively. Run.

まず、植生判定装置10は、画像A,Bにそれぞれ含まれる処理対象の区画に対応する地点の植生を判別する(ステップ311)。   First, the vegetation determination apparatus 10 determines vegetation at a point corresponding to a processing target section included in each of the images A and B (step 311).

次いで、植生判定装置10は、ステップ311の処理で、画像A,Bのどちらか一方で植生の判別が成功し、他方で判別が失敗したか否かを判定する(ステップ312)。   Next, the vegetation determination apparatus 10 determines whether or not the vegetation determination has succeeded in one of the images A and B and the determination has failed in the other in the process of step 311 (step 312).

例えば、画像Aに含まれる区画について植生の判別が成功し、画像Bに含まれる区画についての植生の判別が失敗した場合に、植生判定装置10は、ステップ312の肯定判定ルート(YES)に従ってステップ313の処理に進む。一方、画像A,Bにそれぞれ含まれる区画の両方について植生の判別が成功した場合および両方とも失敗した場合に、植生判定装置10は、後述するように、ステップ312の否定判定ルート(NO)の処理を実行する。なお、以下の説明では、処理対象の区画について、ステップ311の処理で対応する地点の植生が判別できた画像を判別済画像と称し、判別できなかった画像を未判別画像と称する。   For example, when the vegetation determination succeeds for the section included in the image A and the vegetation determination fails for the section included in the image B, the vegetation determination apparatus 10 performs the step according to the affirmative determination route (YES) of step 312. The process proceeds to 313. On the other hand, when the vegetation determination is successful for both of the sections included in the images A and B, and when both are unsuccessful, the vegetation determination apparatus 10 uses a negative determination route (NO) in step 312 as described later. Execute the process. In the following description, an image in which vegetation at a corresponding point can be determined in the processing of step 311 is referred to as a determined image, and an image that cannot be determined is referred to as an unidentified image.

ステップ313において、植生判定装置10は、植物状態データベースDBから得られる植物情報に基づいて、成功した判別処理で得られた植物が、未判別画像の撮影時期に呈する状態を示す特徴量を推定する。植生判定装置10は、成功した判別処理で示される植物に対応して、植物状態データベースDBに蓄積された情報から、未判別画像の撮影時期に対応するマルチスペクトルデータを、推定される特徴量として取得してもよい。例えば、処理対象の区画において、画像Aが判別済画像であり、画像Bが未判別画像である場合に、植生判定装置10は、画像Aについて得られた植物に対応する情報のうち、画像Bの撮影時期に対応するマルチスペクトルデータを推定される特徴量として取得する。逆に、処理対象の区画において、画像Bが判別済画像であり、画像Aが未判別画像である場合に、植生判定装置10は、画像Bについて得られた植物に対応する情報のうち、画像Aの撮影時期に対応するマルチスペクトルデータを推定される特徴量として取得する。   In step 313, the vegetation determination apparatus 10 estimates a feature amount indicating a state that the plant obtained by the successful determination process exhibits at the photographing time of the unidentified image, based on the plant information obtained from the plant state database DB. . The vegetation determination apparatus 10 uses the multispectral data corresponding to the shooting time of the undiscriminated image as the estimated feature amount from the information accumulated in the plant state database DB corresponding to the plant indicated by the successful discrimination processing. You may get it. For example, in the section to be processed, when the image A is a determined image and the image B is an unidentified image, the vegetation determination device 10 uses the image B of the information corresponding to the plant obtained for the image A. Multispectral data corresponding to the shooting time is acquired as an estimated feature amount. On the contrary, in the section to be processed, when the image B is a determined image and the image A is an unidentified image, the vegetation determination device 10 selects the image among the information corresponding to the plant obtained for the image B. Multispectral data corresponding to the shooting time of A is acquired as an estimated feature amount.

次に、植生判定装置10は、ステップ313の処理で推定された特徴量と、未判別画像に含まれる処理対象の区画の特徴量との類似性を評価する(ステップ314)。ステップ314の処理において、植生判定装置10は、例えば、上述した二つの特徴量の類似性を示す指標として、二つの特徴量を示すマルチスペクトルデータ間の距離を算出してもよい。   Next, the vegetation determination apparatus 10 evaluates the similarity between the feature amount estimated in the processing of step 313 and the feature amount of the processing target section included in the unidentified image (step 314). In the process of step 314, the vegetation determination apparatus 10 may calculate the distance between the multispectral data indicating the two feature amounts, for example, as an index indicating the similarity between the two feature amounts described above.

ステップ314の処理で得られた類似度と所定の閾値との比較に基づいて、植生判定装置10は、上述した二つの特徴量が類似するか否かを判定する(ステップ315)。植生判定装置10は、例えば、マルチスペクトルデータ間の距離が所定の閾値以下であるか否かに基づいて、植生が未特定である画像Bの当該区画の特徴量が、画像Aについて判別された植物について推定された特徴量に類似しているか否かを評価することができる。   Based on the comparison between the similarity obtained in the process of step 314 and a predetermined threshold, the vegetation determination apparatus 10 determines whether the above-described two feature amounts are similar (step 315). The vegetation determination device 10 determines, for the image A, the feature amount of the section of the image B where vegetation is unspecified based on, for example, whether the distance between the multispectral data is equal to or less than a predetermined threshold. It is possible to evaluate whether or not the feature amount estimated for the plant is similar.

なお、ステップ315の処理の過程で用いる閾値の値は、種類の異なる植物のマルチスペクトルデータ間の距離よりは小さく、各植物が各時期において呈する状態を示すマルチスペクトルデータの揺らぎに相当する値よりは大きい値に設定することが望ましい。植生判定装置10が、このような閾値を用いてステップ315の処理を実行することにより、画像を撮影した際の気象条件や個々の植物の個体差などによるスペクトル特性のばらつきの範囲を、類似すると判断する際の許容範囲に含めることができる。   Note that the threshold value used in the process of step 315 is smaller than the distance between the multispectral data of different types of plants, and more than the value corresponding to the fluctuation of the multispectral data indicating the state that each plant exhibits in each period. Is preferably set to a large value. When the vegetation determination apparatus 10 performs the processing of step 315 using such a threshold value, it is assumed that the range of variation in spectral characteristics due to weather conditions at the time of capturing an image or individual plant individual differences is similar. It can be included in the allowable range when judging.

上述した二つの特徴量が類似すると判定した場合に(ステップ315の肯定判定)、植生判定装置10は、当該区画に対応する地点において、画像A,Bの撮影時期間に植生の変化はない旨の判断結果を出力する(ステップ316)。   When it is determined that the above-described two feature quantities are similar (affirmative determination in step 315), the vegetation determination apparatus 10 indicates that there is no change in vegetation between the shooting times of the images A and B at the point corresponding to the section. Is output (step 316).

一方、上述した二つの特徴量が類似しないと判定した場合に(ステップ315の否定判定)、植生判定装置10は、当該区画に対応する地点において、画像A,Bの撮影時期間に植生の変化があった旨の判断結果を出力する(ステップ317)。   On the other hand, when it is determined that the above-described two feature quantities are not similar (negative determination in step 315), the vegetation determination apparatus 10 changes the vegetation between the shooting times of the images A and B at the point corresponding to the section. A determination result indicating that there is a problem is output (step 317).

上述したステップ311の処理は、各区画の画像の特徴量に基づいて、当該区画に撮影された植物の種類を判別する処理の一例である。   The process in step 311 described above is an example of a process for determining the type of plant photographed in each section based on the feature amount of the image in each section.

また、上述したステップ312の処理は、画像A,Bの一方に含まれる区画について植生が判別でき、他方に含まれる区画について判別できない場合と、他の場合とを峻別する処理の一例である。   Further, the processing in step 312 described above is an example of processing for distinguishing between cases where vegetation can be determined for a section included in one of the images A and B and a section included in the other cannot be determined, and other cases.

また、ステップ313の処理は、一方の画像に基づいて判別された植物が、他方の画像の撮影時期に呈する状態を示す画像の特徴量を推定する処理の一例である。   Further, the process in step 313 is an example of a process for estimating the feature amount of an image indicating a state in which a plant discriminated based on one image exhibits at the shooting time of the other image.

同様に、ステップ314の処理は、推定された特徴量と、他方の画像における処理対象の区画の特徴量との類似性を評価する処理の一例である。   Similarly, the process in step 314 is an example of a process for evaluating the similarity between the estimated feature quantity and the feature quantity of the section to be processed in the other image.

また、ステップ315〜ステップ317の処理は、上述したようにして峻別された場合について、類似性の評価結果に基づいて、当該区画に対応する地点の植生に変化があったか否かを判断する処理の一例である。   Moreover, the process of step 315-step 317 is a process of judging whether there has been a change in the vegetation at the point corresponding to the section based on the similarity evaluation result for the case of distinction as described above. It is an example.

つまり、植生判定装置10が、以上に述べたステップ311〜ステップ317の処理を実行することは、本件開示の植生判定プログラム及び植生判定方法の実施形態の一例である。本件開示の植生判定プログラム及び植生判定方法によれば、画像の一方で植物が判別できない場合にも、各画像に含まれる処理対象の区画の特徴量の違いが、撮影時期の違いによる植物の状態変化を反映している場合に、植生の変化がないと判定することができる。これにより、本件開示の植生判定プログラム及び植生判定方法によれば、二枚の画像それぞれが撮影された時期にかかわらず、画像の撮影範囲における植生の変化の有無を判定することができる。   That is, the vegetation determination apparatus 10 executing the processes of Step 311 to Step 317 described above is an example of an embodiment of the vegetation determination program and the vegetation determination method of the present disclosure. According to the vegetation determination program and the vegetation determination method of the present disclosure, even if a plant cannot be identified on one of the images, the difference in the feature amount of the processing target section included in each image is caused by the difference in the shooting time. When the change is reflected, it can be determined that there is no change in vegetation. Thus, according to the vegetation determination program and the vegetation determination method of the present disclosure, it is possible to determine whether or not there is a change in vegetation in the image capturing range regardless of the time when each of the two images is captured.

また、上述したステップ312の否定判定の場合に、植生判定装置10が、図4に示したステップS11〜ステップS15の処理を実行し、画像A,B内の処理対象の区画に対応する地点の植生の判別が両方成功した場合や失敗した場合につき判断してもよい。   Moreover, in the case of the negative determination of step 312 mentioned above, the vegetation determination apparatus 10 performs the process of step S11-step S15 shown in FIG. 4, and the point of the point corresponding to the process target division in the images A and B is shown. You may judge when both vegetation discrimination succeeds or fails.

まず、植生判定装置10は、画像A,Bに含まれる処理対象の区画の両方について植生の判別が成功したか否かを判定する(ステップS11)。   First, the vegetation determination apparatus 10 determines whether vegetation has been successfully determined for both of the processing target sections included in the images A and B (step S11).

両方について植生の判別が成功した場合に(ステップS11の肯定判定)、植生判定装置10は、画像A,Bにそれぞれ含まれる処理対象の区画についての判別結果として得られた植物の種類を照合する(ステップS12)。そして、ステップ312の処理による照合結果に基づいて、画像A,Bにそれぞれ含まれる処理対象の区画についての判別結果が一致するか否かを判定する(ステップS13)。   When the vegetation determination is successful for both (affirmative determination in step S11), the vegetation determination apparatus 10 collates the types of plants obtained as the determination results for the processing target sections included in the images A and B, respectively. (Step S12). Then, based on the collation result obtained in step 312, it is determined whether or not the discrimination results for the processing target sections included in the images A and B match (step S 13).

画像A,Bにそれぞれ含まれる処理対象の区画について得られた植物の種類が一致した場合に(ステップS13の肯定判定)、植生判定装置10は、結合子2を介して図3のステップ316に進み、植生に変化はない旨の判断結果を出力する。   When the types of plants obtained for the sections to be processed included in the images A and B match (affirmative determination in step S13), the vegetation determination device 10 goes to step 316 in FIG. Proceed and output the judgment result that there is no change in vegetation.

例えば、5月と11月とにそれぞれ撮影された画像A,Bの処理対象の区画について、当該区画に対応する地点の植生をカエデとする判別結果を得た場合に(ステップS13の肯定判定)、植生判定装置10は、処理対象の区画に植生の変化はないと判断する。   For example, when a determination result is obtained for the processing target sections of the images A and B taken in May and November, respectively, where the vegetation at the point corresponding to the section is a maple (affirmative determination in step S13). The vegetation determination apparatus 10 determines that there is no change in vegetation in the section to be processed.

ここで、5月のカエデは新緑の状態であるのに対して、11月のカエデは紅葉の状態である可能性が高い。このため、5月と11月とにおけるカエデの状態をそれぞれ反映した画像に含まれる処理対象の区画の特徴量であるマルチスペクトルデータ自体には明らかな差異が現れる。しかしながら、各画像における当該区画がカエデの典型的な状態を表していれば、上述したステップ311の処理の過程で、同一の植物を示す情報を判別結果として得ることができる。このように、植生判定装置10によれば、二枚の画像に含まれる処理対象の区画について同一の植物を示す特定結果が得られた場合に、画像自体の差異にかかわらず、当該区画に対応する地点の植生に変化はないと判断することができる。   Here, the maple in May is in a fresh green state, whereas the maple in November is likely to be in a state of autumn leaves. For this reason, a clear difference appears in the multispectral data itself, which is the feature quantity of the section to be processed, included in the images reflecting the maple states in May and November. However, if the section in each image represents a typical maple state, information indicating the same plant can be obtained as a discrimination result in the process of step 311 described above. As described above, according to the vegetation determination apparatus 10, when a specific result indicating the same plant is obtained for the processing target sections included in the two images, the corresponding section is supported regardless of the difference in the images themselves. It can be judged that there is no change in the vegetation at the point where it is done.

一方、画像A,Bにそれぞれ含まれる処理対象の区画について得られた植物の種類が一致しない場合に(ステップS12の否定判定)、植生判定装置10は、結合子3を介して図3のステップ317に進み、植生に変化がある旨の判断結果を出力する。   On the other hand, when the types of plants obtained for the sections to be processed included in the images A and B do not match (negative determination in step S12), the vegetation determination device 10 performs the step of FIG. Proceeding to 317, a determination result indicating that there is a change in vegetation is output.

ところで、上述したステップS11の否定判定の場合に、植生判定装置10は、両方について植生の判別が失敗したと判断する。この場合に、植生判定装置10は、判定できない旨の判断結果を出力してもよいし、次に述べるステップS14,S15の処理を実行することで、処理対象の区画に対応する地点の植生に変化があるか否かを判定してもよい。   By the way, in the case of the negative determination of step S11 mentioned above, the vegetation determination apparatus 10 determines that the determination of vegetation has failed for both. In this case, the vegetation determination apparatus 10 may output a determination result indicating that the determination cannot be made, or by executing the processes of steps S14 and S15 described below, the vegetation determination apparatus 10 can perform vegetation at a point corresponding to the processing target section. It may be determined whether there is a change.

植生判定装置10は、画像A,Bにそれぞれ含まれる処理対象の区画の特徴量の差dを求め(ステップS14)、得られた差dが所定の閾値Th未満である否かを判定する(ステップS15)。なお、閾値Thは、植生に変化がない場合に各区画の特徴量の差として得られる値のばらつきよりも大きい値を設定することが望ましい。また、例えば、画像A,Bそれぞれの撮影時期における各植物に対応する特徴量の差の平均値と同程度の値を設定してもよい。また、画像A,Bの間で植生の変化があるとされた区画について得られる特徴量の差の最小値あるいは変化がないとされた区画について得られる特徴量の最大値と同程度の値を、閾値Thの値を設定してもよい。   The vegetation determination apparatus 10 calculates a difference d between the feature amounts of the processing target sections included in the images A and B (step S14), and determines whether the obtained difference d is less than a predetermined threshold Th ( Step S15). In addition, as for threshold value Th, it is desirable to set a value larger than the dispersion | variation in the value obtained as a difference of the feature-value of each division, when there is no change in vegetation. Further, for example, a value similar to the average value of the difference between the feature amounts corresponding to each plant at the time of photographing each of the images A and B may be set. In addition, the minimum value of the difference in the feature amount obtained for the section where the vegetation is changed between the images A and B, or the same value as the maximum value of the feature amount obtained for the section where there is no change. The threshold value Th may be set.

ステップS14の処理で得られた差dが上述した閾値Thよりも小さい場合に(ステップS15の肯定判定)、植生判定装置10は、結合子2を介して図3のステップ316に進み、植生に変化はない旨の判断結果を出力する。   When the difference d obtained in the process of step S14 is smaller than the threshold value Th described above (positive determination in step S15), the vegetation determination apparatus 10 proceeds to step 316 in FIG. The judgment result that there is no change is output.

一方、ステップS14の処理で得られた差dが上述した閾値Th以上である場合に(ステップS15の否定判定)、植生判定装置10は、結合子3を介して図3のステップ317に進み、植生に変化がある旨の判断結果を出力する。   On the other hand, when the difference d obtained in the process of step S14 is greater than or equal to the above-described threshold Th (negative determination of step S15), the vegetation determination apparatus 10 proceeds to step 317 of FIG. The judgment result that there is a change in vegetation is output.

ここで、図1に示した画像A,Bの少なくとも一方の撮影時期が樹木の葉が茂っている時期であれば、少なくとも当該画像については、上述したステップ311の処理で、処理対象の区画に対応する地点の植生を示す情報が得られる。したがって、上述したステップS14およびステップS15の処理は、画像A,Bの両方が冬季に撮影された場合のように、非常に限られたケースに限って実行される。   Here, if the shooting time of at least one of the images A and B shown in FIG. 1 is a time when leaves of trees are growing, at least the image corresponds to the section to be processed in the processing of step 311 described above. Information indicating the vegetation at the point to be obtained is obtained. Therefore, the processes of step S14 and step S15 described above are executed only in very limited cases, such as when both images A and B are taken in winter.

以上に述べた植生判定装置10および植生判定プログラム並びに植生判定方法は、異なる時期に所定の地域を撮影した二枚の画像から土地の用途が変化した箇所を示す差分を検出する技術に適用することもできる。   The vegetation determination apparatus 10, the vegetation determination program, and the vegetation determination method described above are applied to a technique for detecting a difference indicating a location where the land use has changed from two images obtained by photographing a predetermined area at different times. You can also.

以下、本件開示の植生判定プログラムおよび植生判定方法を適用した差分検出を実施する差分検出装置とともに、本件開示の植生判定プログラムおよび植生判定方法の別実施形態について説明する。   Hereinafter, another embodiment of the vegetation determination program and the vegetation determination method of the present disclosure will be described together with a difference detection device that performs difference detection to which the vegetation determination program and the vegetation determination method of the present disclosure are applied.

本件開示の植生判定方法を適用した差分検出を実施する差分検出装置16は、例えば、図5に示すように、パーソナルコンピュータなどのクライアント装置とネットワーク内に配置されたサーバ装置とを含むコンピュータシステムを用いて実現することができる。   For example, as shown in FIG. 5, the difference detection device 16 that performs the difference detection to which the vegetation determination method of the present disclosure is applied includes a computer system including a client device such as a personal computer and a server device arranged in a network. Can be realized.

図5は、差分検出装置16のハードウェア構成の一例を示している。図5の例は、差分検出装置16を、サーバ装置20とクライアント装置30とをネットワークNWによって接続したコンピュータシステムによって実現した例を示している。   FIG. 5 shows an example of the hardware configuration of the difference detection device 16. The example of FIG. 5 shows an example in which the difference detection device 16 is realized by a computer system in which the server device 20 and the client device 30 are connected by a network NW.

図5に示したサーバ装置20は、プロセッサ21と、メモリ22と、ハードディスク装置23と、ネットワークインタフェース(I/F:InterFace)24とを含んでいる。プロ
セッサ21と、メモリ22と、ハードディスク装置23と、ネットワークインタフェース24とは、バスを介して互いに接続されており、また、サーバ装置20は、ネットワークインタフェース24を介してネットワークNWに接続されている。上述したプロセッサ21と、メモリ22と、ハードディスク装置23と、ネットワークインタフェース24とは、差分検出装置16に含まれている。
The server device 20 illustrated in FIG. 5 includes a processor 21, a memory 22, a hard disk device 23, and a network interface (I / F: InterFace) 24. The processor 21, the memory 22, the hard disk device 23, and the network interface 24 are connected to each other via a bus, and the server device 20 is connected to the network NW via the network interface 24. The above-described processor 21, memory 22, hard disk device 23, and network interface 24 are included in the difference detection device 16.

また、図5に示したクライアント装置30は、プロセッサ31と、メモリ32と、ハードディスク装置33と、ネットワークインタフェース(I/F)34と、表示部35と、汎用インタフェース36とを含んでいる。プロセッサ31と、メモリ32と、ハードディスク装置33と、ネットワークインタフェース34と、表示部35と、汎用インタフェース36とは、バスを介して互いに接続されている。上述したプロセッサ31と、メモリ32と、ハードディスク装置33と、ネットワークインタフェース(I/F)34と、汎用インタフェース36とは、差分検出装置16に含まれる。   The client device 30 shown in FIG. 5 includes a processor 31, a memory 32, a hard disk device 33, a network interface (I / F) 34, a display unit 35, and a general-purpose interface 36. The processor 31, the memory 32, the hard disk device 33, the network interface 34, the display unit 35, and the general-purpose interface 36 are connected to each other via a bus. The above-described processor 31, memory 32, hard disk device 33, network interface (I / F) 34, and general-purpose interface 36 are included in the difference detection device 16.

また、クライアント装置30は、ネットワークインタフェース34を介してネットワークNWに接続されており、更に、汎用インタフェース36を介して、撮像装置2に接続されている。クライアント装置30は、汎用インタフェース36を介して、撮像装置2によって撮影された画像を受け取り、受け取った画像を、更に、ネットワークNWを介して、サーバ装置20内の差分検出装置10に、図1に示した画像A,Bとして渡すことができる。つまり、撮像装置2で得られる画像は、図1に示した画像A,Bの一例である。   The client device 30 is connected to the network NW via the network interface 34, and is further connected to the imaging device 2 via the general-purpose interface 36. The client device 30 receives an image captured by the imaging device 2 via the general-purpose interface 36, and further receives the received image to the difference detection device 10 in the server device 20 via the network NW in FIG. The images A and B shown can be passed. That is, the image obtained by the imaging device 2 is an example of the images A and B shown in FIG.

なお、撮像装置2は、可視光領域に含まれる赤色帯,緑色帯及び青色帯と、赤外光領域の近赤外帯とにそれぞれ含まれる複数の波長帯の光について感度を持つマルチスペクトルセンサを含んでいることが望ましい。以下では、撮像装置2で得られる画像に含まれる各画素の画素値が、上述した複数の波長帯に対応するスペクトル値を含むマルチスペクトルデータである場合について説明する。   Note that the imaging device 2 is a multispectral sensor having sensitivity to light in a plurality of wavelength bands respectively included in a red band, a green band, and a blue band included in the visible light region, and a near infrared band in the infrared light region. It is desirable to contain. Below, the case where the pixel value of each pixel included in the image obtained by the imaging device 2 is multispectral data including spectral values corresponding to the plurality of wavelength bands described above will be described.

クライアント装置30のメモリ32は、オペレーティングシステムとともに、サーバ装置20との間で上述した植生判定処理を含む差分検出処理にかかわる情報をやり取りする処理をプロセッサ31が実行するためのアプリケーションプログラムを格納している。上述したアプリケーションプログラムは、汎用インタフェース36を介して撮像装置2から画像を取得し、取得した画像をネットワークNW経由でサーバ装置20に渡す処理をプロセッサ321に実行させるためのアプリケーションプログラムを含んでいる。また、上述したアプリケーションプログラムは、サーバ装置20が後述する処理を実行することで得た検出結果をネットワークNW経由で受け取る処理をプロセッサ321に実行させるためのアプリケーションプログラムを含んでいる。また、上述したアプリケーションプログラムは、サーバ装置20から取得した処理結果を、表示部35を介して利用者に提示する処理をプロセッサ321に実行させるためのアプリケーションプログラムを含んでいる。   The memory 32 of the client device 30 stores an application program for the processor 31 to execute processing for exchanging information related to the difference detection processing including the vegetation determination processing described above with the server device 20 together with the operating system. Yes. The application program described above includes an application program for causing the processor 321 to execute processing for acquiring an image from the imaging device 2 via the general-purpose interface 36 and passing the acquired image to the server device 20 via the network NW. The application program described above includes an application program for causing the processor 321 to execute a process of receiving a detection result obtained by the server apparatus 20 executing a process described later via the network NW. The application program described above includes an application program for causing the processor 321 to execute a process of presenting the processing result acquired from the server device 20 to the user via the display unit 35.

図5に示したメモリ22は、サーバ装置20のオペレーティングシステムとともに、プロセッサ21が上述した植生判定処理を含む差分検出処理を実行するためのアプリケーションプログラムを格納している。なお、植生判定処理を含む差分検出処理を実行するためのアプリケーションプログラムは、例えば、光ディスクなどのリムーバブルディスクに記録して頒布することができる。そして、このリムーバブルディスクをサーバ装置20の図示しない光学ドライブ装置に装着して読み込み処理を行うことにより、上述した差分検出処理を実行するためのアプリケーションプログラムを、メモリ22およびハードディスク装置23に格納させてもよい。また、ネットワークインタフェース24を介して、他のサーバ装置などから上述した差分検出処理を実行するためのアプリケーションプログラムを受け取り、メモリ22およびハードディスク装置23に読み込ませることもできる。また、上述した差分検出処理を実行するためのアプリケーションプログラムは、図2に示したような植物状態データベースDBをハードディスク装置23内などに構築するための情報とともに提供することが望ましい。   The memory 22 illustrated in FIG. 5 stores an application program for the processor 21 to execute the difference detection process including the vegetation determination process described above together with the operating system of the server device 20. The application program for executing the difference detection process including the vegetation determination process can be recorded and distributed on a removable disk such as an optical disk, for example. Then, by loading this removable disk into an optical drive device (not shown) of the server device 20 and performing a read process, an application program for executing the above-described difference detection process is stored in the memory 22 and the hard disk device 23. Also good. It is also possible to receive an application program for executing the above-described difference detection process from another server device or the like via the network interface 24 and read it into the memory 22 and the hard disk device 23. Moreover, it is desirable to provide the application program for executing the above-described difference detection process together with information for constructing the plant state database DB as shown in FIG.

プロセッサ21は、メモリ22に格納されたアプリケーションプログラムを実行することにより、図1に示した判別部11,推定部12,評価部13および判断部14の機能を果たしてもよい。また、プロセッサ21は、判別部11及び推定部12の機能を実現する際に、ハードディスク装置23内などに構築された植物状態データベースDBに蓄積された情報を参照してもよい。   The processor 21 may perform the functions of the determination unit 11, the estimation unit 12, the evaluation unit 13, and the determination unit 14 illustrated in FIG. 1 by executing an application program stored in the memory 22. Further, when realizing the functions of the determination unit 11 and the estimation unit 12, the processor 21 may refer to information stored in the plant state database DB constructed in the hard disk device 23 or the like.

このように、本件開示の植生判定装置10は、例えば、上述したサーバ装置20に含まれるプロセッサ21と、メモリ22と、ハードディスク装置23との協働によって実現することができる。   As described above, the vegetation determination device 10 of the present disclosure can be realized by, for example, cooperation of the processor 21, the memory 22, and the hard disk device 23 included in the server device 20 described above.

図6は、図5に示したサーバ装置20が実行する差分検出処理のフローチャートの一例を示している。図6に示したステップ301〜ステップ309の各処理は、差分検出処理のためのアプリケーションプログラムに含まれる処理の一例である。また、これらのステップ301〜ステップ309の各処理は、サーバ装置20のプロセッサ21によって実行される。   FIG. 6 shows an example of a flowchart of difference detection processing executed by the server device 20 shown in FIG. Each process of step 301 to step 309 illustrated in FIG. 6 is an example of a process included in the application program for the difference detection process. In addition, each processing of step 301 to step 309 is executed by the processor 21 of the server device 20.

まず、プロセッサ21は、図5に示したクライアント装置30から取得した二枚の画像について、位置合わせを行い、更に、二枚の画像で共通する撮影範囲に対応する画像中の領域を、差分検出対象の領域として特定する(ステップ302)。   First, the processor 21 aligns the two images acquired from the client device 30 illustrated in FIG. 5, and further detects a difference in an area in the image corresponding to the shooting range common to the two images. The target area is specified (step 302).

ここで、クライアント装置30は、予め、撮像装置2から取得した複数の画像をハードディスク装置33に蓄積しておき、蓄積した画像の中から、二枚の画像をネットワークNW経由でサーバ装置20に送出してもよい。なお、クライアント装置30が二枚の画像を送出する際に、各画像の撮影日時を示す情報とともに、これらの画像の位置合わせに有用な情報を送出することが望ましい。例えば、二枚の画像がいずれも航空機などから撮影された画像である場合に、位置合わせに有用な情報は、撮影地点の緯度及び経度を示す情報や、撮影倍率、撮影時の航空機等の高度などを示す情報を含んでいることが望ましい。なお、二枚の画像の位置合わせは、画像認識技術を用いて実施されてもよく、その場合に、撮影倍率や航空機等の高度を示す情報の付加は省略してもよい。   Here, the client device 30 stores a plurality of images acquired from the imaging device 2 in the hard disk device 33 in advance, and sends two images from the stored images to the server device 20 via the network NW. May be. When the client device 30 sends two images, it is desirable to send information useful for alignment of these images together with information indicating the shooting date and time of each image. For example, when the two images are both images taken from an aircraft or the like, useful information for alignment includes information indicating the latitude and longitude of the shooting location, the shooting magnification, and the altitude of the aircraft at the time of shooting. It is desirable to include information indicating such as. Note that the alignment of the two images may be performed using an image recognition technique, and in that case, the addition of information indicating the shooting magnification or the altitude of the aircraft may be omitted.

また、プロセッサ21は、例えば、二枚の画像とともに受け取った情報に基づいて、二枚の画像で共通する撮影範囲に対応する領域を各画像からそれぞれ抽出し、抽出した領域を差分検出対象の領域としてもよい。プロセッサ21は、ステップ301の処理の過程で、二枚の画像それぞれについて特定した差分検出対象の領域に含まれる各画素が、撮影範囲の地表面において同等の大きさの範囲に対応するように、画像の大きさを調整することが望ましい。   Further, for example, based on the information received together with the two images, the processor 21 extracts, from each image, an area corresponding to a shooting range common to the two images, and the extracted area is a difference detection target area. It is good. In the process of step 301, the processor 21 is configured so that each pixel included in the difference detection target area specified for each of the two images corresponds to a range of the same size on the ground surface of the shooting range. It is desirable to adjust the size of the image.

次いで、プロセッサ21は、各画像において特定した差分検出対象の領域内に含まれる区画の一つを以降の処理の対象として選択する(ステップ302)。プロセッサ21は、例えば、各画像の差分検出対象の領域内に含まれる画素の一つを、順次に、処理対象の区画として選択してもよいし、複数画素を含むブロックを一つの区画として選択してもよい。   Next, the processor 21 selects one of the sections included in the difference detection target area specified in each image as a target for subsequent processing (step 302). For example, the processor 21 may sequentially select one of the pixels included in the difference detection target area of each image as a processing target section, or select a block including a plurality of pixels as one section. May be.

ステップ302の処理で選択した区画について、プロセッサ21は、まず、当該区画の特徴量に基づいて、当該区画に対応する地表面の範囲が植物に覆われているか否かを判断する(ステップ303)。各区画が1画素である場合に、プロセッサ21は、1画素に対応するマルチスペクトルセンサによる観測値であるマルチスペクトルデータとして、処理対象の区画の特徴量を取得する。一方、各区画が複数の画素を含むブロックである場合に、プロセッサ21は、区画に含まれる複数の画素に対応するマルチスペクトルデータの平均値を求めることで、各区画の特徴量を得てもよい。プロセッサ21は、例えば、二枚の画像から選択された処理対象の画素の画素値として得られるマルチスペクトルデータに基づいて、それぞれ植生指標(NDVI:Normalized Difference Vegetation Index)を算出する。プロセッサ21は、例えば、マルチスペクトルデータに含まれる近赤外帯のスペクトル値Birおよび赤色帯のスペクトル値Brとから、式(2)を用いて、植生指標NDVIを算出してもよい。
NDVI=(Bir−Br)/(Bir+Br) ・・・(2)
また、プロセッサ21は、得られた植生指標が所定値以上である場合に、当該区画に対応する地表面の範囲が植物に覆われている植生領域であると判断する。なお、植生指標と比較される所定値は、例えば、植生領域を撮影した画像について得られる植生指標の最小値程度の値を設定することができる。
For the section selected in the process of step 302, the processor 21 first determines whether or not the ground surface range corresponding to the section is covered with a plant based on the feature amount of the section (step 303). . When each section has one pixel, the processor 21 acquires the feature amount of the section to be processed as multispectral data that is an observation value by the multispectral sensor corresponding to one pixel. On the other hand, when each section is a block including a plurality of pixels, the processor 21 obtains the feature value of each section by obtaining the average value of the multispectral data corresponding to the plurality of pixels included in the section. Good. The processor 21 calculates a vegetation index (NDVI: Normalized Difference Vegetation Index) based on, for example, multispectral data obtained as pixel values of pixels to be processed selected from two images. For example, the processor 21 may calculate the vegetation index NDVI using the equation (2) from the near-infrared spectrum value Bir and the red-band spectrum value Br included in the multispectral data.
NDVI = (Bir−Br) / (Bir + Br) (2)
Further, when the obtained vegetation index is equal to or greater than a predetermined value, the processor 21 determines that the ground surface range corresponding to the section is a vegetation region covered with plants. In addition, the predetermined value compared with a vegetation index can set the value about the minimum value of the vegetation index obtained about the image which image | photographed the vegetation area | region, for example.

次いで、プロセッサ21は、ステップ303の処理により、二枚の画像から選択された処理対象の区画の両方について、植生領域でないとの判断結果が得られたか否かにより、当該区画に対応する地点が植生領域である可能性の有無を判定する(ステップ304)。   Next, the processor 21 determines whether or not the point corresponding to the section is based on whether or not the processing result in step 303 indicates that the processing target section selected from the two images is not a vegetation region. It is determined whether or not there is a possibility of being a vegetation region (step 304).

ステップ304の肯定判定(YES)の場合に、プロセッサ21は、図3および図4に示したようにして、植生の変化を判定する処理を実行し(ステップ305)、得られた判定結果に基づいて、差分検出結果を生成する(ステップ306)。プロセッサ21は、ステップ305の処理の過程において、図3に示したステップ311の処理およびステップ313の処理を実行する際に、図5に示したハードディスク装置23に設けられた植物状態データベースDBに蓄積された情報を参照することができる。なお、ステップ311およびステップ313の処理のより好ましい例については、後述する。   In the case of an affirmative determination (YES) in step 304, the processor 21 executes a process for determining a change in vegetation as shown in FIGS. 3 and 4 (step 305), and based on the obtained determination result. Thus, a difference detection result is generated (step 306). When the processor 21 executes the process of step 311 and the process of step 313 shown in FIG. 3 in the course of the process of step 305, it accumulates in the plant state database DB provided in the hard disk device 23 shown in FIG. Information can be referred to. A more preferable example of the processing in step 311 and step 313 will be described later.

プロセッサ21が、ステップ305の処理を実行することにより、二枚の画像の撮影時期の間に植生の変化はない旨の判定結果を得た場合に、処理対象の区画は、二枚の画像間の差分に含まれないとする検出結果を生成する。一方、ステップ305の処理で、二枚の画像の撮影時期の間に植生の変化があると判定された場合に、プロセッサ21は、処理対象の区画は二枚の画像間の差分に含まれるとする検出結果を生成する。   When the processor 21 obtains a determination result indicating that there is no change in vegetation between the shooting times of the two images by executing the processing of step 305, the processing target section is set between the two images. A detection result that is not included in the difference is generated. On the other hand, if it is determined in step 305 that there is a change in vegetation between the shooting times of the two images, the processor 21 determines that the section to be processed is included in the difference between the two images. A detection result is generated.

このように、プロセッサ21が、ステップ305およびステップ306の処理を実行することにより、対応する地点の植生に変化がある場合に、当該区画を二枚の画像間の差分として検出し、変化がない場合に差分から除外することができる。   As described above, when the processor 21 executes the processing of step 305 and step 306, when there is a change in the vegetation at the corresponding point, the section is detected as a difference between the two images, and there is no change. In some cases can be excluded from the difference.

これにより、撮影時期の異なる二枚の画像間の変化が、処理対象の区画に写っている植物の状態の変化である場合に、当該区画を画像間の差分として誤って検出しないようにすることができる。つまり、各区画について、プロセッサ21が、本件開示の植生判定プログラムに従う処理を実行することで、植物の状態変化に伴って画像が変化した区画を、誤って画像間の差分として検出してしまうといった誤検出を低減することができる。   As a result, when the change between two images with different shooting times is a change in the state of the plant in the section to be processed, the section is not erroneously detected as a difference between the images. Can do. That is, for each section, the processor 21 executes a process according to the vegetation determination program of the present disclosure, so that a section whose image has changed due to a change in the state of the plant is erroneously detected as a difference between images. False detection can be reduced.

また、撮影時期の異なる二枚の画像間の変化が、処理対象の区画に写っている植物の状態の変化にそぐわない場合に、当該区画に対応する地点の植生に変化があったと判断し、画像間の差分として検出できる。これにより、例えば、次に説明する例のように、二枚の画像を比較することで差分を検出する従来手法では見落とされる可能性のある土地の利用状況の変化を漏れなく検出することができる。   If the change between two images with different shooting times does not match the change in the state of the plant shown in the processing target section, it is determined that the vegetation at the point corresponding to the section has changed, and the image It can be detected as a difference between them. As a result, for example, as in the example described below, it is possible to detect changes in land use status that may be overlooked in the conventional method of detecting a difference by comparing two images. .

例えば、5月に撮影された画像の処理対象の区画について植生が稲である旨の判別結果が得られ、11月に撮影された画像の処理対象の区画についての植生が判別できない場合を考える。この場合に、11月に撮影された画像の処理対象の区画に、枯れていない雑草などが写っていれば、上述した二枚の画像に含まれる処理対象の区画の特徴量であるマルチスペクトルデータ自体には明らかな差異がない可能性もある。しかしながら、管理された圃場においては、5月の稲は田植え後の生育が旺盛な状態であるのに対して、11月の稲は刈り取り後の状態である。このように、管理された圃場における稲の各時期における状態を示す情報が、図5に示した植物状態データベースDBに反映されていれば、プロセッサ21は、二枚の画像の処理対象の区画の特徴量に変化が少ないことを植生の変化として検出することができる。これにより、画像自体の類似にかかわらず、当該区画に対応する地点の植生に変化があったことから、当該区画を二枚の画像間の差分として検出することができる。   For example, let us consider a case where a determination result that the vegetation is rice is obtained for the processing target section of the image photographed in May and the vegetation for the processing target section of the image photographed in November cannot be determined. In this case, if weeds that have not withered appear in the processing target section of the image taken in November, the multispectral data that is the feature amount of the processing target section included in the two images described above. There may be no obvious difference in itself. However, in the managed field, the rice in May is in a state of vigorous growth after planting, whereas the rice in November is in a state after cutting. As described above, if the information indicating the state of each rice in the managed field is reflected in the plant state database DB illustrated in FIG. 5, the processor 21 determines the processing target sections of the two images. It can be detected as a change in vegetation that there is little change in the feature amount. Thereby, since the vegetation at the point corresponding to the section has changed regardless of the similarity of the image itself, the section can be detected as a difference between the two images.

一方、ステップ304の否定判定(NO)の場合に、プロセッサ21は、二枚の画像それぞれから選択された処理対象の区画の特徴量を比較し、比較結果に基づいて、当該区画を二枚の画像間の差分として検出するか否かを決定する(ステップ307)。プロセッサ21は、例えば、二枚の画像にそれぞれ含まれる処理対象の区画の特徴量の差として、これらの区画に対応するマルチスペクトルデータ間の距離を算出し、得られた距離が所定の閾値以上である場合に、当該区画を二枚の画像間の差分として検出する。一方、得られた距離が所定の閾値未満である場合に、プロセッサ21は、当該区画は二枚の画像間の差分に含まれないと判断する。   On the other hand, in the case of a negative determination (NO) in step 304, the processor 21 compares the feature quantities of the processing target sections selected from the two images, and based on the comparison result, the processor 21 determines that the section is two sheets. It is determined whether or not to detect as a difference between images (step 307). For example, the processor 21 calculates the distance between the multispectral data corresponding to these sections as the difference between the feature quantities of the sections to be processed included in the two images, and the obtained distance is equal to or greater than a predetermined threshold value. If it is, the section is detected as a difference between the two images. On the other hand, when the obtained distance is less than the predetermined threshold, the processor 21 determines that the section is not included in the difference between the two images.

ここで、ステップ307の処理の過程でマルチスペクトルデータ間の距離と比較される閾値は、例えば、土地の利用状況が変化していない場合に得られるマルチスペクトルデータの揺らぎよりも大きい値に設定することが望ましい。   Here, the threshold value to be compared with the distance between the multispectral data in the process of step 307 is set to a value larger than the fluctuation of the multispectral data obtained when the land use status is not changed, for example. It is desirable.

上述したステップ304の肯定判定ルートの処理と否定判定ルートの処理は、ステップ308において合流する。ステップ308において、プロセッサ21は、ステップ306あるいはステップ307の処理で得られた差分検出結果を、処理対象の区画に対応して利用者に提示するための画像情報を生成する。プロセッサ21は、生成した画像を図5に示したネットワークインタフェース24を介してクライアント装置30に返してもよい。例えば、プロセッサ21は、ステップ306あるいはステップ307で得られた検出結果により、当該区画が二枚の画像間の差分であることが示された場合に、当該区画の表示色などを変更することで強調表示する画像情報を生成してもよい。このようにして生成された画像情報を、図5に示したネットワークインタフェース24を介してクライアント装置30に返し、クライアント装置30の表示部35による表示処理に供することで、利用者に提示することができる。   The affirmative determination route processing and the negative determination route processing of step 304 described above merge at step 308. In step 308, the processor 21 generates image information for presenting the difference detection result obtained in step 306 or step 307 to the user corresponding to the processing target section. The processor 21 may return the generated image to the client device 30 via the network interface 24 illustrated in FIG. For example, when the detection result obtained in step 306 or step 307 indicates that the section is a difference between two images, the processor 21 changes the display color of the section. Image information to be highlighted may be generated. The image information generated in this way can be returned to the client device 30 via the network interface 24 shown in FIG. 5 and presented to the user by being subjected to display processing by the display unit 35 of the client device 30. it can.

次いで、プロセッサ21は、上述したステップ302で特定した差分検出対象の領域内に含まれる全ての区画についてステップ302〜ステップ308の処理が終了したか否かを判定する(ステップ309)。   Next, the processor 21 determines whether or not the processing of step 302 to step 308 has been completed for all the sections included in the difference detection target area specified in step 302 (step 309).

未処理の区画がある場合に(ステップ309の否定判定)、プロセッサ21は、ステップ302の処理に戻り、未処理の区画の一つを処理対象の区画として選択し、ステップ303以降の処理を実行する。   When there is an unprocessed partition (negative determination at step 309), the processor 21 returns to the process of step 302, selects one of the unprocessed partitions as a processing target partition, and executes the processes after step 303. To do.

このようにしてステップ302〜ステップ309の処理を繰り返して実行していき、上述した領域内に含まれる全ての区画についての処理が完了したときに、プロセッサ21は、ステップ309の肯定判定として上述した領域全体についての差分検出処理を終了する。   In this way, the processing of Step 302 to Step 309 is repeatedly executed, and when the processing for all the sections included in the above-described region is completed, the processor 21 described above as an affirmative determination of Step 309. The difference detection process for the entire area is terminated.

上述したようにして、二枚の画像について特定した差分検出対象の領域内の各区画単位で、土地の利用状況の変化を示す画像間の差分を検出し、差分として検出した各区画をクライアント装置30により利用者に提示することができる。   As described above, a difference between images indicating a change in land use status is detected for each section in a difference detection target area specified for two images, and each section detected as a difference is detected as a client device. 30 can be presented to the user.

このようにして提示された画像間の差分には、植物の状態が変化したことによって画像の特徴が変化したために誤検出された区画は含まれていない。したがって、落葉広葉樹林や圃場のように季節による変化が大きい植生の地域を異なる時期に撮影した画像から、土地の利用状況の変化を検出する用途において非常に有用である。   The difference between the images presented in this way does not include sections that are erroneously detected because the characteristics of the images have changed due to changes in the state of the plant. Therefore, it is very useful for detecting changes in land use status from images taken at different times of vegetation regions with large seasonal changes such as deciduous broad-leaved forests and farm fields.

ここで、落葉後の落葉広葉樹林や収穫後の圃場を上空から撮影した画像に含まれる各区画においては、植物の葉緑体の特性を反映したマルチスペクトルデータが得られないため、植生指標によっては植生領域と判断されない点にも留意されたい。このため、植生指標に基づいて植生の有無を判定する手法では、一方の画像が冬季に撮影されている場合に、落葉広葉樹林が写っている部分が、植生領域ではなくなった箇所として検出されてしまう。これに対して、図6に示した差分検出処理は、少なくとも一方の画像において植生が認められた区画について、本件開示の植生判定プログラム及び植生判定方法を適用することで、当該区画の画像が落葉したカエデに対応する可能性を考慮した差分検出を実現できる。   Here, in each section included in the image taken from the sky of the deciduous broad-leaved forest after defoliation and the field after harvest, multispectral data reflecting the characteristics of the chloroplasts of the plant cannot be obtained. Note that is not considered a vegetation area. For this reason, in the method of determining the presence or absence of vegetation based on the vegetation index, when one image is taken in winter, the part showing the deciduous broad-leaved forest is detected as a part that is no longer a vegetation area. End up. In contrast, the difference detection process illustrated in FIG. 6 applies the vegetation determination program and the vegetation determination method of the present disclosure to a section where vegetation is recognized in at least one of the images, so that the image of the section is deciduous. It is possible to realize difference detection in consideration of the possibility of corresponding to the maple.

ところで、図3に示したステップ311の処理は、プロセッサ21が、例えば、図7に示すステップ321〜ステップ328の処理を実行することによって実現することもできる。   By the way, the process of step 311 shown in FIG. 3 can also be implement | achieved when the processor 21 performs the process of step 321-step 328 shown in FIG.

図7は、植生を判別する処理のフローチャートの一例を示している。図7に示したステップ321〜ステップ328の各処理は、図3においてステップ311で示した植生を判別する処理の一例である。また、これらのステップ321〜ステップ328の各処理は、プロセッサ21によって実行される。   FIG. 7 shows an example of a flowchart of processing for discriminating vegetation. Each process of step 321 to step 328 illustrated in FIG. 7 is an example of a process of determining the vegetation illustrated in step 311 in FIG. In addition, each processing of step 321 to step 328 is executed by the processor 21.

まず、プロセッサ21は、二枚の画像の一方を処理対象として選択し(ステップ321)、選択した画像のタグ情報などから抽出した撮影時期を、当該画像の撮影範囲の地域の気候に基づいて補正する(ステップ322)。   First, the processor 21 selects one of the two images as a processing target (step 321), and corrects the shooting time extracted from the tag information of the selected image based on the local climate of the shooting range of the image. (Step 322).

プロセッサ21は、ステップ322において、例えば、図2に示した植物状態データベースDBで想定されている気候に比べて、撮影された地域の気候が寒冷であるか温暖であるかなどに応じて撮影時期の補正を行う。例えば、撮影時期が冬から春に向かう期間に含まれており、撮影された地域の気候が寒冷である場合に、プロセッサ21は、画像から取得した撮影時期を冬に向けて戻す方向にずらすように補正してもよい。また、例えば、撮影時期が冬から春に向かう期間に含まれており、撮影された地域の気候が温暖である場合に、プロセッサ21は、逆に、画像から取得した撮影時期を春に向けて進める方向にずらすように補正してもよい。   In step 322, for example, the processor 21 takes a picture according to whether the climate of the photographed area is cold or warm compared to the climate assumed in the plant state database DB shown in FIG. Perform the correction. For example, when the shooting time is included in a period from winter to spring, and the climate of the imaged region is cold, the processor 21 shifts the shooting time acquired from the image in the direction of returning to winter. You may correct to. Further, for example, when the shooting time is included in a period from winter to spring, and the climate of the imaged region is warm, the processor 21 conversely turns the shooting time acquired from the image toward spring. You may correct | amend so that it may shift to the advancing direction.

同様にして、撮影時期の前後の平均気温と平年の平均気温との違いなどの気象条件のばらつきを考慮して、植物状態データベースDBからの検索に用いる撮影時期についての補正を行ってもよい。   Similarly, the shooting time used for the search from the plant state database DB may be corrected in consideration of variations in weather conditions such as the difference between the average temperature before and after the shooting time and the average temperature of the normal year.

次に、プロセッサ21は、植物状態データベースDBに各植物に対応して登録された情報の中から、補正された撮影時期に対応して格納されたマルチスペクトルデータを、各植物の特徴量として検索する(ステップ323)。   Next, the processor 21 searches the multi-spectral data stored corresponding to the corrected photographing time as the feature amount of each plant from the information registered corresponding to each plant in the plant state database DB. (Step 323).

次いで、プロセッサ21は、処理対象の画像に含まれる処理対象の区画の特徴量と、上述したステップ321で得られた各植物の特徴量との類似度を算出する(ステップ324)。処理対象の区画が単一の画素である場合に、プロセッサ21は、当該画素に対応するマルチスペクトルデータを、処理対象の区画の特徴量として、ステップ324の処理を行ってもよい。また、処理対象の区画に複数の画素が含まれる場合に、プロセッサ21は、各画素に対応するマルチスペクトルデータの平均値を算出し、得られた値を当該区画に対応する特徴量を示すマルチスペクトルデータとしてもよい。また、プロセッサ21は、ステップ323の検索処理の結果として得られた各植物に対応するマルチスペクトルデータと、処理対象の区画に対応するマルチスペクトルデータと間について算出した距離を、値が小さいほど高い類似度を示す類似度として用いてもよい。   Next, the processor 21 calculates the similarity between the feature amount of the processing target section included in the processing target image and the feature amount of each plant obtained in step 321 described above (step 324). When the section to be processed is a single pixel, the processor 21 may perform the process of step 324 using the multispectral data corresponding to the pixel as the feature amount of the section to be processed. Further, when the processing target section includes a plurality of pixels, the processor 21 calculates an average value of the multispectral data corresponding to each pixel, and the obtained value indicates a feature amount corresponding to the section. Spectral data may be used. Further, the processor 21 increases the distance calculated between the multispectral data corresponding to each plant obtained as a result of the search processing in step 323 and the multispectral data corresponding to the processing target section as the value is smaller. You may use as a similarity which shows similarity.

次いで、プロセッサ21は、ステップ324で得られた類似度に基づいて、処理対象の画像の撮影時期において、処理対象の区画の特徴量に類似する特徴量で示される状態を呈する植物があるか否かを判定する(ステップ325)。プロセッサ21は、例えば、各植物に対応して算出したマルチスペクトルデータ間の距離の最小値と所定の閾値との比較結果に基づいて、処理対象の区画の色に類似した色を呈する植物があるか否かを判定してもよい。なお、ステップ325の処理の過程で用いる閾値の値は、例えば、同一の植物について得られるマルチスペクトルデータの揺らぎに対応する値と同程度の値を設定することが望ましい。   Next, based on the similarity obtained in step 324, the processor 21 determines whether or not there is a plant that exhibits a state indicated by a feature amount similar to the feature amount of the processing target section at the time of capturing the processing target image. (Step 325). For example, the processor 21 has a plant exhibiting a color similar to the color of the section to be processed based on the comparison result between the minimum value of the distance between the multispectral data calculated corresponding to each plant and a predetermined threshold value. It may be determined whether or not. Note that the threshold value used in the process of step 325 is desirably set to a value approximately equal to the value corresponding to the fluctuation of the multispectral data obtained for the same plant, for example.

処理対象の区画の色に類似した色を呈する植物を見つけることができた場合に(ステップ325の肯定判定)、プロセッサ21は、類似するとした植物の種類を示す情報を当該区画に対応する地点の植生の判別結果として出力する(ステップ326)。   When a plant having a color similar to the color of the section to be processed can be found (affirmative determination in step 325), the processor 21 displays information indicating the type of the plant that is similar to the point corresponding to the section. The result is output as a vegetation discrimination result (step 326).

一方、処理対象の区画の色に類似した色を呈する植物を見つけることができなかった場合に(ステップ325の否定判定)、プロセッサ21は、当該区画に対応する地点の植生の判別結果として、植生を判別できない旨を出力する(ステップ327)。   On the other hand, when a plant having a color similar to the color of the section to be processed cannot be found (negative determination in step 325), the processor 21 determines the vegetation as a vegetation determination result at the point corresponding to the section. That it cannot be determined (step 327).

上述したようにしてステップ321〜ステップ327の処理の実行が終了した後に、プロセッサ21は、両方の画像についての処理が終了したか否かを判定する(ステップ328)。   As described above, after the execution of the processing in steps 321 to 327 is completed, the processor 21 determines whether or not the processing for both images has been completed (step 328).

未処理の画像がある場合に(ステップ328の否定判定)、プロセッサ21は、ステップ321に戻り、未処理の画像を処理対象として、ステップ322以降の処理を開始する。このようにして、両方の画像についての処理が完了したときに、プロセッサ21は、植生を判別する処理を終了し、図3に示したステップ312の処理に進む。   When there is an unprocessed image (negative determination at step 328), the processor 21 returns to step 321 and starts the processing from step 322 onward with the unprocessed image as a processing target. In this way, when the processing for both images is completed, the processor 21 ends the processing for determining vegetation, and proceeds to the processing of step 312 shown in FIG.

このように、ステップ322で補正された撮影時期を用いた検索処理を行うことにより、プロセッサ21は、各植物の特徴量として、撮影された地域の特徴に即した特徴量を取得することができる。また、補正された撮影時期を用いた検索処理で得られた特徴量から算出した類似度に基づいて、処理対象の区画に対応する植生を判別できるか否かを判定することで、補正しない場合に比べて精度の高い判別結果を得ることができる。   As described above, by performing the search process using the photographing time corrected in step 322, the processor 21 can acquire a feature amount corresponding to the feature of the photographed region as the feature amount of each plant. . In addition, when correction is not performed by determining whether or not vegetation corresponding to the processing target section can be determined based on the similarity calculated from the feature amount obtained by the search processing using the corrected shooting time As a result, it is possible to obtain a highly accurate discrimination result.

なお、上述したステップ321〜ステップ328の処理により各区画に対応する植生を判別する場合は、植物状態データベースDBに、各植物に対応して、1年に含まれる各週あるいは各日に対応するマルチスペクトルデータを蓄積しておくことが望ましい。このような植物状態データベースDBが用意されていれば、上述したステップ322の処理において、プロセッサ21は、処理対象の画像に撮影された地域の気候に応じて、きめ細かく撮影時期を補正することが可能である。また、植物の中には、例えば、開花時期のサクラのように、マルチスペクトルデータとして捉えられる状態が一日単位で変化する種類もある。このような植物について、例えば、一日単位でマルチスペクトルデータを植物状態データベースDBに蓄積しておけば、月単位で平均化したマルチスペクトルデータを蓄積した場合に比べて、各区画について正しい検索結果を得る可能性が高くなる。したがって、月単位の特徴量が蓄積された植物状態データベースDBを用いた場合よりも、各植物に対応して、週単位あるいは日単位の特徴量が蓄積された植物状態データベースDBを用いた場合の方が、より高い精度で植生の判別を行うことができる。   In addition, when determining the vegetation corresponding to each division by the process of the above-mentioned step 321-step 328, it corresponds to each plant in the plant state database DB, and the multi corresponding to each week or each day included in one year. It is desirable to store spectral data. If such a plant state database DB is prepared, in the processing of step 322 described above, the processor 21 can finely correct the shooting time according to the climate of the region shot in the processing target image. It is. In addition, there are some types of plants in which the state captured as multispectral data changes on a daily basis, such as a cherry blossom at the flowering time. For such plants, for example, if multispectral data is accumulated in the plant state database DB on a daily basis, the correct search results for each section are compared with the case where multispectral data averaged on a monthly basis is accumulated. Is more likely to get. Therefore, in the case of using the plant state database DB in which the weekly or daily feature amount is accumulated corresponding to each plant, compared to the case of using the plant state database DB in which the monthly feature amount is accumulated. The vegetation can be discriminated with higher accuracy.

次に、図3に示したステップ313およびステップ314について、各植物に対応して、週単位あるいは日単位の特徴量が蓄積された植物状態データベースDBが用意されている場合に好適な処理の例を説明する。   Next, with respect to step 313 and step 314 shown in FIG. 3, an example of processing suitable for a case where a plant state database DB in which weekly or daily feature values are accumulated is prepared corresponding to each plant. Will be explained.

図3に示したステップ313の処理は、プロセッサ21が、例えば、図8に示すステップ331〜ステップ333の処理を実行することによって実現することもできる。   The processing in step 313 shown in FIG. 3 can also be realized by the processor 21 executing, for example, the processing in steps 331 to 333 shown in FIG.

図8は、特徴量を推定する処理のフローチャートの一例を示している。図8に示したステップ331〜ステップ333の各処理は、図3にステップ313として示した特徴量を推定する処理の一例に相当する。また、これらのステップ331〜ステップ333の各処理は、プロセッサ21によって実行される。   FIG. 8 shows an example of a flowchart of processing for estimating a feature amount. Each process of step 331 to step 333 shown in FIG. 8 corresponds to an example of a process for estimating the feature amount shown as step 313 in FIG. In addition, each processing of step 331 to step 333 is executed by the processor 21.

まず、プロセッサ21は、上述したステップ311の処理の過程で処理対象の区画に対応する地点について、一方の画像について得られた植生の判別結果を取得するとともに、他方の画像の撮影時期を示す情報を取得する(ステップ331)。例えば、二枚の画像A,Bのうち、画像Aについて処理対象の区画に対応する地点の植生として植物aが得られ、画像Bについて植生の判別ができなかった場合に、プロセッサ21は、植物aを示す情報と画像Bの撮影時期を示す情報とを取得する。   First, the processor 21 obtains the vegetation discrimination result obtained for one image at the point corresponding to the section to be processed in the process of step 311 described above, and information indicating the photographing time of the other image Is acquired (step 331). For example, when the plant a is obtained as the vegetation of the point corresponding to the processing target section for the image A out of the two images A and B, and the vegetation cannot be determined for the image B, the processor 21 Information indicating a and information indicating the shooting time of the image B are acquired.

次いで、プロセッサ21は、図7のステップ322と同様にして、撮影範囲の地域の気候に基づいて、ステップ331で得られた撮影時期を補正する(ステップ332)。なお、プロセッサ21は、図7に示した植生を判別する処理の過程で、二枚の画像についてそれぞれ上述したステップ322の処理で得られた補正後の撮影時期を各画像に対応してメモリ22などに保持しておいてもよい。この場合に、プロセッサ21は、ステップ331,332の処理を省略し、代わりに、メモリ22などから、植生を判別する処理の過程で保持した補正後の撮影時期を読み出してもよい。   Next, the processor 21 corrects the photographing time obtained in step 331 based on the local climate in the photographing range in the same manner as in step 322 in FIG. 7 (step 332). In the process of determining the vegetation shown in FIG. 7, the processor 21 stores the corrected shooting time obtained in the above-described step 322 for the two images corresponding to each image in the memory 22. It is possible to keep it. In this case, the processor 21 may omit the processing of steps 331 and 332 and instead read out the corrected photographing time held in the course of the processing for determining vegetation from the memory 22 or the like.

次に、プロセッサ21は、ステップ331で得られた植物の種類に対応して植物状態データベースDBに蓄積されている情報から、補正後の撮影時期を含む所定長の期間内の各時期に対応する特徴量を、推定された特徴量の候補として検索する(ステップ333)。例えば、プロセッサ21は、上述した植物aに対応して植物状態データベースDBに蓄積されている情報から、補正後の撮影時期を含む所定長の期間内の各時期に対応するマルチスペクトルデータを、推定された特徴量の候補として取得する。なお、補正後の撮影時期を含む期間の長さは、個々の植物の生育状態にばらつきがあることなどを考慮して、予め例えば2週間程度に設定しておいてもよい。また、プロセッサ21は、ステップ333の処理の際に、植生が未判別となっている画像Bの撮影時期における気象条件と平年の気象条件との差などによって植物の状態変化にばらつきが発生することを考慮し、上述した期間の長さを調整してもよい。   Next, the processor 21 corresponds to each period within a predetermined length period including the corrected photographing period from the information accumulated in the plant state database DB corresponding to the type of plant obtained in step 331. The feature amount is searched as an estimated feature amount candidate (step 333). For example, the processor 21 estimates multispectral data corresponding to each period within a predetermined length period including the corrected photographing period from information accumulated in the plant state database DB corresponding to the plant a described above. Obtained as a candidate for the feature amount. Note that the length of the period including the corrected photographing time may be set in advance to, for example, about two weeks in consideration of variations in the growth state of individual plants. In addition, the processor 21 may cause variation in the state of the plant due to the difference between the weather condition at the photographing time of the image B in which vegetation is undetermined and the normal weather condition during the processing of step 333. In consideration of the above, the length of the period described above may be adjusted.

上述したステップ331〜ステップ333の処理によれば、撮影された地域の気候による偏差とともに、植生が未判別の画像の撮影時期における植物の生育状態のばらつきを反映した複数のマルチスペクトルデータを推定される特徴量の候補として得ることができる。つまり、上述したステップ331〜ステップ333の処理によれば、例えば、植生が未判別の画像Bの撮影時期における植物aの状態の推定結果に、撮影された地域の気候による偏差や気象条件の変動などによるばらつきを考慮した幅を持たせることができる。   According to the processing of Step 331 to Step 333 described above, a plurality of multispectral data reflecting the variation in the growth state of the plant at the time of photographing the image where the vegetation has not been determined is estimated together with the deviation due to the climate of the photographed region. Can be obtained as a candidate for a feature amount. That is, according to the processing of Step 331 to Step 333 described above, for example, the estimation result of the state of the plant a at the shooting time of the image B in which the vegetation is undetermined, the deviation due to the climate of the shot region and the change of the weather condition It is possible to provide a width that takes into account variations due to the above.

上述したようにして、推定される特徴量の候補として複数のマルチスペクトルデータを取得した場合に、プロセッサ21は、図3に示したステップ314の処理として、図9に示すステップ341〜ステップ346の処理を実行することが望ましい。   As described above, when a plurality of pieces of multispectral data are acquired as estimated feature amount candidates, the processor 21 performs steps 341 to 346 shown in FIG. 9 as the processing of step 314 shown in FIG. It is desirable to execute processing.

図9は、類似性を評価する処理のフローチャートの例を示している。図9に示したステップ341〜ステップ346の各処理は、図3に示したステップ314の処理の一例に相当する。また、これらのステップ341〜ステップ346の各処理は、プロセッサ21によって実行される。   FIG. 9 shows an example of a flowchart of processing for evaluating similarity. Each process of step 341 to step 346 shown in FIG. 9 corresponds to an example of the process of step 314 shown in FIG. In addition, each processing of step 341 to step 346 is executed by the processor 21.

プロセッサ21は、まず、植生が未判別の画像から、処理対象の区画に対応するマルチスペクトルデータを、当該区画の特徴量として取得する(ステップ341)。例えば、二枚の画像A,Bのうち、画像Bについて植生の判別ができなかった場合に、プロセッサ21は、画像Bに含まれる処理対象の区画の特徴量示す情報として、当該区画のマルチスペクトルデータを取得する。   First, the processor 21 acquires multispectral data corresponding to a processing target section from the image whose vegetation has not been determined as a feature amount of the section (step 341). For example, when the vegetation cannot be determined for the image B out of the two images A and B, the processor 21 uses the multispectrum of the section as information indicating the feature amount of the section to be processed included in the image B. Get the data.

次いで、プロセッサ21は、ステップ341で取得した特徴量と、図8に示した特徴量を推定する処理で得られた特徴量の候補の一つとの間の距離を算出する(ステップ342)。   Next, the processor 21 calculates a distance between the feature quantity acquired in step 341 and one of the feature quantity candidates obtained in the process of estimating the feature quantity shown in FIG. 8 (step 342).

次に、プロセッサ21は、ステップ342で算出した距離が所定の閾値以下であるか否かに基づいて、推定された特徴量の候補と、ステップ341で取得した特徴量とが類似しているか否かを判定する(ステップ343)。ここで、図8に示したステップ331〜ステップ333の各処理で得られる特徴量の候補には、植生が未判別となっている画像の撮影時期における植物の状態のばらつきが反映されている。したがって、プロセッサ21は、例えば、同一の植物について得られるマルチスペクトルデータの揺らぎに対応する値と同程度の値が設定された閾値を用いて、ステップ343の処理を実行してもよい。   Next, the processor 21 determines whether the estimated feature quantity candidate is similar to the feature quantity acquired in step 341 based on whether the distance calculated in step 342 is equal to or less than a predetermined threshold. Is determined (step 343). Here, the variation of the state of the plant in the imaging | photography time of the image in which the vegetation has not been discriminated is reflected in the feature quantity candidates obtained by the processes of Step 331 to Step 333 shown in FIG. Therefore, the processor 21 may execute the process of step 343 using, for example, a threshold value set to a value comparable to the value corresponding to the fluctuation of the multispectral data obtained for the same plant.

ステップ342で算出した距離が所定の閾値以下である場合に(ステップ343の肯定判定)、プロセッサ21は、推定された特徴量と、植生が未判別の画像に含まれる処理対象の区画の特徴量とが類似する旨の評価結果を出力する(ステップ344)。その後、プロセッサ21は、図3に示したステップ315の処理に進む。   When the distance calculated in step 342 is equal to or smaller than a predetermined threshold (affirmative determination in step 343), the processor 21 determines the estimated feature amount and the feature amount of the processing target section included in the image whose vegetation is not yet determined. An evaluation result indicating that and are similar is output (step 344). Thereafter, the processor 21 proceeds to the processing of step 315 shown in FIG.

一方、ステップ342で算出した距離が所定の閾値よりも大きい場合に(ステップ343の否定判定)、プロセッサ21は、図8に示した特徴量を推定する処理で得られた全ての特徴量の候補について処理が終了したか否かを判定する(ステップ345)。   On the other hand, when the distance calculated in step 342 is larger than the predetermined threshold (negative determination in step 343), the processor 21 selects all the feature amount candidates obtained by the process of estimating the feature amount shown in FIG. It is determined whether or not the processing has been completed (step 345).

推定された特徴量の候補の中に未処理の候補がある場合に(ステップ345の否定判定)、プロセッサ21は、ステップ342の処理に戻り、未処理の候補のひとつについて、ステップ342以降の処理を実行する。   When there is an unprocessed candidate among the estimated feature amount candidates (No determination in step 345), the processor 21 returns to the process of step 342, and the process after step 342 is performed for one of the unprocessed candidates. Execute.

上述したステップ342〜ステップ345の処理を繰り返して実行し、特徴量の候補の全てについて処理が終了した場合に(ステップ345の肯定判定)、特徴量の候補の中にステップ341で取得した特徴量に類似するものはないと判断する。この場合に、プロセッサ21は、推定された特徴量と植生が未判別の画像に含まれる処理対象の区画の特徴量とが類似しない旨の評価結果を出力し(ステップ346)、その後、図3に示したステップ315の処理に進む。   When the processes of Steps 342 to 345 described above are repeatedly executed and the process is completed for all of the feature quantity candidates (Yes determination in Step 345), the feature quantity acquired in Step 341 among the feature quantity candidates. Judge that there is nothing similar to. In this case, the processor 21 outputs an evaluation result indicating that the estimated feature quantity is not similar to the feature quantity of the processing target section included in the image whose vegetation has not been discriminated (step 346), and thereafter, FIG. The process proceeds to step 315 shown in FIG.

上述したステップ341〜ステップ346の処理をプロセッサ21が実行することにより、一方の画像において判別された植物が他方の画像の撮影時期において呈する状態と、他方の画像に撮影された植物の状態との類似性を高い精度で評価することができる。   When the processor 21 executes the processes of Steps 341 to 346 described above, the state in which the plant identified in one image is presented at the time of photographing the other image and the state of the plant photographed in the other image Similarity can be evaluated with high accuracy.

なお、各植物に対応して、週単位あるいは日単位の特徴量が蓄積された植物情報データベースDBは、膨大な情報量を含んでいる。このため、図5に示したように、植物状態データベースDBは、サーバ装置20などに配置することが望ましい。また、本件開示の植生判定プログラムおよび植生判定方法を適用する差分検出プログラム及び差分検出方法に基づくサービスは、クラウドサービスの一つとして実施する形態が望ましい。   In addition, the plant information database DB in which the feature amount in units of weeks or days is stored corresponding to each plant includes a huge amount of information. For this reason, as shown in FIG. 5, it is desirable to arrange the plant state database DB in the server device 20 or the like. In addition, it is desirable that the difference detection program and the service based on the difference detection method to which the vegetation determination program and the vegetation determination method of the present disclosure are applied be implemented as one of cloud services.

更に、本件開示の植生判定プログラムおよび植生判定方法によって各画像に含まれる各区画について得られた植生を示す情報を、当該区画に対応する地点に関する地図情報として蓄積することも可能である。また、このようにして蓄積した地図情報を、図5に示したサーバ装置20からクライアント装置30に渡し、クライアント装置30において、例えば、実地調査などで得られた調査結果と受け取った地図情報とを連携させることも可能である。また、クライアント装置30から、差分検出対象の画像を表す画像データとともに、上述した実地調査結果が反映された地図情報を受け取り、サーバ装置20に設けられた差分検出装置16において、以降の差分検出処理に受け取った地図情報を利用することもできる。   Furthermore, information indicating the vegetation obtained for each section included in each image by the vegetation determination program and the vegetation determination method of the present disclosure can be accumulated as map information regarding a point corresponding to the section. Further, the map information accumulated in this way is transferred from the server device 20 shown in FIG. 5 to the client device 30, and the client device 30, for example, obtains the survey result obtained in the field survey and the received map information. It is also possible to link them. Also, the map information reflecting the above-mentioned field survey result is received from the client device 30 together with the image data representing the difference detection target image, and the difference detection device 16 provided in the server device 20 performs subsequent difference detection processing. You can also use the received map information.

以下に、図10から図13を参照しつつ、地図情報を植生判定処理および差分検出処理に利用する方法について説明する。   Hereinafter, a method of using map information for vegetation determination processing and difference detection processing will be described with reference to FIGS. 10 to 13.

図10は、本件開示の植生判定方法を適用した差分検出装置16のハードウェア構成の別例を示している。なお、図10に示した構成要素のうち、図5に示した構成要素と同等のものについては、同一の符号を付して示し、その説明は省略する。   FIG. 10 shows another example of the hardware configuration of the difference detection device 16 to which the vegetation determination method of the present disclosure is applied. Note that, among the components shown in FIG. 10, the same components as those shown in FIG. 5 are denoted by the same reference numerals and description thereof is omitted.

図10に示したコンピュータ装置40は、プロセッサ41と、メモリ42と、ハードディスク装置43と、汎用インタフェース(I/F)44と、表示制御部45と、光学ドライブ46とを含んでいる。プロセッサ41と、メモリ42と、ハードディスク装置43と、汎用インタフェース24と、表示制御部45と、光学ドライブ装置46とは、バスを介して互いに接続されている。また、コンピュータ装置40は、汎用インタフェース24を介して撮像装置2と入力装置3とに接続されている。また、表示制御部45は、表示装置1に接続されている。上述したプロセッサ41とメモリ42とハードディスク装置43とは、植生判定装置10に含まれている。また、上述したプロセッサ41とメモリ42とハードディスク装置43と汎用インタフェース44とは、差分検出装置16に含まれている。このように、本件開示の植生判定装置10を含む差分検出装置16は、スタンドアローンのコンピュータ装置40によって実現することも可能である。   The computer device 40 shown in FIG. 10 includes a processor 41, a memory 42, a hard disk device 43, a general-purpose interface (I / F) 44, a display control unit 45, and an optical drive 46. The processor 41, the memory 42, the hard disk device 43, the general-purpose interface 24, the display control unit 45, and the optical drive device 46 are connected to one another via a bus. Further, the computer device 40 is connected to the imaging device 2 and the input device 3 via the general-purpose interface 24. The display control unit 45 is connected to the display device 1. The processor 41, the memory 42, and the hard disk device 43 described above are included in the vegetation determination device 10. The processor 41, the memory 42, the hard disk device 43, and the general-purpose interface 44 described above are included in the difference detection device 16. As described above, the difference detection device 16 including the vegetation determination device 10 of the present disclosure can also be realized by the stand-alone computer device 40.

入力装置3は、例えば、実地調査の対象となった地点ごとに、実地調査で特定された植生などを示す情報を、コンピュータ装置40に入力する機能を持っている。コンピュータ装置40のプロセッサ41は、入力装置3を介して入力された情報を、例えば、ハードディスク装置43に設けられた地図情報データベース232に、図11に示すように、実地調査対象の地点の座標情報などに対応して蓄積してもよい。   For example, the input device 3 has a function of inputting, to the computer device 40, information indicating vegetation and the like specified in the field survey for each point subjected to the field survey. The processor 41 of the computer device 40 stores the information input via the input device 3 in the map information database 232 provided in the hard disk device 43, for example, as shown in FIG. It may be accumulated corresponding to such as.

図11は、地図情報データベース232の例を示している。図11に示した地図情報データベース232は、各地点の座標を示す位置情報に対応して、植生として特定された植物の種類と、植生を特定した方法と、特定日時とを蓄積している。   FIG. 11 shows an example of the map information database 232. The map information database 232 illustrated in FIG. 11 stores the types of plants identified as vegetation, the method of identifying vegetation, and the specific date and time, corresponding to position information indicating the coordinates of each point.

図11に示した地図情報データベース232において、符号Cjは、座標(xj、yj)で示される地点の植物の種類を示し、また、符号Ckは、座標(xk、yk)で示される地点の植物の種類を示している。また、符号Datejは、座標(xj、yj)で示される地点についての植生を特定した日付を示し、同様に、符号Datekは、座標(xk、yk)で示される地点についての植生を特定した日付を示している。   In the map information database 232 shown in FIG. 11, the symbol Cj indicates the type of plant at the point indicated by coordinates (xj, yj), and the symbol Ck is the plant at the point indicated by coordinates (xk, yk). Shows the kind of. The code Datej indicates the date when the vegetation at the point indicated by the coordinates (xj, yj) is specified. Similarly, the code Datek indicates the date when the vegetation at the point indicated by the coordinates (xk, yk) is specified. Is shown.

なお、実地調査によって植生が特定された場合に、地図情報データベース232は、植生を特定した日時として、実地調査を実施した日時を蓄積することが望ましい。例えば、図11に示した地図情報データベース232において、座標(xj、yj)に対応する情報は、実地調査によって特定された情報の例であり、特定日時Datejは、実地調査が実施された日時を示している。一方、上述した差分検出処理の過程で、差分検出対象である二枚の画像の少なくとも一方に基づいて植生が特定された場合に、植生を特定した日時として、例えば、二枚の画像のうち最近に撮影された画像の撮影日時を蓄積することが望ましい。例えば、座標(xk、yk)に対応する情報は、上述した差分検出処理の対象となった画像に基づいて特定された情報の例であり、特定日時Datekは、差分検出対象の画像のうち最近に撮影された画像の撮影日時を示している。   In addition, when vegetation is specified by field survey, it is desirable that the map information database 232 stores the date and time when the field survey was performed as the date and time when vegetation was identified. For example, in the map information database 232 shown in FIG. 11, the information corresponding to the coordinates (xj, yj) is an example of information specified by the field survey, and the specific date and time Datej indicates the date and time when the field survey was performed. Show. On the other hand, when the vegetation is specified based on at least one of the two images that are the difference detection targets in the above-described difference detection process, the date and time when the vegetation is specified is, for example, the latest of the two images. It is desirable to store the shooting date and time of the image taken at the end. For example, the information corresponding to the coordinates (xk, yk) is an example of information specified based on the above-described image subjected to the difference detection process, and the specific date and time Datek is the most recent of the difference detection target images. Indicates the shooting date and time of the captured image.

図10に示したコンピュータ装置40のメモリ42は、コンピュータ装置40のオペレーティングシステムとともに、プロセッサ41が地図情報を利用した植生判定処理および差分検出処理を実行するためのアプリケーションプログラムを格納している。なお、上述したアプリケーションプログラムは、例えば、光ディスクなどのリムーバブルディスク47に記録して頒布することができる。そして、このリムーバブルディスク47を光学ドライブ装置46に装着して読み込み処理を行うことにより、上述したアプリケーションプログラムを、メモリ42およびハードディスク装置43に格納させてもよい。また、図示しないネットワークインタフェースを介して、上述したアプリケーションプログラムをメモリ42およびハードディスク装置43に読み込ませることもできる。また、上述したアプリケーションプログラムは、上述した植物状態データベースDBをハードディスク装置43内などに構築するための情報とともに提供することが望ましい。   The memory 42 of the computer device 40 illustrated in FIG. 10 stores an application program for the processor 41 to execute a vegetation determination process and a difference detection process using map information together with the operating system of the computer apparatus 40. The application program described above can be recorded and distributed on a removable disk 47 such as an optical disk, for example. Then, the above-described application program may be stored in the memory 42 and the hard disk device 43 by attaching the removable disk 47 to the optical drive device 46 and performing a reading process. Further, the above-described application program can be read into the memory 42 and the hard disk device 43 via a network interface (not shown). The application program described above is preferably provided together with information for constructing the plant state database DB described above in the hard disk device 43 or the like.

図12は、差分検出処理のフローチャートの別例を示している。なお、図12に示したステップのうち、図6に示したステップと同等のものについては、同一の符号を付して示し、その説明は省略する。図12に示したステップ301〜ステップ310及びステップ350の各処理は、地図情報を利用した植生判定処理および差分検出処理のためのアプリケーションプログラムに含まれる処理の一例である。また、これらのステップ301〜ステップ310及びステップ50の各処理は、図10に示したプロセッサ41によって実行される。   FIG. 12 shows another example of the flowchart of the difference detection process. Of the steps shown in FIG. 12, the same steps as those shown in FIG. 6 are designated by the same reference numerals, and the description thereof is omitted. Each process of step 301 to step 310 and step 350 shown in FIG. 12 is an example of a process included in an application program for vegetation determination processing and difference detection processing using map information. In addition, each of these processes of Step 301 to Step 310 and Step 50 is executed by the processor 41 shown in FIG.

プロセッサ41は、ステップ304の肯定判定ルートの処理において、ステップ305の植生の変化を判定する処理に先立って、処理対象の区画に対応する地点についての地図情報があるか否かを判定する(ステップ310)。プロセッサ41は、例えば、地図情報データベース232を参照し、処理対象の区画に対応する地点についての地図情報を検出したか否かに基づいて、ステップ310の判定処理を行ってもよい。ここで、画像に含まれる各区画に対応する地点の座標は、例えば、各画像に付加された撮影位置を示す情報などに基づいて、予め特定しておくことができる。したがって、プロセッサ41は、処理対象の区画に対応する地点の位置を示す座標に対応して登録された地図情報を、地図情報データベース232において検出すればよい。   In the processing of the affirmative determination route in step 304, the processor 41 determines whether or not there is map information about a point corresponding to the processing target section prior to the processing for determining the vegetation change in step 305 (step 305). 310). For example, the processor 41 may refer to the map information database 232 and perform the determination process in step 310 based on whether or not map information about a point corresponding to the processing target section is detected. Here, the coordinates of the point corresponding to each section included in the image can be specified in advance based on, for example, information indicating the shooting position added to each image. Therefore, the processor 41 may detect the map information registered in correspondence with the coordinates indicating the position of the point corresponding to the processing target section in the map information database 232.

処理対象の区画に対応する地点についての地図情報がない場合に(ステップ310の否定判定)、プロセッサ41は、ステップ305の処理に進み、処理対象の区画に対応する地点の植生に、二枚の画像の撮影時期間に変化があったか否かを判定する。   When there is no map information about the point corresponding to the processing target section (No determination in step 310), the processor 41 proceeds to the process of step 305, and the vegetation at the point corresponding to the processing target section is It is determined whether or not there is a change between image capturing times.

一方、処理対象の区画に対応する地点についての地図情報がある場合に(ステップ310の肯定判定)、プロセッサ41は、ステップ350の処理に進み、図13に示すようにして、地図情報を利用して植生の変化を判定する。   On the other hand, when there is map information about the point corresponding to the section to be processed (affirmative determination in step 310), the processor 41 proceeds to the process of step 350 and uses the map information as shown in FIG. To determine changes in vegetation.

図13は、地図情報を利用して植生の変化を判定する処理のフローチャートの例を示している。なお、図13に示したステップのうち、図3に示したステップと同等のものについては、同一の符号を付して示し、その説明は省略する。図13に示したステップ313〜ステップ317及びステップ351〜ステップ355の各処理は、図12にステップ350で示した地図情報を利用して植生の変化を判定する処理の一例である。また、これらのステップ301〜ステップ310及びステップ351〜ステップ355の各処理は、図10に示したプロセッサ41によって実行される。   FIG. 13 shows an example of a flowchart of processing for determining changes in vegetation using map information. Of the steps shown in FIG. 13, the same steps as those shown in FIG. 3 are denoted by the same reference numerals and description thereof is omitted. Each process of step 313 to step 317 and step 351 to step 355 shown in FIG. 13 is an example of a process for determining a change in vegetation using the map information shown in step 350 of FIG. In addition, each of these processes of Step 301 to Step 310 and Step 351 to Step 355 is executed by the processor 41 shown in FIG.

プロセッサ41は、まず、地図情報に含まれる特定日時を示す情報に基づいて、地図情報が、処理対象の画像の一方に基づく植生判定結果を含んでいるか否かを判定する(ステップ351)。例えば、二枚の画像の一方が、既に、画像間の差分検出の対象になっていた場合に、当該画像に基づいて特定された植生を示す情報とともに当該画像の撮影日時を特定日時として含む地図情報が、地図情報データベース232に登録されている場合がある。したがって、プロセッサ41は、差分検出対象の各画像の撮影日時のいずれかと、地図情報に含まれる特定日時とが一致するか否かに基づいて、当該地図情報が一方の画像に基づいて特定された植生を示しているか否かを判定することができる。   First, the processor 41 determines whether or not the map information includes a vegetation determination result based on one of the processing target images based on information indicating a specific date and time included in the map information (step 351). For example, when one of the two images has already been the target of the difference detection between the images, the map includes the shooting date and time of the image as the specific date and time together with information indicating the vegetation specified based on the image Information may be registered in the map information database 232 in some cases. Therefore, the processor 41 specifies the map information based on one image based on whether one of the photographing dates and times of each difference detection target image matches the specific date and time included in the map information. It can be determined whether or not vegetation is indicated.

検出した地図情報が、一方の画像に基づく植生の判別結果を含んでいる場合に(ステップ351の肯定判定)、プロセッサ41は、地図情報に含まれる植生の判別結果をもたらした画像を判別済みの画像とし、他方を未判別の画像とする(ステップ352)。例えば、画像A,Bのうち、画像Aの撮影日時と地図情報に含まれる特定日時とが一致する場合に、プロセッサ41は、画像Aを判別済の画像とし、画像Bを未判別の画像としてもよい。つまり、プロセッサ41は、画像A、Bについて植生を判別する処理を省略し、地図情報で示された植物の種類を画像Aについて得られた判別結果として、ステップ313以降の処理を実行する。   When the detected map information includes a vegetation determination result based on one image (affirmative determination in step 351), the processor 41 has already determined the image that has resulted in the vegetation determination result included in the map information. The other image is an unidentified image (step 352). For example, when the shooting date and time of the image A and the specific date and time included in the map information match between the images A and B, the processor 41 sets the image A as the determined image and sets the image B as the unidentified image. Also good. That is, the processor 41 omits the process of discriminating vegetation for the images A and B, and executes the processes after step 313 using the type of plant indicated by the map information as the discrimination result obtained for the image A.

ここで、土地の利用状況を追跡して調査する用途を考えれば、同一の地域を所定の期間ごとに撮影した二枚の画像が、処理対象の画像となる可能性が高い。この場合に、処理対象の画像の一方については、過去の差分検出処理の過程で各区画について植生が判別されており、これらの各区画に対応する植生の判別結果を含む地図情報が、地図情報データベース232に蓄積されている。したがって、上述したような用途で、差分検出処理を行う際には、処理対象の画像に含まれる多くの区画について、図3のステップ311で示した植生を判別する処理を省略できる可能性が高い。これにより、全ての区画について、植生を判別する処理を実行する場合に比べて、植生の変化を判定する処理に要する時間を短縮することができる。   Here, considering the use of tracking and investigating the land use situation, two images obtained by photographing the same area every predetermined period are likely to be images to be processed. In this case, for one of the images to be processed, the vegetation is determined for each section in the process of past difference detection processing, and the map information including the determination result of the vegetation corresponding to each section is map information. Accumulated in the database 232. Therefore, when performing the difference detection process in the above-described use, it is highly possible that the process of determining the vegetation shown in step 311 in FIG. 3 can be omitted for many sections included in the processing target image. . Thereby, compared with the case where the process which discriminate | determines vegetation is performed about all the divisions, the time which the process which determines the change of vegetation can be shortened.

なお、処理対象の二枚の画像のうち一方の画像に基づく植生の判別結果を含む地図情報は、他方の画像の撮影時値に相当する第1時期とは異なる第2時期において、各区画に対応する地点について植生を特定した結果を示す情報を含む参照情報の一例である。   In addition, the map information including the vegetation discrimination result based on one of the two images to be processed is assigned to each section at a second time different from the first time corresponding to the shooting time value of the other image. It is an example of the reference information containing the information which shows the result which specified the vegetation about the corresponding point.

また、地図情報で示された植物の種類を一方の画像に基づく植生の判別結果として、ステップ313の処理を実行することは、参照情報で示された植物が、上述した第1時期において呈する状態を示す画像の特徴量を推定する処理の一例である。   In addition, executing the process of step 313 using the type of plant indicated by the map information as a vegetation discrimination result based on one image indicates that the plant indicated by the reference information exhibits in the first period described above. It is an example of the process which estimates the feature-value of the image which shows.

同様に、ステップ351の肯定判定ルートにおいてステップ314の処理を実行することは、推定された特徴量と、未判別の画像とされた第1画像に含まれる処理対象の区画の特徴量との類似性を評価する処理の一例である。   Similarly, executing the process of step 314 in the affirmative determination route of step 351 is similar to the estimated feature quantity and the feature quantity of the processing target section included in the first image that has been determined as an unidentified image. It is an example of the process which evaluates property.

また、ステップ351の肯定判定ルートにおいてステップ315〜ステップ316の処理を実行することは、類似性の評価結果に基づいて、処理対象の区画に対応する地点の植生が、上述した第2時期と第1時期との間に変化したか否か判断する処理の一例である。   In addition, executing the processing of step 315 to step 316 in the affirmative determination route of step 351 means that the vegetation at the point corresponding to the processing target section is based on the evaluation result of the similarity and the second time period described above. It is an example of the process which judges whether it changed between 1 time.

したがって、図13に示したステップ351の肯定判定ルートの各処理は、本件開示の植生判定方法および植生判定プログラムの別実施形態に相当する。   Therefore, each process of the affirmation determination route of step 351 shown in FIG. 13 corresponds to another embodiment of the vegetation determination method and the vegetation determination program of the present disclosure.

なお、上述したステップ315の否定判定の場合に、プロセッサ41は、ステップ317の処理に先立って、ステップ352の処理で未判別画像とされた画像について、図7に示したステップ321〜ステップ327の植生を判別する処理を実行してもよい。また、植生を判別する処理を実行することによって、処理対象の区画に対応する新たな植生を示す情報が得られた場合に、得られた情報を用いて地図情報データベース232を更新してもよい。   Note that, in the case of the negative determination in step 315 described above, the processor 41 performs steps 321 to 327 shown in FIG. 7 with respect to an image that has been determined as an unidentified image in the processing in step 352 prior to the processing in step 317. You may perform the process which discriminates vegetation. Moreover, when the information which shows the new vegetation corresponding to the division of a process target is obtained by performing the process which discriminates vegetation, you may update the map information database 232 using the obtained information. .

一方、例えば、検出した地図情報が、実地調査によって特定された植生を示す情報を含んでいる場合に、プロセッサ41は、ステップ351の否定判定ルートに従って、ステップ353〜ステップ355の処理を実行する。   On the other hand, for example, when the detected map information includes information indicating the vegetation specified by the field survey, the processor 41 executes the processing of step 353 to step 355 according to the negative determination route of step 351.

ステップ353において、プロセッサ41は、地図情報に含まれる判別結果で示された植物が、処理対象の二枚の画像それぞれの撮影時期に呈する状態を示す特徴量をそれぞれ推定する。プロセッサ41は、各画像の撮影時期に対応する特徴量を、上述した植物に対応する植物状態データベースDBからそれぞれの撮影時期に対応する特徴量を検索することで取得してもよい。また、プロセッサ41は、図8に示したステップ331〜ステップ333の処理を適用することにより、各画像の撮影時期に対応して推定される特徴量として、複数の特徴量の候補を取得してもよい。   In step 353, the processor 41 estimates a feature amount indicating a state that the plant indicated by the determination result included in the map information exhibits at the time of photographing each of the two images to be processed. The processor 41 may acquire the feature amount corresponding to the photographing time of each image by searching the feature amount corresponding to each photographing time from the plant state database DB corresponding to the above-described plant. Further, the processor 41 obtains a plurality of feature quantity candidates as the feature quantity estimated corresponding to the shooting time of each image by applying the processing of step 331 to step 333 shown in FIG. Also good.

次に、プロセッサ41は、各画像の撮影時期に対応して推定された特徴量と、各画像中の処理対象の区画に対応する特徴量との類似性をそれぞれ評価する(ステップ354)。プロセッサ41は、各画像について推定された特徴量と各画像に含まれる処理対象の区画の実際の特徴量との類似性を、特徴量間の距離に基づいて評価してもよい。また、プロセッサ41は、図9に示したステップ341〜ステップ346の処理を適用することにより、各画像について得られた複数の特徴量の候補それぞれと各画像に含まれる処理対象の区画について実際に得られた特徴量との類似性を評価してもよい。   Next, the processor 41 evaluates the similarity between the feature amount estimated corresponding to the shooting time of each image and the feature amount corresponding to the processing target section in each image (step 354). The processor 41 may evaluate the similarity between the feature amount estimated for each image and the actual feature amount of the processing target section included in each image based on the distance between the feature amounts. In addition, the processor 41 actually applies the processing of Step 341 to Step 346 shown in FIG. 9 for each of a plurality of feature amount candidates obtained for each image and the processing target section included in each image. You may evaluate the similarity with the obtained feature-value.

次いで、プロセッサ41は、上述したステップ354の処理で、両方の画像について推定された特徴量と、各画像中の処理対象の区画に対応する特徴量とが類似している旨の評価結果が得られたか否かを判定する(ステップ355)。   Next, the processor 41 obtains an evaluation result that the feature amount estimated for both images and the feature amount corresponding to the section to be processed in each image are similar in the process of step 354 described above. It is determined whether or not it has been made (step 355).

両方の画像について類似している旨の評価結果が得られた場合に(ステップ355の肯定判定)、プロセッサ41は、二枚の画像に含まれる当該区画に対応する植生は、地図情報で示される植生からいずれも変化していないと判断する。この場合に、プロセッサ41は、ステップ360の肯定判定ルートに従って、ステップ316の処理に進み、当該区画に対応する地点の植生に変化はない旨の判定結果を出力する。   When an evaluation result indicating that both images are similar is obtained (affirmative determination in step 355), the processor 41 indicates the vegetation corresponding to the section included in the two images by map information. It is judged that none has changed since the vegetation. In this case, the processor 41 proceeds to the process of step 316 according to the affirmative determination route of step 360, and outputs a determination result indicating that there is no change in the vegetation at the point corresponding to the section.

一方、少なくとも一方の画像について類似しない旨の評価結果が得られた場合に(ステップ355の否定判定)、プロセッサ41は、少なくとも一方の画像に含まれる当該区画の植生が、地図情報で示される植生から変化したと判断する。この場合に、プロセッサ41は、ステップ355の否定判定ルートに従って、ステップ317の処理に進み、当該区画に対応する地点の植生に変化がある旨の判定結果を出力する。   On the other hand, if an evaluation result indicating that at least one image is not similar is obtained (negative determination in step 355), the processor 41 determines that the vegetation of the section included in at least one image is indicated by the map information. Judge that it has changed. In this case, the processor 41 proceeds to the process of step 317 according to the negative determination route of step 355, and outputs a determination result indicating that there is a change in the vegetation at the point corresponding to the partition.

上述したステップ353の処理は、処理対象の各画像を植生が未判別の第1画像とし、第1画像の撮影時期において参照情報で示される植物が呈する状態を示す画像の特徴量を推定する処理の一例である。   The process of step 353 described above is a process of setting each image to be processed as a first image whose vegetation has not been determined, and estimating a feature amount of an image indicating a state represented by the plant indicated by the reference information at the shooting time of the first image. It is an example.

同様に、上述したステップ354の処理は、処理対象の各画像を植生が未判別の第1画像とし、それぞれについて推定された特徴量と、第1画像に含まれる処理対象の区画の特徴量との類似性を評価する処理の一例である。   Similarly, in the processing in step 354 described above, each image to be processed is set as a first image whose vegetation has not been determined. The feature amount estimated for each image and the feature amount of the processing target section included in the first image It is an example of the process which evaluates similarity.

また、上述したステップ355の処理は、各画像に含まれる処理対象の区画に対応する地点の植生が、参照情報で示される植生から変化しているか否かに基づき、各画像の撮影時期の間に当該区画に対応する地点の植生が変化したか否か判断する処理の一例である。   In addition, the processing in step 355 described above is performed during the shooting time of each image based on whether or not the vegetation at the point corresponding to the processing target section included in each image has changed from the vegetation indicated by the reference information. It is an example of the process which judges whether the vegetation of the point corresponding to the said division changed.

したがって、図13に示したステップ351の否定判定ルートの各処理もまた、本件開示の植生判定方法および植生判定プログラムの別実施形態に相当する。   Therefore, each process of the negative determination route of step 351 shown in FIG. 13 also corresponds to another embodiment of the vegetation determination method and the vegetation determination program of the present disclosure.

図13に示した各処理をプロセッサ41が実行することにより、地図情報データベース232に蓄積された情報を、処理対象の区画に対応する地点の植生を示す情報として利用した植生の変化を判定する処理を実現することができる。上述したように、地図情報を利用する場合は、処理対象の区画に対応する地点の植生を画像の特徴に基づいて判別する処理を省略することができる。したがって、図12に示したステップ310において、地図情報があるとされた場合に、ステップ305の処理に代えて、上述した地図情報を利用した植生の変化を判定する処理を実行することにより、差分検出処理に要する時間の短縮を図ることができる。   The process which determines the change of the vegetation using the information accumulate | stored in the map information database 232 as information which shows the vegetation of the point corresponding to a process target partition, when the processor 41 performs each process shown in FIG. Can be realized. As described above, when map information is used, it is possible to omit the process of determining the vegetation at a point corresponding to the processing target section based on the characteristics of the image. Therefore, when it is determined that there is map information in step 310 shown in FIG. 12, instead of the process in step 305, a process for determining a change in vegetation using the map information described above is executed, whereby a difference is obtained. The time required for the detection process can be shortened.

なお、上述したステップ355の否定判定の場合に、プロセッサ41は、ステップ317の処理に先立って、処理対象の各画像に含まれる処理対象の区画ついて、図7に示したステップ321〜ステップ327の植生を判別する処理を実行してもよい。また、植生を判別する処理を実行することによって、処理対象の区画に対応する新たな植生を示す情報が得られた場合に、得られた情報を用いて地図情報データベース232を更新してもよい。   In the case of the negative determination in step 355 described above, prior to the processing in step 317, the processor 41 performs processing of steps 321 to 327 shown in FIG. 7 for the processing target sections included in each processing target image. You may perform the process which discriminates vegetation. Moreover, when the information which shows the new vegetation corresponding to the division of a process target is obtained by performing the process which discriminates vegetation, you may update the map information database 232 using the obtained information. .

また、図11に示した地図情報データベース232を、図5に示したクライアント装置30に含まれるハードディスク装置33に構築することもできる。そして、クライアント装置30から、処理対象の二枚の画像をサーバ装置20に渡す際に、これらの画像の撮影範囲に含まれる各地点に対応する地図情報をサーバ装置20に渡してもよい。また、サーバ装置20は、差分検出処理の過程で、受け取った地図情報を利用して植生の変化を判定する処理を実行し、また、判定処理の過程で得られた植生を示す情報を用いて地図情報を更新してもよい。更に、更新した地図情報を、差分検出結果とともに、クライアント装置30に返してもよい。   Further, the map information database 232 shown in FIG. 11 can be constructed in the hard disk device 33 included in the client device 30 shown in FIG. Then, when two images to be processed are passed from the client device 30 to the server device 20, map information corresponding to each point included in the shooting range of these images may be passed to the server device 20. In addition, the server device 20 executes a process of determining a change in vegetation using the received map information in the course of the difference detection process, and uses information indicating the vegetation obtained in the process of the determination process. Map information may be updated. Further, the updated map information may be returned to the client device 30 together with the difference detection result.

以上の説明に関して、更に、以下の各項を開示する。
(付記1)
所定の地域を異なる時期に撮影して得られた二枚の画像のそれぞれを区分して得られる各区画について、当該区画の画像の特徴量に基づいて、当該区画に撮影された植物の種類を判別し、
前記二枚の画像の一方である第1画像に含まれる前記区画について前記植物の種類を判別できず、前記二枚の画像の他方である第2画像に含まれる前記区画について前記植物の種類を判別できた場合に、
各植物を撮影することで得られる画像の特徴量を時期ごとに示す植物情報に基づいて、前記第2画像に含まれる前記区画について判別された前記種類の植物が、前記第1画像の撮影時期において呈する状態を示す画像の特徴量を推定し、
前記推定された特徴量と、前記第1画像に含まれる前記区画の画像の特徴量との類似性を評価し、
前記類似性があると評価された場合に、前記区画に対応する地点の植生は、前記第2画像の撮影時期と前記第1画像の撮影時期との間に変化していないと判断し、前記類似性がないと評価された場合に、前記区画に対応する地点の植生は、前記第2画像の撮影時期と前記第1画像の撮影時期との間に変化したと判断する
処理をコンピュータに実行させることを特徴とする植生判定プログラム。
(付記2)
付記1に記載の植生判定プログラムにおいて、
前記区画に撮影された植物の種類を判別する処理は、
前記植物情報から、前記区画を含む画像の撮影時期において、前記区画の特徴量に類似する特徴量を持つ植物の種類を検索する処理を含む
ことを特徴とする植生判定プログラム。
(付記3)
付記3に記載の植生判定プログラムにおいて、
前記植物の種類を検索する処理は、
前記区画を含む画像の撮影時期を、前記画像に撮影された地域の気候に基づいて補正する処理を含む
ことを特徴とする植生判定プログラム。
(付記4)
所定の地域を第1時期に撮影して得られた第1画像を区分して得られる各区画について、前記第1時期とは異なる第2時期において、前記区画に対応する地点について植生を特定した結果を示す情報を含む参照情報、
各植物を撮影することで得られる画像の特徴量を時期ごとに示す植物情報に基づいて、前記参照情報で前記区画の植生として示された前記種類の植物が、前記第1時期において呈する状態を示す画像の特徴量を推定し、
前記推定された特徴量と、前記第1画像に含まれる前記区画の画像の特徴量との類似性を評価し、
前記類似性があると評価された場合に、前記区画に対応する地点の植生は、前記第2時期と前記第1時期との間に変化していないと判断し、前記類似性がないと評価された場合に、前記区画に対応する地点の植生は、前記第2画像の撮影時期と前記第1画像の撮影時期との間に変化したと判断する
処理をコンピュータに実行させることを特徴とする植生判定プログラム。
(付記5)
付記1に記載の植生判定プログラムにおいて、
前記特徴量を推定する処理は、
前記植物情報のうち、前記判別された種類の植物に対応する情報から、前記第1画像の撮影時期に対応する特徴量を検索する処理を含み、
前記特徴量を検索する処理は、
前記第1画像の撮影時期を、前記第1画像に撮影された地域の気候に基づいて補正する処理を含む
ことを特徴とする植生判定プログラム。
(付記6)
付記1に記載の植生判定プログラムにおいて、
前記特徴量を推定する処理は、
前記植物情報のうち、前記判別された種類の植物に対応する情報から、前記第1画像の撮影時期に対応する特徴量を検索する処理を含み、
前記特徴量を検索する処理は、
前記第1画像の撮影時期を含む所定の期間内の各時期に対応する特徴量を、推定された特徴量の候補として抽出する処理を含む
ことを特徴とする植生判定プログラム。
(付記7)
所定の地域を異なる時期に撮影して得られた二枚の画像のそれぞれを区分して得られる各区画について、当該区画の画像の特徴量に基づいて、当該区画に撮影された植物の種類を判別し、
前記二枚の画像の一方である第1画像に含まれる前記区画について前記植物の種類を判別できず、前記二枚の画像の他方である第2画像に含まれる前記区画について前記植物の種類を判別できた場合に、
各植物を撮影することで得られる画像の特徴量を時期ごとに示す植物情報に基づいて、前記第2画像に含まれる前記区画について判別された前記種類の植物が、前記第1画像の撮影時期において呈する状態を示す画像の特徴量を推定し、
前記推定された特徴量と、前記第1画像に含まれる前記区画の画像の特徴量との類似性を評価し、
前記類似性があると評価された場合に、前記区画に対応する地点の植生は、前記第2画像の撮影時期と前記第1画像の撮影時期との間に変化していないと判断し、前記類似性がないと評価された場合に、前記区画に対応する地点の植生は、前記第2画像の撮影時期と前記第1画像の撮影時期との間に変化したと判断する
ことを特徴とする植生判定方法。
(付記8)
所定の地域を異なる時期に撮影して得られた二枚の画像のそれぞれを区分して得られる各区画について、当該区画の画像の特徴量に基づいて、当該区画に撮影された植物の種類を判別する判別部と、
前記二枚の画像の一方である第1画像に含まれる前記区画について前記植物の種類を判別できず、前記二枚の画像の他方である第2画像に含まれる前記区画について前記植物の種類を判別できた場合に、各植物を撮影することで得られる画像の特徴量を時期ごとに示す植物情報に基づいて、前記第2画像に含まれる前記区画について判別された前記種類の植物が、前記第1画像の撮影時期において呈する状態を示す画像の特徴量を推定する推定部と、
前記推定された特徴量と、前記第1画像に含まれる前記区画の画像の特徴量との類似性を評価する評価部と、
前記類似性があると評価された場合に、前記区画に対応する地点の植生は、前記第2画像の撮影時期と前記第1画像の撮影時期との間に変化していないと判断し、前記類似性がないと評価された場合に、前記区画に対応する地点の植生は、前記第2画像の撮影時期と前記第1画像の撮影時期との間に変化したと判断する判断部と
を備えたことを特徴とする植生判定装置。
Regarding the above description, the following items are further disclosed.
(Appendix 1)
For each section obtained by dividing each of the two images obtained by photographing a predetermined region at different times, the type of plant photographed in the section is determined based on the feature amount of the image of the section. Discriminate,
The type of the plant cannot be determined for the section included in the first image which is one of the two images, and the type of the plant is determined for the section included in the second image which is the other of the two images. If it can be determined,
Based on the plant information indicating the feature amount of the image obtained by photographing each plant for each period, the type of plant determined for the section included in the second image is the photographing period of the first image. Estimate the feature quantity of the image showing the state presented in
Evaluating the similarity between the estimated feature quantity and the feature quantity of the image of the section included in the first image;
When it is evaluated that there is the similarity, it is determined that the vegetation at the point corresponding to the section has not changed between the shooting time of the second image and the shooting time of the first image, When it is evaluated that there is no similarity, the computer determines that the vegetation at the point corresponding to the section has changed between the shooting time of the second image and the shooting time of the first image. A vegetation judgment program characterized by causing
(Appendix 2)
In the vegetation judgment program described in Appendix 1,
The process of discriminating the type of plant photographed in the section,
A vegetation determination program characterized by including a process of searching for a plant type having a feature quantity similar to the feature quantity of the section from the plant information at the time of capturing an image including the section.
(Appendix 3)
In the vegetation judgment program described in Appendix 3,
The process of searching for the plant type is as follows:
A vegetation judgment program characterized by including a process of correcting a photographing time of an image including the section based on a climate of a region photographed in the image.
(Appendix 4)
For each section obtained by dividing the first image obtained by photographing a predetermined area at the first time, vegetation was specified at a point corresponding to the section at a second time different from the first time. Reference information including information indicating the result,
Based on the plant information indicating the feature amount of the image obtained by photographing each plant for each period, the state of the plant of the type indicated as the vegetation of the section by the reference information in the first period Estimate the feature value of the image shown,
Evaluating the similarity between the estimated feature quantity and the feature quantity of the image of the section included in the first image;
When it is evaluated that there is the similarity, it is determined that the vegetation at the point corresponding to the section has not changed between the second period and the first period, and it is evaluated that there is no similarity. In this case, the vegetation of the point corresponding to the section is caused to cause the computer to execute a process of determining that the vegetation at the point corresponding to the section has changed between the shooting time of the second image and the shooting time of the first image. Vegetation judgment program.
(Appendix 5)
In the vegetation judgment program described in Appendix 1,
The process of estimating the feature amount includes:
Among the plant information, including a process of searching for a feature amount corresponding to the shooting time of the first image from information corresponding to the identified type of plant,
The process of searching for the feature amount includes:
A vegetation judgment program characterized by including a process of correcting the photographing time of the first image based on a climate of a region photographed in the first image.
(Appendix 6)
In the vegetation judgment program described in Appendix 1,
The process of estimating the feature amount includes:
Among the plant information, including a process of searching for a feature amount corresponding to the shooting time of the first image from information corresponding to the identified type of plant,
The process of searching for the feature amount includes:
A vegetation determination program characterized by including a process of extracting a feature amount corresponding to each period within a predetermined period including the photographing time of the first image as an estimated feature amount candidate.
(Appendix 7)
For each section obtained by dividing each of the two images obtained by photographing a predetermined region at different times, the type of plant photographed in the section is determined based on the feature amount of the image of the section. Discriminate,
The type of the plant cannot be determined for the section included in the first image which is one of the two images, and the type of the plant is determined for the section included in the second image which is the other of the two images. If it can be determined,
Based on the plant information indicating the feature amount of the image obtained by photographing each plant for each period, the type of plant determined for the section included in the second image is the photographing period of the first image. Estimate the feature quantity of the image showing the state presented in
Evaluating the similarity between the estimated feature quantity and the feature quantity of the image of the section included in the first image;
When it is evaluated that there is the similarity, it is determined that the vegetation at the point corresponding to the section has not changed between the shooting time of the second image and the shooting time of the first image, When it is evaluated that there is no similarity, it is determined that the vegetation at the point corresponding to the section has changed between the shooting time of the second image and the shooting time of the first image. Vegetation judgment method.
(Appendix 8)
For each section obtained by dividing each of the two images obtained by photographing a predetermined region at different times, the type of plant photographed in the section is determined based on the feature amount of the image of the section. A discriminator for discriminating;
The type of the plant cannot be determined for the section included in the first image which is one of the two images, and the type of the plant is determined for the section included in the second image which is the other of the two images. When it can be determined, based on the plant information indicating the feature amount of the image obtained by photographing each plant for each period, the type of plant determined for the section included in the second image, An estimation unit that estimates a feature amount of an image indicating a state presented at the time of photographing the first image;
An evaluation unit that evaluates the similarity between the estimated feature amount and the feature amount of the image of the section included in the first image;
When it is evaluated that there is the similarity, it is determined that the vegetation at the point corresponding to the section has not changed between the shooting time of the second image and the shooting time of the first image, A judgment unit that judges that the vegetation at the point corresponding to the section has changed between the photographing time of the second image and the photographing time of the first image when it is evaluated that there is no similarity; A vegetation judging device characterized by that.

10…植生判定装置;11…比較部;12…推定部;13…評価部;14…判断部;16…差分検出装置;1…表示装置;2…撮像装置;3…撮像装置;21,31,41…プロセッサ;22,32,42…メモリ;23,33,43…ハードディスク装置;24,34…ネットワークインタフェース(I/F);35…表示部;36,44…汎用インタフェース(I/F);45…表示制御部;46…光学ドライブ装置;47…リムーバブルディスク;232…地図情報データベース;DB…植物状態データベース;NW…ネットワーク DESCRIPTION OF SYMBOLS 10 ... Vegetation determination apparatus; 11 ... Comparison part; 12 ... Estimation part; 13 ... Evaluation part; 14 ... Judgment part; 16 ... Difference detection apparatus; 1 ... Display apparatus; , 41 ... Processor; 22, 32, 42 ... Memory; 23, 33, 43 ... Hard disk device; 24, 34 ... Network interface (I / F); 35 ... Display unit; 36, 44 ... General-purpose interface (I / F) 45 ... Display control unit; 46 ... Optical drive device; 47 ... Removable disk; 232 ... Map information database; DB ... Plant state database; NW ... Network

Claims (3)

所定の領域をそれぞれ異なる時期に撮影して得られた第一の画像と第二の画像とについて少なくとも前記所定の領域の画像特徴量をそれぞれ算出し、
植物の種類に対応付けて時期に応じて異なる画像特徴量を示す情報を含むデータベースを、撮影された時期に基づいて参照して、前記第一の画像の前記所定の領域に含まれる植物の種類と前記第二の画像の前記所定の領域に含まれる植物の種類を特定し、
前記第1の画像について特定した植物の種類と、前記第2の画像について特定した植物の種類とが一致する場合に、前記所定の領域の植物の種類は前記異なる時期の間で変化していないと判断し、
前記第1の画像について特定した植物の種類と、前記第2の画像について特定した植物の種類とが一致しない場合に、前記所定の領域の植物の種類は前記異なる時期の間で変化したと判断する
処理をコンピュータに実行させることを特徴とする植生判定プログラム。
Calculating at least the image feature amount of the predetermined region for the first image and the second image obtained by photographing the predetermined region at different times,
Types of plants included in the predetermined region of the first image with reference to a database including information indicating image feature quantities that differ according to the time in association with the types of plants based on the time of shooting. And identifying the type of plant included in the predetermined area of the second image,
When the plant type specified for the first image matches the plant type specified for the second image, the plant type of the predetermined region has not changed between the different times. And
When the plant type specified for the first image and the plant type specified for the second image do not match, it is determined that the plant type of the predetermined region has changed between the different times. A vegetation judgment program characterized by causing a computer to execute processing.
所定の領域をそれぞれ異なる時期に撮影して得られた第一の画像と第二の画像とについて少なくとも前記所定の領域の画像特徴量をそれぞれ算出し、
植物の種類に対応付けて時期に応じて異なる画像特徴量を示す情報を含むデータベースを、撮影された時期に基づいて参照して、前記第一の画像の前記所定の領域に含まれる植物の種類と前記第二の画像の前記所定の領域に含まれる植物の種類を特定し、
前記第1の画像について特定した植物の種類と、前記第2の画像について特定した植物の種類とが一致する場合に、前記所定の領域の植物の種類は前記異なる時期の間で変化していないと判断し、
前記第1の画像について特定した植物の種類と、前記第2の画像について特定した植物の種類とが一致しない場合に、前記所定の領域の植物の種類は前記異なる時期の間で変化したと判断する
ことを特徴とする植生判定方法。
Calculating at least the image feature amount of the predetermined region for the first image and the second image obtained by photographing the predetermined region at different times,
Types of plants included in the predetermined region of the first image with reference to a database including information indicating image feature quantities that differ according to the time in association with the types of plants based on the time of shooting. And identifying the type of plant included in the predetermined area of the second image,
When the plant type specified for the first image matches the plant type specified for the second image, the plant type of the predetermined region has not changed between the different times. And
When the plant type specified for the first image and the plant type specified for the second image do not match, it is determined that the plant type of the predetermined region has changed between the different times. A vegetation judgment method characterized by:
所定の領域をそれぞれ異なる時期に撮影して得られた第一の画像と第二の画像とについて少なくとも前記所定の領域の画像特徴量をそれぞれ算出する算出部と、
植物の種類に対応付けて時期に応じて異なる画像特徴量を示す情報を含むデータベースを、撮影された時期に基づいて参照して、前記第一の画像の前記所定の領域に含まれる植物の種類と前記第二の画像の前記所定の領域に含まれる植物の種類を特定する特定部と、
前記第1の画像について特定した植物の種類と、前記第2の画像について特定した植物の種類とが一致する場合に、前記所定の領域の植物の種類は前記異なる時期の間で変化していないと判断し、前記第1の画像について特定した植物の種類と、前記第2の画像について特定した植物の種類とが一致しない場合に、前記所定の領域の植物の種類は前記異なる時期の間で変化したと判断する判断部と
を備えることを特徴とする植生判定装置。
A calculating unit that calculates at least the image feature amount of the predetermined region for the first image and the second image obtained by photographing the predetermined region at different times, and
Types of plants included in the predetermined region of the first image with reference to a database including information indicating image feature quantities that differ according to the time in association with the types of plants based on the time of shooting. And a specifying unit for specifying the type of plant included in the predetermined region of the second image,
When the plant type specified for the first image matches the plant type specified for the second image, the plant type of the predetermined region has not changed between the different times. And when the plant type specified for the first image does not match the plant type specified for the second image, the plant type of the predetermined region is between the different times. A vegetation determination device comprising: a determination unit that determines that a change has occurred.
JP2016112761A 2016-06-06 2016-06-06 Vegetation determination program, vegetation determination method, and vegetation determination device Pending JP2016165303A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016112761A JP2016165303A (en) 2016-06-06 2016-06-06 Vegetation determination program, vegetation determination method, and vegetation determination device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016112761A JP2016165303A (en) 2016-06-06 2016-06-06 Vegetation determination program, vegetation determination method, and vegetation determination device

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2012252130A Division JP5949484B2 (en) 2012-11-16 2012-11-16 Difference detection program, difference detection method, and difference detection apparatus

Publications (1)

Publication Number Publication Date
JP2016165303A true JP2016165303A (en) 2016-09-15

Family

ID=56897740

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016112761A Pending JP2016165303A (en) 2016-06-06 2016-06-06 Vegetation determination program, vegetation determination method, and vegetation determination device

Country Status (1)

Country Link
JP (1) JP2016165303A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019004874A (en) * 2017-06-26 2019-01-17 インターナショナル・ビジネス・マシーンズ・コーポレーションInternational Business Machines Corporation Methods, computer program products and systems for cognitive plant clinic
JP2020197507A (en) * 2019-06-05 2020-12-10 野崎 眞次 Precision agriculture support system and precision agriculture support method
WO2023027197A1 (en) 2021-08-24 2023-03-02 Bayer Cropscience K.K. System, information processing device, server device, program, or method
EP4145270A1 (en) 2021-09-03 2023-03-08 Bayer CropScience K.K. System, information processing device, server device, program, or method

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005276004A (en) * 2004-03-26 2005-10-06 Hitachi Ltd Image information processing system
JP2012196167A (en) * 2011-03-20 2012-10-18 Fujitsu Ltd Plant species identification method

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005276004A (en) * 2004-03-26 2005-10-06 Hitachi Ltd Image information processing system
JP2012196167A (en) * 2011-03-20 2012-10-18 Fujitsu Ltd Plant species identification method

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019004874A (en) * 2017-06-26 2019-01-17 インターナショナル・ビジネス・マシーンズ・コーポレーションInternational Business Machines Corporation Methods, computer program products and systems for cognitive plant clinic
JP7219558B2 (en) 2017-06-26 2023-02-08 キンドリル・インク Methods, computer programs and systems for cognitive plant clinics
JP2020197507A (en) * 2019-06-05 2020-12-10 野崎 眞次 Precision agriculture support system and precision agriculture support method
US11519892B2 (en) 2019-06-05 2022-12-06 Shinji Nozaki Precision agriculture support system and precision agriculture support method
WO2023027197A1 (en) 2021-08-24 2023-03-02 Bayer Cropscience K.K. System, information processing device, server device, program, or method
EP4145270A1 (en) 2021-09-03 2023-03-08 Bayer CropScience K.K. System, information processing device, server device, program, or method

Similar Documents

Publication Publication Date Title
JP5949484B2 (en) Difference detection program, difference detection method, and difference detection apparatus
Rasmussen et al. Pre-harvest weed mapping of Cirsium arvense in wheat and barley with off-the-shelf UAVs
Onishi et al. Automatic classification of trees using a UAV onboard camera and deep learning
TWI615605B (en) Image method, image processing system and computer-readable medium
Adelabu et al. Testing the reliability and stability of the internal accuracy assessment of random forest for classifying tree defoliation levels using different validation methods
JP2016165303A (en) Vegetation determination program, vegetation determination method, and vegetation determination device
Yin et al. Mapping annual land use and land cover changes using MODIS time series
Aboutalebi et al. Assessment of different methods for shadow detection in high-resolution optical imagery and evaluation of shadow impact on calculation of NDVI, and evapotranspiration
Murugan et al. Fusion of drone and satellite data for precision agriculture monitoring
Laborte et al. Spectral signature generalization and expansion can improve the accuracy of satellite image classification
KR102177985B1 (en) Apparatus and Method for Automatically Detecting Landslide Area
Baamonde et al. Fully automatic multi-temporal land cover classification using Sentinel-2 image data
Liu Compositing the minimum NDVI for MODIS data
CN113850312A (en) Forest ecological condition monitoring method and device, electronic equipment and storage medium
Ye et al. A spectral index for highlighting forest cover from remotely sensed imagery
Budei et al. Variability of multispectral lidar 3D and intensity features with individual tree height and its influence on needleleaf tree species identification
Schindler et al. Method for national mapping spatial extent of southern beech forest using temporal spectral signatures
Guo et al. A novel invasive plant detection approach using time series images from unmanned aerial systems based on convolutional and recurrent neural networks
Novotný et al. Individual tree crowns delineation using local maxima approach and seeded region growing technique
Oldoni et al. Annual cropland mapping using data mining and OLI Landsat-8
Papadopoulos et al. Weed mapping in cotton using ground-based sensors and GIS
Moumni et al. Sample period dependent classification approach for the cartography of crops in the Haouz plain, Morocco
Kranjčić et al. Satellite-based hyperspectral imaging and cartographic visualization of bark beetle forest damage for the city of Čabar
DiPietro et al. Mapping the invasive plant Arundo donax and associated riparian vegetation using AVIRIS
Descals et al. Automated detection of selective logging using SmallSat imagery

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170421

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170502

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170605

RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7426

Effective date: 20170803

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20170803

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20170804

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20171107