JP2016165303A - Vegetation determination program, vegetation determination method, and vegetation determination device - Google Patents
Vegetation determination program, vegetation determination method, and vegetation determination device Download PDFInfo
- Publication number
- JP2016165303A JP2016165303A JP2016112761A JP2016112761A JP2016165303A JP 2016165303 A JP2016165303 A JP 2016165303A JP 2016112761 A JP2016112761 A JP 2016112761A JP 2016112761 A JP2016112761 A JP 2016112761A JP 2016165303 A JP2016165303 A JP 2016165303A
- Authority
- JP
- Japan
- Prior art keywords
- image
- vegetation
- plant
- section
- images
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Image Analysis (AREA)
Abstract
Description
本件開示は、植生判定プログラム及び植生判定方法並びに植生判定装置に関する。 The present disclosure relates to a vegetation determination program, a vegetation determination method, and a vegetation determination apparatus.
植物を撮影した画像に基づいて、被写体となった植物の種類を判別する技術として、例えば、特許文献1の技法が提案されている。 For example, the technique of Patent Document 1 has been proposed as a technique for discriminating the type of plant that has become a subject based on an image of a plant photographed.
また、森林を上空から撮影して得られた画像に基づいて、撮影範囲に生育している樹木を種類別に分類し、森林の現況に関する情報を取得する技術として、例えば、特許文献2の技法が提案されている。
Further, as a technique for classifying trees growing in the photographing range according to the type based on an image obtained by photographing the forest from the sky and acquiring information on the current state of the forest, for example, the technique of
個々の画像の撮影範囲に生育している植物の種類は、当該植物が典型的な特徴を示している時期に撮影された画像から、上述した特許文献1,2などに開示された技法に基づいて判別することが可能である。
The types of plants growing in the shooting range of individual images are based on the techniques disclosed in
ところで、異なる時期に同じ地域を撮影することで得られた複数の画像を比較し、画像中で変化した領域を検出しても、画像から検出した箇所と、家屋の異動や廃棄物の不法投棄などを含む様々な土地の用途変化があった場所とが対応しない場合がある。 By the way, multiple images obtained by photographing the same area at different times are compared, and even if a changed area is detected in the image, the location detected from the image and the change of the house or illegal dumping of waste There may be cases where it does not correspond to a place where various land uses have changed.
なぜなら、植物の状態は季節や農作業の進捗などによって大きく変化するため、同一の地域を撮影した画像でも、撮影を行った時期によって色などの特徴が異なるためである。例えば、落葉樹が生育している山林や圃場などを夏季に撮影した画像と、冬季に撮影した画像とでは、撮影対象の地域を覆っている植物、すなわち、植生に変化がないにもかかわらず、それぞれの画像中の山林や圃場に相当する領域の色を含む特徴は大きく異なる。このため、上述した二枚の画像を比較した場合には、画像中の山林や圃場に対応する領域が、当該領域に写っている地域の植生に変化がないにもかかわらず、画像間の差分として検出されてしまう場合がある。 This is because the state of the plant greatly changes depending on the season, the progress of farming, and the like, and even the images of the same region have different characteristics such as color depending on the time of shooting. For example, an image taken in the summer of a forest or field where deciduous trees are growing, and an image taken in the winter, the plant that covers the area to be photographed, i.e., there is no change in vegetation, Features including colors of regions corresponding to forests and fields in each image are greatly different. For this reason, when the two images described above are compared, the area corresponding to the forest or the field in the image is the difference between the images even though there is no change in the vegetation of the area reflected in the area. May be detected.
また、画像に基づいて撮影対象の植物の種類を判断する従来の技術では、撮影対象の植物が典型的な特徴を呈していない時期に撮影された画像に基づいて、被写体となった植物の種類を判定することは困難である。 In addition, in the conventional technique for determining the type of plant to be photographed based on the image, the type of plant that is the subject based on the image photographed when the plant to be photographed does not exhibit typical characteristics. Is difficult to determine.
このように、従来技術では、比較される各画像が撮影された時期によって、撮影範囲の植生が変化しているか否かを判定できない場合がある。 As described above, in the related art, it may not be possible to determine whether or not the vegetation in the shooting range has changed depending on the time when each image to be compared was shot.
1つの側面では、本発明は、画像の撮影時期の影響を抑制した植生判定プログラム及び植生判定方法並びに植生判定装置を提供することを目的とする。 In one aspect, an object of the present invention is to provide a vegetation determination program, a vegetation determination method, and a vegetation determination apparatus that suppress the influence of an image capturing time.
一つの観点による植生判定プログラムは、所定の領域をそれぞれ異なる時期に撮影して得られた第一の画像と第二の画像とについて少なくとも前記所定の領域の画像特徴量をそれぞれ算出し、植物の種類に対応付けて時期に応じて異なる画像特徴量を示す情報を含むデータベースを、撮影された時期に基づいて参照して、前記第一の画像の前記所定の領域に含まれる植物の種類と前記第二の画像の前記所定の領域に含まれる植物の種類を特定し、前記第1の画像について特定した植物の種類と、前記第2の画像について特定した植物の種類とが一致する場合に、前記所定の領域の植物の種類は前記異なる時期の間で変化していないと判断し、前記第1の画像について特定した植物の種類と、前記第2の画像について特定した植物の種類とが一致しない場合に、前記所定の領域の植物の種類は前記異なる時期の間で変化したと判断する処理をコンピュータに実行させる。 A vegetation determination program according to one aspect calculates an image feature amount of at least the predetermined region for each of the first image and the second image obtained by photographing the predetermined region at different times, A database including information indicating image feature amounts that differ according to time in association with types is referred to based on the time of shooting, and the types of plants included in the predetermined area of the first image and the database When the type of plant included in the predetermined area of the second image is specified, and the type of plant specified for the first image matches the type of plant specified for the second image, It is determined that the plant type in the predetermined region has not changed between the different times, and the plant type specified for the first image is identical to the plant type specified for the second image. If not, the type of plants of the predetermined region is to execute the process of determining that varied between the different times on a computer.
また、別の観点による植生判定方法は、所定の領域をそれぞれ異なる時期に撮影して得られた第一の画像と第二の画像とについて少なくとも前記所定の領域の画像特徴量をそれぞれ算出し、植物の種類に対応付けて時期に応じて異なる画像特徴量を示す情報を含むデータベースを、撮影された時期に基づいて参照して、前記第一の画像の前記所定の領域に含まれる植物の種類と前記第二の画像の前記所定の領域に含まれる植物の種類を特定し、前記第1の画像について特定した植物の種類と、前記第2の画像について特定した植物の種類とが一致する場合に、前記所定の領域の植物の種類は前記異なる時期の間で変化していないと判断し、前記第1の画像について特定した植物の種類と、前記第2の画像について特定した植物の種類とが一致しない場合に、前記所定の領域の植物の種類は前記異なる時期の間で変化したと判断する。 Further, the vegetation determination method according to another aspect calculates at least the image feature amount of the predetermined region for the first image and the second image obtained by photographing the predetermined region at different times, Types of plants included in the predetermined region of the first image with reference to a database including information indicating image feature quantities that differ according to the time in association with the types of plants based on the time of shooting. The type of plant included in the predetermined area of the second image and the type of plant specified for the first image matches the type of plant specified for the second image In addition, it is determined that the plant type of the predetermined region has not changed between the different times, the plant type specified for the first image, and the plant type specified for the second image Matches If no, the type of plants of the predetermined area is determined to have changed between the different times.
また、別の観点による植生判定装置は、所定の領域をそれぞれ異なる時期に撮影して得られた第一の画像と第二の画像とについて少なくとも前記所定の領域の画像特徴量をそれぞれ算出する算出部と、植物の種類に対応付けて時期に応じて異なる画像特徴量を示す情報を含むデータベースを、撮影された時期に基づいて参照して、前記第一の画像の前記所定の領域に含まれる植物の種類と前記第二の画像の前記所定の領域に含まれる植物の種類を特定する特定部と、前記第1の画像について特定した植物の種類と、前記第2の画像について特定した植物の種類とが一致する場合に、前記所定の領域の植物の種類は前記異なる時期の間で変化していないと判断し、前記第1の画像について特定した植物の種類と、前記第2の画像について特定した植物の種類とが一致しない場合に、前記所定の領域の植物の種類は前記異なる時期の間で変化したと判断する判断部とを有する。 In another aspect, the vegetation determination device calculates at least the image feature amount of the predetermined region for each of the first image and the second image obtained by photographing the predetermined region at different times. A database containing information indicating image features that differ depending on the time in association with the type of plant and the plant is referred to based on the time taken and included in the predetermined region of the first image A specifying unit for specifying a plant type and a plant type included in the predetermined area of the second image, a plant type specified for the first image, and a plant specified for the second image. When the type matches, it is determined that the plant type in the predetermined region has not changed between the different times, and the plant type specified for the first image and the second image Identify If the the type of plant does not match, the type of plants of the predetermined region has a determining section for determining a varied between the different times.
本件開示の植生判定プログラム及び植生判定方法並びに植生判定装置によれば、画像の撮影時期の影響を抑制することができる。 According to the vegetation determination program, the vegetation determination method, and the vegetation determination apparatus of the present disclosure, it is possible to suppress the influence of the image capturing time.
以下、図面に基づいて、本発明の実施形態について詳細に説明する。 Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.
図1は、植生判定装置10の一実施形態を示している。植生判定装置10は、所定の地域を異なる時期に撮影して得られた二枚の画像A,Bを受け取り、各画像に基づいて、上述した地域に含まれる各地点における植生を判定するとともに、画像A,Bの撮影時期間に植生に変化があったか否かを判定する。
FIG. 1 shows an embodiment of a
図1に示した植生判定装置10は、判別部11と、推定部12と、評価部13と、判断部14とを含んでいる。判別部11は、上述した画像A,Bを受け取り、また、推定部12は、植物状態データベースDBから、各植物を撮影することで得られる画像の特徴量を時期ごとに示す植物情報を受け取る。
The
判別部11は、画像A,Bのそれぞれを区分して得られる各区画の特徴量に基づいて、各区画に撮影された植物の種類をそれぞれ判別する。各区画は、例えば、画像A,Bのそれぞれに含まれる各画素であってもよいし、また、複数画素をまとめたブロックであってもよい。例えば、判別部11は、各区画の特徴量の一つである色を示す情報に基づいて、各区画に撮影された植物の種類を判別してもよい。ここで、画像A,Bの各区画は、撮影範囲内に含まれる各地点に対応しており、当該区画に撮影された植物は、当該区画に対応する地点を覆っている植物である。したがって、判別部11が、各区画について判別した植物の種類は、各区画に対応する地点の植生を示している。以下の説明では、画像に含まれる「各区画に撮影されている植物の種類を判別する」ことを、「各区画に対応する地点の植生を判別する」と称する。
The
なお、上述した画像A,Bは、位置合わせ済みの画像であり、画像A,Bの対応する区画は、上述した地域に含まれる同一の地点に対応する。 Note that the images A and B described above are images that have been aligned, and the corresponding sections of the images A and B correspond to the same point included in the region described above.
ここで、画像A,Bが、落葉広葉樹が生育している地域を含む撮影範囲を、それぞれ5月と12月に撮影して得られた画像である場合について考える。 Here, consider a case where the images A and B are images obtained by shooting the shooting range including the area where the deciduous broad-leaved tree grows in May and December, respectively.
この場合に、5月に撮影された画像Aの上述した地域が写っている領域に含まれる区画の色などの特徴量は、被写体となった植物の典型的な特徴を示している。したがって、判別部11は、当該区画の特徴量に基づいて、被写体となった植物の種類を判別することができる。
In this case, the feature amount such as the color of the section included in the region where the above-described region is captured in the image A taken in May indicates a typical feature of the plant that is the subject. Therefore, the
一方、12月に撮影された画像Bの対応する区画の特徴量は、落葉後の木の幹や枝などの色などの特徴を示している。そして、例えば、落葉後の各樹種の幹や枝などの色には、各樹種の葉色の違いほど大きな差異が無い。したがって、上述した判別部11により、画像Bの中で、落葉広葉樹林が写っている領域の各区画について、被写体となった植物の種類を判別することは困難である。
On the other hand, the feature amount of the corresponding section of the image B photographed in December indicates the characteristics such as the color of the trunk and branches of the tree after the fallen leaves. For example, the color of the trunk, branch, etc. of each tree species after falling leaves is not as great as the difference in the leaf color of each tree species. Therefore, it is difficult for the above-described
したがって、判別部11は、これらの画像A,Bに共通して含まれる落葉広葉樹林を撮影した領域に含まれる各区画について、画像Aについては植物を判別できるが、画像Bについては植物を判別できない旨の判別結果を得る。この場合に、前記植物の種類を判別できた区画が含まれる画像Aは第2画像の一例であり、前記植物の種類を判別できなかった区画が含まれる画像Bは第1画像の一例である。
Therefore, the
推定部12は、植物状態データベースDBから受け取った植物情報に基づいて、第2画像に相当する画像Aの上述した領域に含まれる区画について判別された種類の植物が、第1画像に相当する画像Bの撮影時期において呈する状態を示す画像の特徴量を推定する。推定部12によって推定される特徴量は、例えば、画像Aに基づいて特定された植物が、画像Bの撮影時期に呈する色を示すスペクトル特性などである。推定部12は、例えば、画像Aについて得られた判別結果に基づいて、図2に示すような植物状態データベースDBを検索することにより、植物情報を取得してもよい。
Based on the plant information received from the plant state database DB, the estimating
図2は、植物状態データベースの例を示している。図2に示した植物状態データベースは、植物の種類ごとに、各時期に当該植物を撮影することで得られる画像の特徴量の一例である色を示すスペクトル特性を表すマルチスペクトルデータを保持している。 FIG. 2 shows an example of a plant state database. The plant state database shown in FIG. 2 holds multispectral data representing spectral characteristics indicating colors, which are examples of image feature amounts obtained by photographing the plant at each time for each type of plant. Yes.
図2に示した植物状態データベースDBは、各植物を撮影した場合に得られる画像の色を示すマルチスペクトルデータを、1年に含まれる各月に対応して保持している。なお、植物状態データベースは、図2に示した例に限らず、例えば、1年に含まれる各週あるいは各日に対応して、各植物を撮影した場合に得られる画像の色を示すマルチスペクトルデータをしてもよい。 The plant state database DB shown in FIG. 2 holds multispectral data indicating the color of an image obtained when each plant is photographed corresponding to each month included in one year. The plant state database is not limited to the example shown in FIG. 2, but for example, multispectral data indicating the color of an image obtained when each plant is photographed corresponding to each week or each day included in one year. You may do.
図2の例に示したマルチスペクトルデータは、可視光領域に含まれる赤色帯、緑色帯及び青色帯をそれぞれ代表するスペクトル値と、赤外領域に含まれる近赤外帯を代表するスペクトル値とを含んでいる。なお,図2において、赤色帯、緑色帯、青色帯及び近赤外帯を、それぞれ符号「赤」、「緑」、「青」、「近赤外」で示した。また、植物状態データベースDBに保持する各マルチスペクトルデータは、図2の例に限らず、上述した4つの波長帯とは異なる波長帯のスペクトル値を含んでもよいし、異なる数の波長帯のスペクトル値を含んでもよい。 The multispectral data shown in the example of FIG. 2 includes spectral values representing the red band, green band and blue band included in the visible light region, and spectral values representing the near infrared band included in the infrared region. Is included. In FIG. 2, the red band, the green band, the blue band, and the near-infrared band are indicated by the symbols “red”, “green”, “blue”, and “near-infrared”, respectively. Each multispectral data stored in the plant state database DB is not limited to the example of FIG. 2, and may include spectrum values in wavelength bands different from the above-described four wavelength bands, or spectra in different numbers of wavelength bands. It may contain a value.
図2に示した植物状態データベースDBは、植物の種類の一例である稲に対応して、4月に稲を撮影した場合に得られるマルチスペクトルデータおよび12月に稲を撮影した場合に得られるマルチスペクトルデータを含む情報を保持している。なお、図2の例では、4月に稲を撮影した場合に得られるマルチスペクトルデータを、符号R_r4,G_r4,B_r4,IR_r4で示している。また、12月に稲を撮影した場合に得られるマルチスペクトルデータを、符号R_r12,G_r12,B_r12,IR_r12で示している。 The plant state database DB shown in FIG. 2 is obtained when multi-spectrum data obtained when rice is photographed in April and when rice is photographed in December, corresponding to rice that is an example of plant types. It holds information including multispectral data. In the example of FIG. 2, multispectral data obtained when rice is photographed in April are denoted by reference characters R_r4, G_r4, B_r4, and IR_r4. In addition, multispectral data obtained when rice is photographed in December are indicated by symbols R_r12, G_r12, B_r12, and IR_r12.
同様に、図2に示した植物状態データベースDBは、植物の種類の別例であるカエデに対応して、4月にカエデを撮影した場合に得られるマルチスペクトルデータおよび12月にカエデを撮影した場合に得られるマルチスペクトルデータを含む情報を保持している。なお、図2の例では、4月にカエデを撮影した場合に得られるマルチスペクトルデータを、符号R_m4,G_m4,B_m4,IR_m4で示している。また、12月にカエデを撮影した場合に得られるマルチスペクトルデータを、符号R_m12,G_m12,B_m12,IR_m12で示している。 Similarly, the plant state database DB shown in FIG. 2 corresponds to a maple which is another example of the kind of plant, multispectral data obtained when a maple is photographed in April, and a maple is photographed in December. It holds information including multispectral data obtained in some cases. In the example of FIG. 2, multispectral data obtained when maple is photographed in April are indicated by reference symbols R_m4, G_m4, B_m4, and IR_m4. Further, multispectral data obtained when a maple is photographed in December are denoted by reference symbols R_m12, G_m12, B_m12, and IR_m12.
また、図2に示した植物状態データベースDBは、植物の種類の別例であるサクラに対応して、4月にサクラを撮影した場合に得られるマルチスペクトルデータおよび12月にサクラを撮影した場合に得られるマルチスペクトルデータを含む情報を保持している。なお、図2の例では、4月にサクラを撮影した場合に得られるマルチスペクトルデータを、符号R_c4,G_c4,B_c4,IR_c4で示している。また、12月にサクラを撮影した場合に得られるマルチスペクトルデータを、符号R_c12,G_c12,B_c12,IR_c12で示している。 In addition, the plant state database DB shown in FIG. 2 corresponds to the cherry tree which is another example of the plant type, and the multispectral data obtained when the cherry tree is photographed in April and the cherry tree is photographed in December. Holds information including multispectral data obtained. In the example of FIG. 2, multispectral data obtained when a cherry tree is photographed in April are indicated by reference symbols R_c4, G_c4, B_c4, and IR_c4. Further, multispectral data obtained when a cherry tree is photographed in December are denoted by reference symbols R_c12, G_c12, B_c12, and IR_c12.
例えば、被写体の植物がカエデである旨の判別結果が得られた場合に、図1に示した推定部12は、上述した植物データベースDBのカエデに対応する情報から、画像Bの撮影時期である12月に対応するマルチスペクトルデータを取得することができる。
For example, when a determination result that the subject plant is a maple is obtained, the
推定部12は、上述したようにして得られたマルチスペクトルデータを、推定した特徴量として評価部13に渡す。なお、推定部12は、画像Bについては植物を判別できるが、画像Aについては植物を判別できない旨の判別結果が得られた区画について、判別された植物と画像Aの撮影時期とで特定されるマルチスペクトルデータを、推定した特徴量として評価部13に渡してもよい。また、推定部12は、植物状態データベースDBを利用する代わりに、各植物について季節や農作業の進捗に対応する当該植物の状態の変化を表すモデルを構築し、構築したモデルに基づいて、所望の時期に植物の状態を示す特徴量を推定してもよい。
The
評価部13は、画像Aについては植物を判別できるが、画像Bについては植物を判別できない旨の判別結果が得られた各区画について、推定部12で得られた特徴量と、画像Bに含まれる当該区画の画像の特徴量との類似性を評価する。例えば、評価部13は、画像Bの当該区画の特徴量として、例えば、当該区画の色を示すマルチスペクトルデータを判別部11から受け取り、受け取ったマルチスペクトルデータと推定部12で得られたマルチスペクトルデータとの類似度を算出してもよい。同様に、評価部13は、画像Bについては植物を判別できるが、画像Aについては植物を判別できない旨の判別結果が得られた各区画について、推定部12で得られた特徴量と、画像Bに含まれる当該区画の画像の特徴量との類似性を評価する。評価部13は、例えば、式(1)を用いて、2つのマルチスペクトルデータ間のユークリッド距離Dを算出し、得られたユークリッド距離Dを、値が小さいほど高い類似性があることを示す類似度として、判断部14に渡してもよい。
D=((Br1−Br2)2+(Bg1−Bg2)2+(Bb1−Bb2)2+(Bir1−Bir2)2)1/2 ・・・(1)
なお、式(1)において、推定部12で推定されたマルチスペクトルデータを符号Br1,Bg1,Bb1,Bir1で示し、植生が未判別の画像に含まれる区画に対応するマルチスペクトルデータを符号Br2,Bg2,Bb2,Bir2で示した。以下の説明では、マルチスペクトル間のユークリッド距離を、単に、マルチスペクトルデータ間の距離と称する。
The
D = ((Br1-Br2) 2 + (Bg1-Bg2) 2 + (Bb1-Bb2) 2 + (Bir1-Bir2) 2) 1/2 ··· (1)
In Equation (1), the multispectral data estimated by the
判断部14は、評価部13で得られた類似度により、推定部12で得られた特徴量と、植生が未判別の画像に含まれる区画の特徴量との間に類似性があることが示された場合に、画像A,Bの撮影時期の間に当該区画に対応する地点の植生は変化していないと判断する。例えば、推定部12で得られた12月のカエデが呈する色を示すマルチスペクトルデータと、画像Bの当該区画のマルチスペクトルデータとが類似すると評価された場合に、判断部14は、当該区画に対応する地点の植生に変化はないと判断する。つまり、判断部14は、画像A,Bに含まれる区画の特徴量の差異が、植生の判別結果として得られた植物が画像A,Bの撮影時期の間に呈する変化に相当する場合に、植生の変化はないと判断する。
The
逆に、推定部12で得られた特徴量と、植生が未判別の画像に含まれる区画の特徴量との間に類似性がないことが示された区画について、判断部14は、画像A,Bの撮影時期の間に当該区画の植生が変化したと判断する。つまり、判断部14は、画像A,Bに含まれる区画の特徴量の差異が、植生の判別結果として得られた植物が画像A,Bの撮影時期の間に呈する変化とは異なる場合に、植生の変化があると判断する。
On the other hand, for the section indicated that there is no similarity between the feature amount obtained by the
このようにして、判断部14は、一方の画像において植生が未判別となった区画についても、当該区画の特徴量の差が他方の画像で判別された植物の状態変化を反映しているか否かに基づいて、対応する地点の植生に変化があるか否かを判断することができる。
In this way, the
なお、画像A,Bの撮影時期の間に当該区画の植生は変化していないと判断した場合に、判断部14は、画像A,Bにそれぞれ含まれる当該区画に対応する地点の植生は、同一であると判断することができる。つまり、一方の画像について判別部11によって得られた植物の種類の判別結果を、未判別となっていた画像の当該区画の判別結果として表示装置1に渡してもよい。
When it is determined that the vegetation of the section has not changed during the shooting times of the images A and B, the
また、判断部14は、画像A,Bにそれぞれ含まれる区画についてそれぞれ判別された植物の種類を示す情報を判別部11から受け取り、受け取った情報を照合することで、画像A,Bの撮影時期の間に当該区画に対応する地点の植生が変化したかを判断してもよい。
In addition, the
このように、本件開示の植生判定装置10によれば、判別部11により、画像A,Bのうち少なくとも一方について植生を判別できた区画について、画像A,Bの撮影時期の間に植生の変化があったか否かを判定することができる。これにより、例えば、二枚の画像の一方に撮影された植物が、冬季における落葉広葉樹林のように必ずしも典型的な状態を呈していない場合にも、対応する地域の植生に変化があるか否かを判定することが可能となる。つまり、本件開示の植生判定装置10によれば、処理対象の二枚の画像の一方が、撮影範囲に含まれる植物が典型的な状態を呈していない時期に撮影されている場合にも、二枚の画像の撮影時期の間に植生の変化があったか否かを判定することができる。
Thus, according to the
すなわち、本件開示の植生判定装置10によれば、二枚の画像それぞれが撮影された時期にかかわらず、画像の撮影範囲における植生の変化の有無を判定することができる。また、複数の画像から様々な組み合わせで選択した二枚の画像を本件開示の植生判定装置10に入力し、入力された二枚の画像それぞれに対応する撮影時期の間に画像の撮影範囲における植生の変化の有無を判定することも可能である。
That is, according to the
なお、図1に示した植生判定装置10による植生の変化の有無を判定する処理は、例えば、図3および図4に示すフローチャートによって表すことができる。
In addition, the process which determines the presence or absence of the change of the vegetation by the
図3および図4は、植生変化の有無を判定する処理のフローチャートの例を示している。図3に示したフローチャートと図4に示したフローチャートとは、符号1,2,3を付した結合子で接続されている。また、図1に示した植生判定装置10は、画像A,Bにそれぞれ含まれる区画ごとに、図3に示したステップ311〜ステップ317の処理および図4に示したステップS11〜S15の処理を実行する。
3 and 4 show examples of flowcharts of processing for determining the presence or absence of vegetation change. The flowchart shown in FIG. 3 and the flowchart shown in FIG. 4 are connected by connectors having
まず、植生判定装置10は、画像A,Bにそれぞれ含まれる処理対象の区画に対応する地点の植生を判別する(ステップ311)。
First, the
次いで、植生判定装置10は、ステップ311の処理で、画像A,Bのどちらか一方で植生の判別が成功し、他方で判別が失敗したか否かを判定する(ステップ312)。
Next, the
例えば、画像Aに含まれる区画について植生の判別が成功し、画像Bに含まれる区画についての植生の判別が失敗した場合に、植生判定装置10は、ステップ312の肯定判定ルート(YES)に従ってステップ313の処理に進む。一方、画像A,Bにそれぞれ含まれる区画の両方について植生の判別が成功した場合および両方とも失敗した場合に、植生判定装置10は、後述するように、ステップ312の否定判定ルート(NO)の処理を実行する。なお、以下の説明では、処理対象の区画について、ステップ311の処理で対応する地点の植生が判別できた画像を判別済画像と称し、判別できなかった画像を未判別画像と称する。
For example, when the vegetation determination succeeds for the section included in the image A and the vegetation determination fails for the section included in the image B, the
ステップ313において、植生判定装置10は、植物状態データベースDBから得られる植物情報に基づいて、成功した判別処理で得られた植物が、未判別画像の撮影時期に呈する状態を示す特徴量を推定する。植生判定装置10は、成功した判別処理で示される植物に対応して、植物状態データベースDBに蓄積された情報から、未判別画像の撮影時期に対応するマルチスペクトルデータを、推定される特徴量として取得してもよい。例えば、処理対象の区画において、画像Aが判別済画像であり、画像Bが未判別画像である場合に、植生判定装置10は、画像Aについて得られた植物に対応する情報のうち、画像Bの撮影時期に対応するマルチスペクトルデータを推定される特徴量として取得する。逆に、処理対象の区画において、画像Bが判別済画像であり、画像Aが未判別画像である場合に、植生判定装置10は、画像Bについて得られた植物に対応する情報のうち、画像Aの撮影時期に対応するマルチスペクトルデータを推定される特徴量として取得する。
In
次に、植生判定装置10は、ステップ313の処理で推定された特徴量と、未判別画像に含まれる処理対象の区画の特徴量との類似性を評価する(ステップ314)。ステップ314の処理において、植生判定装置10は、例えば、上述した二つの特徴量の類似性を示す指標として、二つの特徴量を示すマルチスペクトルデータ間の距離を算出してもよい。
Next, the
ステップ314の処理で得られた類似度と所定の閾値との比較に基づいて、植生判定装置10は、上述した二つの特徴量が類似するか否かを判定する(ステップ315)。植生判定装置10は、例えば、マルチスペクトルデータ間の距離が所定の閾値以下であるか否かに基づいて、植生が未特定である画像Bの当該区画の特徴量が、画像Aについて判別された植物について推定された特徴量に類似しているか否かを評価することができる。
Based on the comparison between the similarity obtained in the process of
なお、ステップ315の処理の過程で用いる閾値の値は、種類の異なる植物のマルチスペクトルデータ間の距離よりは小さく、各植物が各時期において呈する状態を示すマルチスペクトルデータの揺らぎに相当する値よりは大きい値に設定することが望ましい。植生判定装置10が、このような閾値を用いてステップ315の処理を実行することにより、画像を撮影した際の気象条件や個々の植物の個体差などによるスペクトル特性のばらつきの範囲を、類似すると判断する際の許容範囲に含めることができる。
Note that the threshold value used in the process of
上述した二つの特徴量が類似すると判定した場合に(ステップ315の肯定判定)、植生判定装置10は、当該区画に対応する地点において、画像A,Bの撮影時期間に植生の変化はない旨の判断結果を出力する(ステップ316)。
When it is determined that the above-described two feature quantities are similar (affirmative determination in step 315), the
一方、上述した二つの特徴量が類似しないと判定した場合に(ステップ315の否定判定)、植生判定装置10は、当該区画に対応する地点において、画像A,Bの撮影時期間に植生の変化があった旨の判断結果を出力する(ステップ317)。
On the other hand, when it is determined that the above-described two feature quantities are not similar (negative determination in step 315), the
上述したステップ311の処理は、各区画の画像の特徴量に基づいて、当該区画に撮影された植物の種類を判別する処理の一例である。
The process in
また、上述したステップ312の処理は、画像A,Bの一方に含まれる区画について植生が判別でき、他方に含まれる区画について判別できない場合と、他の場合とを峻別する処理の一例である。
Further, the processing in
また、ステップ313の処理は、一方の画像に基づいて判別された植物が、他方の画像の撮影時期に呈する状態を示す画像の特徴量を推定する処理の一例である。
Further, the process in
同様に、ステップ314の処理は、推定された特徴量と、他方の画像における処理対象の区画の特徴量との類似性を評価する処理の一例である。
Similarly, the process in
また、ステップ315〜ステップ317の処理は、上述したようにして峻別された場合について、類似性の評価結果に基づいて、当該区画に対応する地点の植生に変化があったか否かを判断する処理の一例である。
Moreover, the process of step 315-
つまり、植生判定装置10が、以上に述べたステップ311〜ステップ317の処理を実行することは、本件開示の植生判定プログラム及び植生判定方法の実施形態の一例である。本件開示の植生判定プログラム及び植生判定方法によれば、画像の一方で植物が判別できない場合にも、各画像に含まれる処理対象の区画の特徴量の違いが、撮影時期の違いによる植物の状態変化を反映している場合に、植生の変化がないと判定することができる。これにより、本件開示の植生判定プログラム及び植生判定方法によれば、二枚の画像それぞれが撮影された時期にかかわらず、画像の撮影範囲における植生の変化の有無を判定することができる。
That is, the
また、上述したステップ312の否定判定の場合に、植生判定装置10が、図4に示したステップS11〜ステップS15の処理を実行し、画像A,B内の処理対象の区画に対応する地点の植生の判別が両方成功した場合や失敗した場合につき判断してもよい。
Moreover, in the case of the negative determination of
まず、植生判定装置10は、画像A,Bに含まれる処理対象の区画の両方について植生の判別が成功したか否かを判定する(ステップS11)。
First, the
両方について植生の判別が成功した場合に(ステップS11の肯定判定)、植生判定装置10は、画像A,Bにそれぞれ含まれる処理対象の区画についての判別結果として得られた植物の種類を照合する(ステップS12)。そして、ステップ312の処理による照合結果に基づいて、画像A,Bにそれぞれ含まれる処理対象の区画についての判別結果が一致するか否かを判定する(ステップS13)。
When the vegetation determination is successful for both (affirmative determination in step S11), the
画像A,Bにそれぞれ含まれる処理対象の区画について得られた植物の種類が一致した場合に(ステップS13の肯定判定)、植生判定装置10は、結合子2を介して図3のステップ316に進み、植生に変化はない旨の判断結果を出力する。
When the types of plants obtained for the sections to be processed included in the images A and B match (affirmative determination in step S13), the
例えば、5月と11月とにそれぞれ撮影された画像A,Bの処理対象の区画について、当該区画に対応する地点の植生をカエデとする判別結果を得た場合に(ステップS13の肯定判定)、植生判定装置10は、処理対象の区画に植生の変化はないと判断する。
For example, when a determination result is obtained for the processing target sections of the images A and B taken in May and November, respectively, where the vegetation at the point corresponding to the section is a maple (affirmative determination in step S13). The
ここで、5月のカエデは新緑の状態であるのに対して、11月のカエデは紅葉の状態である可能性が高い。このため、5月と11月とにおけるカエデの状態をそれぞれ反映した画像に含まれる処理対象の区画の特徴量であるマルチスペクトルデータ自体には明らかな差異が現れる。しかしながら、各画像における当該区画がカエデの典型的な状態を表していれば、上述したステップ311の処理の過程で、同一の植物を示す情報を判別結果として得ることができる。このように、植生判定装置10によれば、二枚の画像に含まれる処理対象の区画について同一の植物を示す特定結果が得られた場合に、画像自体の差異にかかわらず、当該区画に対応する地点の植生に変化はないと判断することができる。
Here, the maple in May is in a fresh green state, whereas the maple in November is likely to be in a state of autumn leaves. For this reason, a clear difference appears in the multispectral data itself, which is the feature quantity of the section to be processed, included in the images reflecting the maple states in May and November. However, if the section in each image represents a typical maple state, information indicating the same plant can be obtained as a discrimination result in the process of
一方、画像A,Bにそれぞれ含まれる処理対象の区画について得られた植物の種類が一致しない場合に(ステップS12の否定判定)、植生判定装置10は、結合子3を介して図3のステップ317に進み、植生に変化がある旨の判断結果を出力する。
On the other hand, when the types of plants obtained for the sections to be processed included in the images A and B do not match (negative determination in step S12), the
ところで、上述したステップS11の否定判定の場合に、植生判定装置10は、両方について植生の判別が失敗したと判断する。この場合に、植生判定装置10は、判定できない旨の判断結果を出力してもよいし、次に述べるステップS14,S15の処理を実行することで、処理対象の区画に対応する地点の植生に変化があるか否かを判定してもよい。
By the way, in the case of the negative determination of step S11 mentioned above, the
植生判定装置10は、画像A,Bにそれぞれ含まれる処理対象の区画の特徴量の差dを求め(ステップS14)、得られた差dが所定の閾値Th未満である否かを判定する(ステップS15)。なお、閾値Thは、植生に変化がない場合に各区画の特徴量の差として得られる値のばらつきよりも大きい値を設定することが望ましい。また、例えば、画像A,Bそれぞれの撮影時期における各植物に対応する特徴量の差の平均値と同程度の値を設定してもよい。また、画像A,Bの間で植生の変化があるとされた区画について得られる特徴量の差の最小値あるいは変化がないとされた区画について得られる特徴量の最大値と同程度の値を、閾値Thの値を設定してもよい。
The
ステップS14の処理で得られた差dが上述した閾値Thよりも小さい場合に(ステップS15の肯定判定)、植生判定装置10は、結合子2を介して図3のステップ316に進み、植生に変化はない旨の判断結果を出力する。
When the difference d obtained in the process of step S14 is smaller than the threshold value Th described above (positive determination in step S15), the
一方、ステップS14の処理で得られた差dが上述した閾値Th以上である場合に(ステップS15の否定判定)、植生判定装置10は、結合子3を介して図3のステップ317に進み、植生に変化がある旨の判断結果を出力する。
On the other hand, when the difference d obtained in the process of step S14 is greater than or equal to the above-described threshold Th (negative determination of step S15), the
ここで、図1に示した画像A,Bの少なくとも一方の撮影時期が樹木の葉が茂っている時期であれば、少なくとも当該画像については、上述したステップ311の処理で、処理対象の区画に対応する地点の植生を示す情報が得られる。したがって、上述したステップS14およびステップS15の処理は、画像A,Bの両方が冬季に撮影された場合のように、非常に限られたケースに限って実行される。
Here, if the shooting time of at least one of the images A and B shown in FIG. 1 is a time when leaves of trees are growing, at least the image corresponds to the section to be processed in the processing of
以上に述べた植生判定装置10および植生判定プログラム並びに植生判定方法は、異なる時期に所定の地域を撮影した二枚の画像から土地の用途が変化した箇所を示す差分を検出する技術に適用することもできる。
The
以下、本件開示の植生判定プログラムおよび植生判定方法を適用した差分検出を実施する差分検出装置とともに、本件開示の植生判定プログラムおよび植生判定方法の別実施形態について説明する。 Hereinafter, another embodiment of the vegetation determination program and the vegetation determination method of the present disclosure will be described together with a difference detection device that performs difference detection to which the vegetation determination program and the vegetation determination method of the present disclosure are applied.
本件開示の植生判定方法を適用した差分検出を実施する差分検出装置16は、例えば、図5に示すように、パーソナルコンピュータなどのクライアント装置とネットワーク内に配置されたサーバ装置とを含むコンピュータシステムを用いて実現することができる。
For example, as shown in FIG. 5, the
図5は、差分検出装置16のハードウェア構成の一例を示している。図5の例は、差分検出装置16を、サーバ装置20とクライアント装置30とをネットワークNWによって接続したコンピュータシステムによって実現した例を示している。
FIG. 5 shows an example of the hardware configuration of the
図5に示したサーバ装置20は、プロセッサ21と、メモリ22と、ハードディスク装置23と、ネットワークインタフェース(I/F:InterFace)24とを含んでいる。プロ
セッサ21と、メモリ22と、ハードディスク装置23と、ネットワークインタフェース24とは、バスを介して互いに接続されており、また、サーバ装置20は、ネットワークインタフェース24を介してネットワークNWに接続されている。上述したプロセッサ21と、メモリ22と、ハードディスク装置23と、ネットワークインタフェース24とは、差分検出装置16に含まれている。
The
また、図5に示したクライアント装置30は、プロセッサ31と、メモリ32と、ハードディスク装置33と、ネットワークインタフェース(I/F)34と、表示部35と、汎用インタフェース36とを含んでいる。プロセッサ31と、メモリ32と、ハードディスク装置33と、ネットワークインタフェース34と、表示部35と、汎用インタフェース36とは、バスを介して互いに接続されている。上述したプロセッサ31と、メモリ32と、ハードディスク装置33と、ネットワークインタフェース(I/F)34と、汎用インタフェース36とは、差分検出装置16に含まれる。
The client device 30 shown in FIG. 5 includes a
また、クライアント装置30は、ネットワークインタフェース34を介してネットワークNWに接続されており、更に、汎用インタフェース36を介して、撮像装置2に接続されている。クライアント装置30は、汎用インタフェース36を介して、撮像装置2によって撮影された画像を受け取り、受け取った画像を、更に、ネットワークNWを介して、サーバ装置20内の差分検出装置10に、図1に示した画像A,Bとして渡すことができる。つまり、撮像装置2で得られる画像は、図1に示した画像A,Bの一例である。
The client device 30 is connected to the network NW via the
なお、撮像装置2は、可視光領域に含まれる赤色帯,緑色帯及び青色帯と、赤外光領域の近赤外帯とにそれぞれ含まれる複数の波長帯の光について感度を持つマルチスペクトルセンサを含んでいることが望ましい。以下では、撮像装置2で得られる画像に含まれる各画素の画素値が、上述した複数の波長帯に対応するスペクトル値を含むマルチスペクトルデータである場合について説明する。
Note that the
クライアント装置30のメモリ32は、オペレーティングシステムとともに、サーバ装置20との間で上述した植生判定処理を含む差分検出処理にかかわる情報をやり取りする処理をプロセッサ31が実行するためのアプリケーションプログラムを格納している。上述したアプリケーションプログラムは、汎用インタフェース36を介して撮像装置2から画像を取得し、取得した画像をネットワークNW経由でサーバ装置20に渡す処理をプロセッサ321に実行させるためのアプリケーションプログラムを含んでいる。また、上述したアプリケーションプログラムは、サーバ装置20が後述する処理を実行することで得た検出結果をネットワークNW経由で受け取る処理をプロセッサ321に実行させるためのアプリケーションプログラムを含んでいる。また、上述したアプリケーションプログラムは、サーバ装置20から取得した処理結果を、表示部35を介して利用者に提示する処理をプロセッサ321に実行させるためのアプリケーションプログラムを含んでいる。
The
図5に示したメモリ22は、サーバ装置20のオペレーティングシステムとともに、プロセッサ21が上述した植生判定処理を含む差分検出処理を実行するためのアプリケーションプログラムを格納している。なお、植生判定処理を含む差分検出処理を実行するためのアプリケーションプログラムは、例えば、光ディスクなどのリムーバブルディスクに記録して頒布することができる。そして、このリムーバブルディスクをサーバ装置20の図示しない光学ドライブ装置に装着して読み込み処理を行うことにより、上述した差分検出処理を実行するためのアプリケーションプログラムを、メモリ22およびハードディスク装置23に格納させてもよい。また、ネットワークインタフェース24を介して、他のサーバ装置などから上述した差分検出処理を実行するためのアプリケーションプログラムを受け取り、メモリ22およびハードディスク装置23に読み込ませることもできる。また、上述した差分検出処理を実行するためのアプリケーションプログラムは、図2に示したような植物状態データベースDBをハードディスク装置23内などに構築するための情報とともに提供することが望ましい。
The
プロセッサ21は、メモリ22に格納されたアプリケーションプログラムを実行することにより、図1に示した判別部11,推定部12,評価部13および判断部14の機能を果たしてもよい。また、プロセッサ21は、判別部11及び推定部12の機能を実現する際に、ハードディスク装置23内などに構築された植物状態データベースDBに蓄積された情報を参照してもよい。
The
このように、本件開示の植生判定装置10は、例えば、上述したサーバ装置20に含まれるプロセッサ21と、メモリ22と、ハードディスク装置23との協働によって実現することができる。
As described above, the
図6は、図5に示したサーバ装置20が実行する差分検出処理のフローチャートの一例を示している。図6に示したステップ301〜ステップ309の各処理は、差分検出処理のためのアプリケーションプログラムに含まれる処理の一例である。また、これらのステップ301〜ステップ309の各処理は、サーバ装置20のプロセッサ21によって実行される。
FIG. 6 shows an example of a flowchart of difference detection processing executed by the
まず、プロセッサ21は、図5に示したクライアント装置30から取得した二枚の画像について、位置合わせを行い、更に、二枚の画像で共通する撮影範囲に対応する画像中の領域を、差分検出対象の領域として特定する(ステップ302)。
First, the
ここで、クライアント装置30は、予め、撮像装置2から取得した複数の画像をハードディスク装置33に蓄積しておき、蓄積した画像の中から、二枚の画像をネットワークNW経由でサーバ装置20に送出してもよい。なお、クライアント装置30が二枚の画像を送出する際に、各画像の撮影日時を示す情報とともに、これらの画像の位置合わせに有用な情報を送出することが望ましい。例えば、二枚の画像がいずれも航空機などから撮影された画像である場合に、位置合わせに有用な情報は、撮影地点の緯度及び経度を示す情報や、撮影倍率、撮影時の航空機等の高度などを示す情報を含んでいることが望ましい。なお、二枚の画像の位置合わせは、画像認識技術を用いて実施されてもよく、その場合に、撮影倍率や航空機等の高度を示す情報の付加は省略してもよい。
Here, the client device 30 stores a plurality of images acquired from the
また、プロセッサ21は、例えば、二枚の画像とともに受け取った情報に基づいて、二枚の画像で共通する撮影範囲に対応する領域を各画像からそれぞれ抽出し、抽出した領域を差分検出対象の領域としてもよい。プロセッサ21は、ステップ301の処理の過程で、二枚の画像それぞれについて特定した差分検出対象の領域に含まれる各画素が、撮影範囲の地表面において同等の大きさの範囲に対応するように、画像の大きさを調整することが望ましい。
Further, for example, based on the information received together with the two images, the
次いで、プロセッサ21は、各画像において特定した差分検出対象の領域内に含まれる区画の一つを以降の処理の対象として選択する(ステップ302)。プロセッサ21は、例えば、各画像の差分検出対象の領域内に含まれる画素の一つを、順次に、処理対象の区画として選択してもよいし、複数画素を含むブロックを一つの区画として選択してもよい。
Next, the
ステップ302の処理で選択した区画について、プロセッサ21は、まず、当該区画の特徴量に基づいて、当該区画に対応する地表面の範囲が植物に覆われているか否かを判断する(ステップ303)。各区画が1画素である場合に、プロセッサ21は、1画素に対応するマルチスペクトルセンサによる観測値であるマルチスペクトルデータとして、処理対象の区画の特徴量を取得する。一方、各区画が複数の画素を含むブロックである場合に、プロセッサ21は、区画に含まれる複数の画素に対応するマルチスペクトルデータの平均値を求めることで、各区画の特徴量を得てもよい。プロセッサ21は、例えば、二枚の画像から選択された処理対象の画素の画素値として得られるマルチスペクトルデータに基づいて、それぞれ植生指標(NDVI:Normalized Difference Vegetation Index)を算出する。プロセッサ21は、例えば、マルチスペクトルデータに含まれる近赤外帯のスペクトル値Birおよび赤色帯のスペクトル値Brとから、式(2)を用いて、植生指標NDVIを算出してもよい。
NDVI=(Bir−Br)/(Bir+Br) ・・・(2)
また、プロセッサ21は、得られた植生指標が所定値以上である場合に、当該区画に対応する地表面の範囲が植物に覆われている植生領域であると判断する。なお、植生指標と比較される所定値は、例えば、植生領域を撮影した画像について得られる植生指標の最小値程度の値を設定することができる。
For the section selected in the process of
NDVI = (Bir−Br) / (Bir + Br) (2)
Further, when the obtained vegetation index is equal to or greater than a predetermined value, the
次いで、プロセッサ21は、ステップ303の処理により、二枚の画像から選択された処理対象の区画の両方について、植生領域でないとの判断結果が得られたか否かにより、当該区画に対応する地点が植生領域である可能性の有無を判定する(ステップ304)。
Next, the
ステップ304の肯定判定(YES)の場合に、プロセッサ21は、図3および図4に示したようにして、植生の変化を判定する処理を実行し(ステップ305)、得られた判定結果に基づいて、差分検出結果を生成する(ステップ306)。プロセッサ21は、ステップ305の処理の過程において、図3に示したステップ311の処理およびステップ313の処理を実行する際に、図5に示したハードディスク装置23に設けられた植物状態データベースDBに蓄積された情報を参照することができる。なお、ステップ311およびステップ313の処理のより好ましい例については、後述する。
In the case of an affirmative determination (YES) in
プロセッサ21が、ステップ305の処理を実行することにより、二枚の画像の撮影時期の間に植生の変化はない旨の判定結果を得た場合に、処理対象の区画は、二枚の画像間の差分に含まれないとする検出結果を生成する。一方、ステップ305の処理で、二枚の画像の撮影時期の間に植生の変化があると判定された場合に、プロセッサ21は、処理対象の区画は二枚の画像間の差分に含まれるとする検出結果を生成する。
When the
このように、プロセッサ21が、ステップ305およびステップ306の処理を実行することにより、対応する地点の植生に変化がある場合に、当該区画を二枚の画像間の差分として検出し、変化がない場合に差分から除外することができる。
As described above, when the
これにより、撮影時期の異なる二枚の画像間の変化が、処理対象の区画に写っている植物の状態の変化である場合に、当該区画を画像間の差分として誤って検出しないようにすることができる。つまり、各区画について、プロセッサ21が、本件開示の植生判定プログラムに従う処理を実行することで、植物の状態変化に伴って画像が変化した区画を、誤って画像間の差分として検出してしまうといった誤検出を低減することができる。
As a result, when the change between two images with different shooting times is a change in the state of the plant in the section to be processed, the section is not erroneously detected as a difference between the images. Can do. That is, for each section, the
また、撮影時期の異なる二枚の画像間の変化が、処理対象の区画に写っている植物の状態の変化にそぐわない場合に、当該区画に対応する地点の植生に変化があったと判断し、画像間の差分として検出できる。これにより、例えば、次に説明する例のように、二枚の画像を比較することで差分を検出する従来手法では見落とされる可能性のある土地の利用状況の変化を漏れなく検出することができる。 If the change between two images with different shooting times does not match the change in the state of the plant shown in the processing target section, it is determined that the vegetation at the point corresponding to the section has changed, and the image It can be detected as a difference between them. As a result, for example, as in the example described below, it is possible to detect changes in land use status that may be overlooked in the conventional method of detecting a difference by comparing two images. .
例えば、5月に撮影された画像の処理対象の区画について植生が稲である旨の判別結果が得られ、11月に撮影された画像の処理対象の区画についての植生が判別できない場合を考える。この場合に、11月に撮影された画像の処理対象の区画に、枯れていない雑草などが写っていれば、上述した二枚の画像に含まれる処理対象の区画の特徴量であるマルチスペクトルデータ自体には明らかな差異がない可能性もある。しかしながら、管理された圃場においては、5月の稲は田植え後の生育が旺盛な状態であるのに対して、11月の稲は刈り取り後の状態である。このように、管理された圃場における稲の各時期における状態を示す情報が、図5に示した植物状態データベースDBに反映されていれば、プロセッサ21は、二枚の画像の処理対象の区画の特徴量に変化が少ないことを植生の変化として検出することができる。これにより、画像自体の類似にかかわらず、当該区画に対応する地点の植生に変化があったことから、当該区画を二枚の画像間の差分として検出することができる。
For example, let us consider a case where a determination result that the vegetation is rice is obtained for the processing target section of the image photographed in May and the vegetation for the processing target section of the image photographed in November cannot be determined. In this case, if weeds that have not withered appear in the processing target section of the image taken in November, the multispectral data that is the feature amount of the processing target section included in the two images described above. There may be no obvious difference in itself. However, in the managed field, the rice in May is in a state of vigorous growth after planting, whereas the rice in November is in a state after cutting. As described above, if the information indicating the state of each rice in the managed field is reflected in the plant state database DB illustrated in FIG. 5, the
一方、ステップ304の否定判定(NO)の場合に、プロセッサ21は、二枚の画像それぞれから選択された処理対象の区画の特徴量を比較し、比較結果に基づいて、当該区画を二枚の画像間の差分として検出するか否かを決定する(ステップ307)。プロセッサ21は、例えば、二枚の画像にそれぞれ含まれる処理対象の区画の特徴量の差として、これらの区画に対応するマルチスペクトルデータ間の距離を算出し、得られた距離が所定の閾値以上である場合に、当該区画を二枚の画像間の差分として検出する。一方、得られた距離が所定の閾値未満である場合に、プロセッサ21は、当該区画は二枚の画像間の差分に含まれないと判断する。
On the other hand, in the case of a negative determination (NO) in
ここで、ステップ307の処理の過程でマルチスペクトルデータ間の距離と比較される閾値は、例えば、土地の利用状況が変化していない場合に得られるマルチスペクトルデータの揺らぎよりも大きい値に設定することが望ましい。
Here, the threshold value to be compared with the distance between the multispectral data in the process of
上述したステップ304の肯定判定ルートの処理と否定判定ルートの処理は、ステップ308において合流する。ステップ308において、プロセッサ21は、ステップ306あるいはステップ307の処理で得られた差分検出結果を、処理対象の区画に対応して利用者に提示するための画像情報を生成する。プロセッサ21は、生成した画像を図5に示したネットワークインタフェース24を介してクライアント装置30に返してもよい。例えば、プロセッサ21は、ステップ306あるいはステップ307で得られた検出結果により、当該区画が二枚の画像間の差分であることが示された場合に、当該区画の表示色などを変更することで強調表示する画像情報を生成してもよい。このようにして生成された画像情報を、図5に示したネットワークインタフェース24を介してクライアント装置30に返し、クライアント装置30の表示部35による表示処理に供することで、利用者に提示することができる。
The affirmative determination route processing and the negative determination route processing of
次いで、プロセッサ21は、上述したステップ302で特定した差分検出対象の領域内に含まれる全ての区画についてステップ302〜ステップ308の処理が終了したか否かを判定する(ステップ309)。
Next, the
未処理の区画がある場合に(ステップ309の否定判定)、プロセッサ21は、ステップ302の処理に戻り、未処理の区画の一つを処理対象の区画として選択し、ステップ303以降の処理を実行する。
When there is an unprocessed partition (negative determination at step 309), the
このようにしてステップ302〜ステップ309の処理を繰り返して実行していき、上述した領域内に含まれる全ての区画についての処理が完了したときに、プロセッサ21は、ステップ309の肯定判定として上述した領域全体についての差分検出処理を終了する。
In this way, the processing of
上述したようにして、二枚の画像について特定した差分検出対象の領域内の各区画単位で、土地の利用状況の変化を示す画像間の差分を検出し、差分として検出した各区画をクライアント装置30により利用者に提示することができる。 As described above, a difference between images indicating a change in land use status is detected for each section in a difference detection target area specified for two images, and each section detected as a difference is detected as a client device. 30 can be presented to the user.
このようにして提示された画像間の差分には、植物の状態が変化したことによって画像の特徴が変化したために誤検出された区画は含まれていない。したがって、落葉広葉樹林や圃場のように季節による変化が大きい植生の地域を異なる時期に撮影した画像から、土地の利用状況の変化を検出する用途において非常に有用である。 The difference between the images presented in this way does not include sections that are erroneously detected because the characteristics of the images have changed due to changes in the state of the plant. Therefore, it is very useful for detecting changes in land use status from images taken at different times of vegetation regions with large seasonal changes such as deciduous broad-leaved forests and farm fields.
ここで、落葉後の落葉広葉樹林や収穫後の圃場を上空から撮影した画像に含まれる各区画においては、植物の葉緑体の特性を反映したマルチスペクトルデータが得られないため、植生指標によっては植生領域と判断されない点にも留意されたい。このため、植生指標に基づいて植生の有無を判定する手法では、一方の画像が冬季に撮影されている場合に、落葉広葉樹林が写っている部分が、植生領域ではなくなった箇所として検出されてしまう。これに対して、図6に示した差分検出処理は、少なくとも一方の画像において植生が認められた区画について、本件開示の植生判定プログラム及び植生判定方法を適用することで、当該区画の画像が落葉したカエデに対応する可能性を考慮した差分検出を実現できる。 Here, in each section included in the image taken from the sky of the deciduous broad-leaved forest after defoliation and the field after harvest, multispectral data reflecting the characteristics of the chloroplasts of the plant cannot be obtained. Note that is not considered a vegetation area. For this reason, in the method of determining the presence or absence of vegetation based on the vegetation index, when one image is taken in winter, the part showing the deciduous broad-leaved forest is detected as a part that is no longer a vegetation area. End up. In contrast, the difference detection process illustrated in FIG. 6 applies the vegetation determination program and the vegetation determination method of the present disclosure to a section where vegetation is recognized in at least one of the images, so that the image of the section is deciduous. It is possible to realize difference detection in consideration of the possibility of corresponding to the maple.
ところで、図3に示したステップ311の処理は、プロセッサ21が、例えば、図7に示すステップ321〜ステップ328の処理を実行することによって実現することもできる。
By the way, the process of
図7は、植生を判別する処理のフローチャートの一例を示している。図7に示したステップ321〜ステップ328の各処理は、図3においてステップ311で示した植生を判別する処理の一例である。また、これらのステップ321〜ステップ328の各処理は、プロセッサ21によって実行される。
FIG. 7 shows an example of a flowchart of processing for discriminating vegetation. Each process of
まず、プロセッサ21は、二枚の画像の一方を処理対象として選択し(ステップ321)、選択した画像のタグ情報などから抽出した撮影時期を、当該画像の撮影範囲の地域の気候に基づいて補正する(ステップ322)。
First, the
プロセッサ21は、ステップ322において、例えば、図2に示した植物状態データベースDBで想定されている気候に比べて、撮影された地域の気候が寒冷であるか温暖であるかなどに応じて撮影時期の補正を行う。例えば、撮影時期が冬から春に向かう期間に含まれており、撮影された地域の気候が寒冷である場合に、プロセッサ21は、画像から取得した撮影時期を冬に向けて戻す方向にずらすように補正してもよい。また、例えば、撮影時期が冬から春に向かう期間に含まれており、撮影された地域の気候が温暖である場合に、プロセッサ21は、逆に、画像から取得した撮影時期を春に向けて進める方向にずらすように補正してもよい。
In
同様にして、撮影時期の前後の平均気温と平年の平均気温との違いなどの気象条件のばらつきを考慮して、植物状態データベースDBからの検索に用いる撮影時期についての補正を行ってもよい。 Similarly, the shooting time used for the search from the plant state database DB may be corrected in consideration of variations in weather conditions such as the difference between the average temperature before and after the shooting time and the average temperature of the normal year.
次に、プロセッサ21は、植物状態データベースDBに各植物に対応して登録された情報の中から、補正された撮影時期に対応して格納されたマルチスペクトルデータを、各植物の特徴量として検索する(ステップ323)。
Next, the
次いで、プロセッサ21は、処理対象の画像に含まれる処理対象の区画の特徴量と、上述したステップ321で得られた各植物の特徴量との類似度を算出する(ステップ324)。処理対象の区画が単一の画素である場合に、プロセッサ21は、当該画素に対応するマルチスペクトルデータを、処理対象の区画の特徴量として、ステップ324の処理を行ってもよい。また、処理対象の区画に複数の画素が含まれる場合に、プロセッサ21は、各画素に対応するマルチスペクトルデータの平均値を算出し、得られた値を当該区画に対応する特徴量を示すマルチスペクトルデータとしてもよい。また、プロセッサ21は、ステップ323の検索処理の結果として得られた各植物に対応するマルチスペクトルデータと、処理対象の区画に対応するマルチスペクトルデータと間について算出した距離を、値が小さいほど高い類似度を示す類似度として用いてもよい。
Next, the
次いで、プロセッサ21は、ステップ324で得られた類似度に基づいて、処理対象の画像の撮影時期において、処理対象の区画の特徴量に類似する特徴量で示される状態を呈する植物があるか否かを判定する(ステップ325)。プロセッサ21は、例えば、各植物に対応して算出したマルチスペクトルデータ間の距離の最小値と所定の閾値との比較結果に基づいて、処理対象の区画の色に類似した色を呈する植物があるか否かを判定してもよい。なお、ステップ325の処理の過程で用いる閾値の値は、例えば、同一の植物について得られるマルチスペクトルデータの揺らぎに対応する値と同程度の値を設定することが望ましい。
Next, based on the similarity obtained in
処理対象の区画の色に類似した色を呈する植物を見つけることができた場合に(ステップ325の肯定判定)、プロセッサ21は、類似するとした植物の種類を示す情報を当該区画に対応する地点の植生の判別結果として出力する(ステップ326)。
When a plant having a color similar to the color of the section to be processed can be found (affirmative determination in step 325), the
一方、処理対象の区画の色に類似した色を呈する植物を見つけることができなかった場合に(ステップ325の否定判定)、プロセッサ21は、当該区画に対応する地点の植生の判別結果として、植生を判別できない旨を出力する(ステップ327)。
On the other hand, when a plant having a color similar to the color of the section to be processed cannot be found (negative determination in step 325), the
上述したようにしてステップ321〜ステップ327の処理の実行が終了した後に、プロセッサ21は、両方の画像についての処理が終了したか否かを判定する(ステップ328)。
As described above, after the execution of the processing in
未処理の画像がある場合に(ステップ328の否定判定)、プロセッサ21は、ステップ321に戻り、未処理の画像を処理対象として、ステップ322以降の処理を開始する。このようにして、両方の画像についての処理が完了したときに、プロセッサ21は、植生を判別する処理を終了し、図3に示したステップ312の処理に進む。
When there is an unprocessed image (negative determination at step 328), the
このように、ステップ322で補正された撮影時期を用いた検索処理を行うことにより、プロセッサ21は、各植物の特徴量として、撮影された地域の特徴に即した特徴量を取得することができる。また、補正された撮影時期を用いた検索処理で得られた特徴量から算出した類似度に基づいて、処理対象の区画に対応する植生を判別できるか否かを判定することで、補正しない場合に比べて精度の高い判別結果を得ることができる。
As described above, by performing the search process using the photographing time corrected in
なお、上述したステップ321〜ステップ328の処理により各区画に対応する植生を判別する場合は、植物状態データベースDBに、各植物に対応して、1年に含まれる各週あるいは各日に対応するマルチスペクトルデータを蓄積しておくことが望ましい。このような植物状態データベースDBが用意されていれば、上述したステップ322の処理において、プロセッサ21は、処理対象の画像に撮影された地域の気候に応じて、きめ細かく撮影時期を補正することが可能である。また、植物の中には、例えば、開花時期のサクラのように、マルチスペクトルデータとして捉えられる状態が一日単位で変化する種類もある。このような植物について、例えば、一日単位でマルチスペクトルデータを植物状態データベースDBに蓄積しておけば、月単位で平均化したマルチスペクトルデータを蓄積した場合に比べて、各区画について正しい検索結果を得る可能性が高くなる。したがって、月単位の特徴量が蓄積された植物状態データベースDBを用いた場合よりも、各植物に対応して、週単位あるいは日単位の特徴量が蓄積された植物状態データベースDBを用いた場合の方が、より高い精度で植生の判別を行うことができる。
In addition, when determining the vegetation corresponding to each division by the process of the above-mentioned step 321-
次に、図3に示したステップ313およびステップ314について、各植物に対応して、週単位あるいは日単位の特徴量が蓄積された植物状態データベースDBが用意されている場合に好適な処理の例を説明する。 Next, with respect to step 313 and step 314 shown in FIG. 3, an example of processing suitable for a case where a plant state database DB in which weekly or daily feature values are accumulated is prepared corresponding to each plant. Will be explained.
図3に示したステップ313の処理は、プロセッサ21が、例えば、図8に示すステップ331〜ステップ333の処理を実行することによって実現することもできる。
The processing in
図8は、特徴量を推定する処理のフローチャートの一例を示している。図8に示したステップ331〜ステップ333の各処理は、図3にステップ313として示した特徴量を推定する処理の一例に相当する。また、これらのステップ331〜ステップ333の各処理は、プロセッサ21によって実行される。
FIG. 8 shows an example of a flowchart of processing for estimating a feature amount. Each process of
まず、プロセッサ21は、上述したステップ311の処理の過程で処理対象の区画に対応する地点について、一方の画像について得られた植生の判別結果を取得するとともに、他方の画像の撮影時期を示す情報を取得する(ステップ331)。例えば、二枚の画像A,Bのうち、画像Aについて処理対象の区画に対応する地点の植生として植物aが得られ、画像Bについて植生の判別ができなかった場合に、プロセッサ21は、植物aを示す情報と画像Bの撮影時期を示す情報とを取得する。
First, the
次いで、プロセッサ21は、図7のステップ322と同様にして、撮影範囲の地域の気候に基づいて、ステップ331で得られた撮影時期を補正する(ステップ332)。なお、プロセッサ21は、図7に示した植生を判別する処理の過程で、二枚の画像についてそれぞれ上述したステップ322の処理で得られた補正後の撮影時期を各画像に対応してメモリ22などに保持しておいてもよい。この場合に、プロセッサ21は、ステップ331,332の処理を省略し、代わりに、メモリ22などから、植生を判別する処理の過程で保持した補正後の撮影時期を読み出してもよい。
Next, the
次に、プロセッサ21は、ステップ331で得られた植物の種類に対応して植物状態データベースDBに蓄積されている情報から、補正後の撮影時期を含む所定長の期間内の各時期に対応する特徴量を、推定された特徴量の候補として検索する(ステップ333)。例えば、プロセッサ21は、上述した植物aに対応して植物状態データベースDBに蓄積されている情報から、補正後の撮影時期を含む所定長の期間内の各時期に対応するマルチスペクトルデータを、推定された特徴量の候補として取得する。なお、補正後の撮影時期を含む期間の長さは、個々の植物の生育状態にばらつきがあることなどを考慮して、予め例えば2週間程度に設定しておいてもよい。また、プロセッサ21は、ステップ333の処理の際に、植生が未判別となっている画像Bの撮影時期における気象条件と平年の気象条件との差などによって植物の状態変化にばらつきが発生することを考慮し、上述した期間の長さを調整してもよい。
Next, the
上述したステップ331〜ステップ333の処理によれば、撮影された地域の気候による偏差とともに、植生が未判別の画像の撮影時期における植物の生育状態のばらつきを反映した複数のマルチスペクトルデータを推定される特徴量の候補として得ることができる。つまり、上述したステップ331〜ステップ333の処理によれば、例えば、植生が未判別の画像Bの撮影時期における植物aの状態の推定結果に、撮影された地域の気候による偏差や気象条件の変動などによるばらつきを考慮した幅を持たせることができる。
According to the processing of
上述したようにして、推定される特徴量の候補として複数のマルチスペクトルデータを取得した場合に、プロセッサ21は、図3に示したステップ314の処理として、図9に示すステップ341〜ステップ346の処理を実行することが望ましい。
As described above, when a plurality of pieces of multispectral data are acquired as estimated feature amount candidates, the
図9は、類似性を評価する処理のフローチャートの例を示している。図9に示したステップ341〜ステップ346の各処理は、図3に示したステップ314の処理の一例に相当する。また、これらのステップ341〜ステップ346の各処理は、プロセッサ21によって実行される。
FIG. 9 shows an example of a flowchart of processing for evaluating similarity. Each process of
プロセッサ21は、まず、植生が未判別の画像から、処理対象の区画に対応するマルチスペクトルデータを、当該区画の特徴量として取得する(ステップ341)。例えば、二枚の画像A,Bのうち、画像Bについて植生の判別ができなかった場合に、プロセッサ21は、画像Bに含まれる処理対象の区画の特徴量示す情報として、当該区画のマルチスペクトルデータを取得する。
First, the
次いで、プロセッサ21は、ステップ341で取得した特徴量と、図8に示した特徴量を推定する処理で得られた特徴量の候補の一つとの間の距離を算出する(ステップ342)。
Next, the
次に、プロセッサ21は、ステップ342で算出した距離が所定の閾値以下であるか否かに基づいて、推定された特徴量の候補と、ステップ341で取得した特徴量とが類似しているか否かを判定する(ステップ343)。ここで、図8に示したステップ331〜ステップ333の各処理で得られる特徴量の候補には、植生が未判別となっている画像の撮影時期における植物の状態のばらつきが反映されている。したがって、プロセッサ21は、例えば、同一の植物について得られるマルチスペクトルデータの揺らぎに対応する値と同程度の値が設定された閾値を用いて、ステップ343の処理を実行してもよい。
Next, the
ステップ342で算出した距離が所定の閾値以下である場合に(ステップ343の肯定判定)、プロセッサ21は、推定された特徴量と、植生が未判別の画像に含まれる処理対象の区画の特徴量とが類似する旨の評価結果を出力する(ステップ344)。その後、プロセッサ21は、図3に示したステップ315の処理に進む。
When the distance calculated in
一方、ステップ342で算出した距離が所定の閾値よりも大きい場合に(ステップ343の否定判定)、プロセッサ21は、図8に示した特徴量を推定する処理で得られた全ての特徴量の候補について処理が終了したか否かを判定する(ステップ345)。
On the other hand, when the distance calculated in
推定された特徴量の候補の中に未処理の候補がある場合に(ステップ345の否定判定)、プロセッサ21は、ステップ342の処理に戻り、未処理の候補のひとつについて、ステップ342以降の処理を実行する。
When there is an unprocessed candidate among the estimated feature amount candidates (No determination in step 345), the
上述したステップ342〜ステップ345の処理を繰り返して実行し、特徴量の候補の全てについて処理が終了した場合に(ステップ345の肯定判定)、特徴量の候補の中にステップ341で取得した特徴量に類似するものはないと判断する。この場合に、プロセッサ21は、推定された特徴量と植生が未判別の画像に含まれる処理対象の区画の特徴量とが類似しない旨の評価結果を出力し(ステップ346)、その後、図3に示したステップ315の処理に進む。
When the processes of
上述したステップ341〜ステップ346の処理をプロセッサ21が実行することにより、一方の画像において判別された植物が他方の画像の撮影時期において呈する状態と、他方の画像に撮影された植物の状態との類似性を高い精度で評価することができる。
When the
なお、各植物に対応して、週単位あるいは日単位の特徴量が蓄積された植物情報データベースDBは、膨大な情報量を含んでいる。このため、図5に示したように、植物状態データベースDBは、サーバ装置20などに配置することが望ましい。また、本件開示の植生判定プログラムおよび植生判定方法を適用する差分検出プログラム及び差分検出方法に基づくサービスは、クラウドサービスの一つとして実施する形態が望ましい。
In addition, the plant information database DB in which the feature amount in units of weeks or days is stored corresponding to each plant includes a huge amount of information. For this reason, as shown in FIG. 5, it is desirable to arrange the plant state database DB in the
更に、本件開示の植生判定プログラムおよび植生判定方法によって各画像に含まれる各区画について得られた植生を示す情報を、当該区画に対応する地点に関する地図情報として蓄積することも可能である。また、このようにして蓄積した地図情報を、図5に示したサーバ装置20からクライアント装置30に渡し、クライアント装置30において、例えば、実地調査などで得られた調査結果と受け取った地図情報とを連携させることも可能である。また、クライアント装置30から、差分検出対象の画像を表す画像データとともに、上述した実地調査結果が反映された地図情報を受け取り、サーバ装置20に設けられた差分検出装置16において、以降の差分検出処理に受け取った地図情報を利用することもできる。
Furthermore, information indicating the vegetation obtained for each section included in each image by the vegetation determination program and the vegetation determination method of the present disclosure can be accumulated as map information regarding a point corresponding to the section. Further, the map information accumulated in this way is transferred from the
以下に、図10から図13を参照しつつ、地図情報を植生判定処理および差分検出処理に利用する方法について説明する。 Hereinafter, a method of using map information for vegetation determination processing and difference detection processing will be described with reference to FIGS. 10 to 13.
図10は、本件開示の植生判定方法を適用した差分検出装置16のハードウェア構成の別例を示している。なお、図10に示した構成要素のうち、図5に示した構成要素と同等のものについては、同一の符号を付して示し、その説明は省略する。
FIG. 10 shows another example of the hardware configuration of the
図10に示したコンピュータ装置40は、プロセッサ41と、メモリ42と、ハードディスク装置43と、汎用インタフェース(I/F)44と、表示制御部45と、光学ドライブ46とを含んでいる。プロセッサ41と、メモリ42と、ハードディスク装置43と、汎用インタフェース24と、表示制御部45と、光学ドライブ装置46とは、バスを介して互いに接続されている。また、コンピュータ装置40は、汎用インタフェース24を介して撮像装置2と入力装置3とに接続されている。また、表示制御部45は、表示装置1に接続されている。上述したプロセッサ41とメモリ42とハードディスク装置43とは、植生判定装置10に含まれている。また、上述したプロセッサ41とメモリ42とハードディスク装置43と汎用インタフェース44とは、差分検出装置16に含まれている。このように、本件開示の植生判定装置10を含む差分検出装置16は、スタンドアローンのコンピュータ装置40によって実現することも可能である。
The
入力装置3は、例えば、実地調査の対象となった地点ごとに、実地調査で特定された植生などを示す情報を、コンピュータ装置40に入力する機能を持っている。コンピュータ装置40のプロセッサ41は、入力装置3を介して入力された情報を、例えば、ハードディスク装置43に設けられた地図情報データベース232に、図11に示すように、実地調査対象の地点の座標情報などに対応して蓄積してもよい。
For example, the
図11は、地図情報データベース232の例を示している。図11に示した地図情報データベース232は、各地点の座標を示す位置情報に対応して、植生として特定された植物の種類と、植生を特定した方法と、特定日時とを蓄積している。
FIG. 11 shows an example of the
図11に示した地図情報データベース232において、符号Cjは、座標(xj、yj)で示される地点の植物の種類を示し、また、符号Ckは、座標(xk、yk)で示される地点の植物の種類を示している。また、符号Datejは、座標(xj、yj)で示される地点についての植生を特定した日付を示し、同様に、符号Datekは、座標(xk、yk)で示される地点についての植生を特定した日付を示している。
In the
なお、実地調査によって植生が特定された場合に、地図情報データベース232は、植生を特定した日時として、実地調査を実施した日時を蓄積することが望ましい。例えば、図11に示した地図情報データベース232において、座標(xj、yj)に対応する情報は、実地調査によって特定された情報の例であり、特定日時Datejは、実地調査が実施された日時を示している。一方、上述した差分検出処理の過程で、差分検出対象である二枚の画像の少なくとも一方に基づいて植生が特定された場合に、植生を特定した日時として、例えば、二枚の画像のうち最近に撮影された画像の撮影日時を蓄積することが望ましい。例えば、座標(xk、yk)に対応する情報は、上述した差分検出処理の対象となった画像に基づいて特定された情報の例であり、特定日時Datekは、差分検出対象の画像のうち最近に撮影された画像の撮影日時を示している。
In addition, when vegetation is specified by field survey, it is desirable that the
図10に示したコンピュータ装置40のメモリ42は、コンピュータ装置40のオペレーティングシステムとともに、プロセッサ41が地図情報を利用した植生判定処理および差分検出処理を実行するためのアプリケーションプログラムを格納している。なお、上述したアプリケーションプログラムは、例えば、光ディスクなどのリムーバブルディスク47に記録して頒布することができる。そして、このリムーバブルディスク47を光学ドライブ装置46に装着して読み込み処理を行うことにより、上述したアプリケーションプログラムを、メモリ42およびハードディスク装置43に格納させてもよい。また、図示しないネットワークインタフェースを介して、上述したアプリケーションプログラムをメモリ42およびハードディスク装置43に読み込ませることもできる。また、上述したアプリケーションプログラムは、上述した植物状態データベースDBをハードディスク装置43内などに構築するための情報とともに提供することが望ましい。
The
図12は、差分検出処理のフローチャートの別例を示している。なお、図12に示したステップのうち、図6に示したステップと同等のものについては、同一の符号を付して示し、その説明は省略する。図12に示したステップ301〜ステップ310及びステップ350の各処理は、地図情報を利用した植生判定処理および差分検出処理のためのアプリケーションプログラムに含まれる処理の一例である。また、これらのステップ301〜ステップ310及びステップ50の各処理は、図10に示したプロセッサ41によって実行される。
FIG. 12 shows another example of the flowchart of the difference detection process. Of the steps shown in FIG. 12, the same steps as those shown in FIG. 6 are designated by the same reference numerals, and the description thereof is omitted. Each process of
プロセッサ41は、ステップ304の肯定判定ルートの処理において、ステップ305の植生の変化を判定する処理に先立って、処理対象の区画に対応する地点についての地図情報があるか否かを判定する(ステップ310)。プロセッサ41は、例えば、地図情報データベース232を参照し、処理対象の区画に対応する地点についての地図情報を検出したか否かに基づいて、ステップ310の判定処理を行ってもよい。ここで、画像に含まれる各区画に対応する地点の座標は、例えば、各画像に付加された撮影位置を示す情報などに基づいて、予め特定しておくことができる。したがって、プロセッサ41は、処理対象の区画に対応する地点の位置を示す座標に対応して登録された地図情報を、地図情報データベース232において検出すればよい。
In the processing of the affirmative determination route in
処理対象の区画に対応する地点についての地図情報がない場合に(ステップ310の否定判定)、プロセッサ41は、ステップ305の処理に進み、処理対象の区画に対応する地点の植生に、二枚の画像の撮影時期間に変化があったか否かを判定する。
When there is no map information about the point corresponding to the processing target section (No determination in step 310), the
一方、処理対象の区画に対応する地点についての地図情報がある場合に(ステップ310の肯定判定)、プロセッサ41は、ステップ350の処理に進み、図13に示すようにして、地図情報を利用して植生の変化を判定する。
On the other hand, when there is map information about the point corresponding to the section to be processed (affirmative determination in step 310), the
図13は、地図情報を利用して植生の変化を判定する処理のフローチャートの例を示している。なお、図13に示したステップのうち、図3に示したステップと同等のものについては、同一の符号を付して示し、その説明は省略する。図13に示したステップ313〜ステップ317及びステップ351〜ステップ355の各処理は、図12にステップ350で示した地図情報を利用して植生の変化を判定する処理の一例である。また、これらのステップ301〜ステップ310及びステップ351〜ステップ355の各処理は、図10に示したプロセッサ41によって実行される。
FIG. 13 shows an example of a flowchart of processing for determining changes in vegetation using map information. Of the steps shown in FIG. 13, the same steps as those shown in FIG. 3 are denoted by the same reference numerals and description thereof is omitted. Each process of
プロセッサ41は、まず、地図情報に含まれる特定日時を示す情報に基づいて、地図情報が、処理対象の画像の一方に基づく植生判定結果を含んでいるか否かを判定する(ステップ351)。例えば、二枚の画像の一方が、既に、画像間の差分検出の対象になっていた場合に、当該画像に基づいて特定された植生を示す情報とともに当該画像の撮影日時を特定日時として含む地図情報が、地図情報データベース232に登録されている場合がある。したがって、プロセッサ41は、差分検出対象の各画像の撮影日時のいずれかと、地図情報に含まれる特定日時とが一致するか否かに基づいて、当該地図情報が一方の画像に基づいて特定された植生を示しているか否かを判定することができる。
First, the
検出した地図情報が、一方の画像に基づく植生の判別結果を含んでいる場合に(ステップ351の肯定判定)、プロセッサ41は、地図情報に含まれる植生の判別結果をもたらした画像を判別済みの画像とし、他方を未判別の画像とする(ステップ352)。例えば、画像A,Bのうち、画像Aの撮影日時と地図情報に含まれる特定日時とが一致する場合に、プロセッサ41は、画像Aを判別済の画像とし、画像Bを未判別の画像としてもよい。つまり、プロセッサ41は、画像A、Bについて植生を判別する処理を省略し、地図情報で示された植物の種類を画像Aについて得られた判別結果として、ステップ313以降の処理を実行する。
When the detected map information includes a vegetation determination result based on one image (affirmative determination in step 351), the
ここで、土地の利用状況を追跡して調査する用途を考えれば、同一の地域を所定の期間ごとに撮影した二枚の画像が、処理対象の画像となる可能性が高い。この場合に、処理対象の画像の一方については、過去の差分検出処理の過程で各区画について植生が判別されており、これらの各区画に対応する植生の判別結果を含む地図情報が、地図情報データベース232に蓄積されている。したがって、上述したような用途で、差分検出処理を行う際には、処理対象の画像に含まれる多くの区画について、図3のステップ311で示した植生を判別する処理を省略できる可能性が高い。これにより、全ての区画について、植生を判別する処理を実行する場合に比べて、植生の変化を判定する処理に要する時間を短縮することができる。
Here, considering the use of tracking and investigating the land use situation, two images obtained by photographing the same area every predetermined period are likely to be images to be processed. In this case, for one of the images to be processed, the vegetation is determined for each section in the process of past difference detection processing, and the map information including the determination result of the vegetation corresponding to each section is map information. Accumulated in the
なお、処理対象の二枚の画像のうち一方の画像に基づく植生の判別結果を含む地図情報は、他方の画像の撮影時値に相当する第1時期とは異なる第2時期において、各区画に対応する地点について植生を特定した結果を示す情報を含む参照情報の一例である。 In addition, the map information including the vegetation discrimination result based on one of the two images to be processed is assigned to each section at a second time different from the first time corresponding to the shooting time value of the other image. It is an example of the reference information containing the information which shows the result which specified the vegetation about the corresponding point.
また、地図情報で示された植物の種類を一方の画像に基づく植生の判別結果として、ステップ313の処理を実行することは、参照情報で示された植物が、上述した第1時期において呈する状態を示す画像の特徴量を推定する処理の一例である。
In addition, executing the process of
同様に、ステップ351の肯定判定ルートにおいてステップ314の処理を実行することは、推定された特徴量と、未判別の画像とされた第1画像に含まれる処理対象の区画の特徴量との類似性を評価する処理の一例である。
Similarly, executing the process of
また、ステップ351の肯定判定ルートにおいてステップ315〜ステップ316の処理を実行することは、類似性の評価結果に基づいて、処理対象の区画に対応する地点の植生が、上述した第2時期と第1時期との間に変化したか否か判断する処理の一例である。
In addition, executing the processing of
したがって、図13に示したステップ351の肯定判定ルートの各処理は、本件開示の植生判定方法および植生判定プログラムの別実施形態に相当する。
Therefore, each process of the affirmation determination route of
なお、上述したステップ315の否定判定の場合に、プロセッサ41は、ステップ317の処理に先立って、ステップ352の処理で未判別画像とされた画像について、図7に示したステップ321〜ステップ327の植生を判別する処理を実行してもよい。また、植生を判別する処理を実行することによって、処理対象の区画に対応する新たな植生を示す情報が得られた場合に、得られた情報を用いて地図情報データベース232を更新してもよい。
Note that, in the case of the negative determination in
一方、例えば、検出した地図情報が、実地調査によって特定された植生を示す情報を含んでいる場合に、プロセッサ41は、ステップ351の否定判定ルートに従って、ステップ353〜ステップ355の処理を実行する。
On the other hand, for example, when the detected map information includes information indicating the vegetation specified by the field survey, the
ステップ353において、プロセッサ41は、地図情報に含まれる判別結果で示された植物が、処理対象の二枚の画像それぞれの撮影時期に呈する状態を示す特徴量をそれぞれ推定する。プロセッサ41は、各画像の撮影時期に対応する特徴量を、上述した植物に対応する植物状態データベースDBからそれぞれの撮影時期に対応する特徴量を検索することで取得してもよい。また、プロセッサ41は、図8に示したステップ331〜ステップ333の処理を適用することにより、各画像の撮影時期に対応して推定される特徴量として、複数の特徴量の候補を取得してもよい。
In
次に、プロセッサ41は、各画像の撮影時期に対応して推定された特徴量と、各画像中の処理対象の区画に対応する特徴量との類似性をそれぞれ評価する(ステップ354)。プロセッサ41は、各画像について推定された特徴量と各画像に含まれる処理対象の区画の実際の特徴量との類似性を、特徴量間の距離に基づいて評価してもよい。また、プロセッサ41は、図9に示したステップ341〜ステップ346の処理を適用することにより、各画像について得られた複数の特徴量の候補それぞれと各画像に含まれる処理対象の区画について実際に得られた特徴量との類似性を評価してもよい。
Next, the
次いで、プロセッサ41は、上述したステップ354の処理で、両方の画像について推定された特徴量と、各画像中の処理対象の区画に対応する特徴量とが類似している旨の評価結果が得られたか否かを判定する(ステップ355)。
Next, the
両方の画像について類似している旨の評価結果が得られた場合に(ステップ355の肯定判定)、プロセッサ41は、二枚の画像に含まれる当該区画に対応する植生は、地図情報で示される植生からいずれも変化していないと判断する。この場合に、プロセッサ41は、ステップ360の肯定判定ルートに従って、ステップ316の処理に進み、当該区画に対応する地点の植生に変化はない旨の判定結果を出力する。
When an evaluation result indicating that both images are similar is obtained (affirmative determination in step 355), the
一方、少なくとも一方の画像について類似しない旨の評価結果が得られた場合に(ステップ355の否定判定)、プロセッサ41は、少なくとも一方の画像に含まれる当該区画の植生が、地図情報で示される植生から変化したと判断する。この場合に、プロセッサ41は、ステップ355の否定判定ルートに従って、ステップ317の処理に進み、当該区画に対応する地点の植生に変化がある旨の判定結果を出力する。
On the other hand, if an evaluation result indicating that at least one image is not similar is obtained (negative determination in step 355), the
上述したステップ353の処理は、処理対象の各画像を植生が未判別の第1画像とし、第1画像の撮影時期において参照情報で示される植物が呈する状態を示す画像の特徴量を推定する処理の一例である。
The process of
同様に、上述したステップ354の処理は、処理対象の各画像を植生が未判別の第1画像とし、それぞれについて推定された特徴量と、第1画像に含まれる処理対象の区画の特徴量との類似性を評価する処理の一例である。
Similarly, in the processing in
また、上述したステップ355の処理は、各画像に含まれる処理対象の区画に対応する地点の植生が、参照情報で示される植生から変化しているか否かに基づき、各画像の撮影時期の間に当該区画に対応する地点の植生が変化したか否か判断する処理の一例である。
In addition, the processing in
したがって、図13に示したステップ351の否定判定ルートの各処理もまた、本件開示の植生判定方法および植生判定プログラムの別実施形態に相当する。
Therefore, each process of the negative determination route of
図13に示した各処理をプロセッサ41が実行することにより、地図情報データベース232に蓄積された情報を、処理対象の区画に対応する地点の植生を示す情報として利用した植生の変化を判定する処理を実現することができる。上述したように、地図情報を利用する場合は、処理対象の区画に対応する地点の植生を画像の特徴に基づいて判別する処理を省略することができる。したがって、図12に示したステップ310において、地図情報があるとされた場合に、ステップ305の処理に代えて、上述した地図情報を利用した植生の変化を判定する処理を実行することにより、差分検出処理に要する時間の短縮を図ることができる。
The process which determines the change of the vegetation using the information accumulate | stored in the
なお、上述したステップ355の否定判定の場合に、プロセッサ41は、ステップ317の処理に先立って、処理対象の各画像に含まれる処理対象の区画ついて、図7に示したステップ321〜ステップ327の植生を判別する処理を実行してもよい。また、植生を判別する処理を実行することによって、処理対象の区画に対応する新たな植生を示す情報が得られた場合に、得られた情報を用いて地図情報データベース232を更新してもよい。
In the case of the negative determination in
また、図11に示した地図情報データベース232を、図5に示したクライアント装置30に含まれるハードディスク装置33に構築することもできる。そして、クライアント装置30から、処理対象の二枚の画像をサーバ装置20に渡す際に、これらの画像の撮影範囲に含まれる各地点に対応する地図情報をサーバ装置20に渡してもよい。また、サーバ装置20は、差分検出処理の過程で、受け取った地図情報を利用して植生の変化を判定する処理を実行し、また、判定処理の過程で得られた植生を示す情報を用いて地図情報を更新してもよい。更に、更新した地図情報を、差分検出結果とともに、クライアント装置30に返してもよい。
Further, the
以上の説明に関して、更に、以下の各項を開示する。
(付記1)
所定の地域を異なる時期に撮影して得られた二枚の画像のそれぞれを区分して得られる各区画について、当該区画の画像の特徴量に基づいて、当該区画に撮影された植物の種類を判別し、
前記二枚の画像の一方である第1画像に含まれる前記区画について前記植物の種類を判別できず、前記二枚の画像の他方である第2画像に含まれる前記区画について前記植物の種類を判別できた場合に、
各植物を撮影することで得られる画像の特徴量を時期ごとに示す植物情報に基づいて、前記第2画像に含まれる前記区画について判別された前記種類の植物が、前記第1画像の撮影時期において呈する状態を示す画像の特徴量を推定し、
前記推定された特徴量と、前記第1画像に含まれる前記区画の画像の特徴量との類似性を評価し、
前記類似性があると評価された場合に、前記区画に対応する地点の植生は、前記第2画像の撮影時期と前記第1画像の撮影時期との間に変化していないと判断し、前記類似性がないと評価された場合に、前記区画に対応する地点の植生は、前記第2画像の撮影時期と前記第1画像の撮影時期との間に変化したと判断する
処理をコンピュータに実行させることを特徴とする植生判定プログラム。
(付記2)
付記1に記載の植生判定プログラムにおいて、
前記区画に撮影された植物の種類を判別する処理は、
前記植物情報から、前記区画を含む画像の撮影時期において、前記区画の特徴量に類似する特徴量を持つ植物の種類を検索する処理を含む
ことを特徴とする植生判定プログラム。
(付記3)
付記3に記載の植生判定プログラムにおいて、
前記植物の種類を検索する処理は、
前記区画を含む画像の撮影時期を、前記画像に撮影された地域の気候に基づいて補正する処理を含む
ことを特徴とする植生判定プログラム。
(付記4)
所定の地域を第1時期に撮影して得られた第1画像を区分して得られる各区画について、前記第1時期とは異なる第2時期において、前記区画に対応する地点について植生を特定した結果を示す情報を含む参照情報、
各植物を撮影することで得られる画像の特徴量を時期ごとに示す植物情報に基づいて、前記参照情報で前記区画の植生として示された前記種類の植物が、前記第1時期において呈する状態を示す画像の特徴量を推定し、
前記推定された特徴量と、前記第1画像に含まれる前記区画の画像の特徴量との類似性を評価し、
前記類似性があると評価された場合に、前記区画に対応する地点の植生は、前記第2時期と前記第1時期との間に変化していないと判断し、前記類似性がないと評価された場合に、前記区画に対応する地点の植生は、前記第2画像の撮影時期と前記第1画像の撮影時期との間に変化したと判断する
処理をコンピュータに実行させることを特徴とする植生判定プログラム。
(付記5)
付記1に記載の植生判定プログラムにおいて、
前記特徴量を推定する処理は、
前記植物情報のうち、前記判別された種類の植物に対応する情報から、前記第1画像の撮影時期に対応する特徴量を検索する処理を含み、
前記特徴量を検索する処理は、
前記第1画像の撮影時期を、前記第1画像に撮影された地域の気候に基づいて補正する処理を含む
ことを特徴とする植生判定プログラム。
(付記6)
付記1に記載の植生判定プログラムにおいて、
前記特徴量を推定する処理は、
前記植物情報のうち、前記判別された種類の植物に対応する情報から、前記第1画像の撮影時期に対応する特徴量を検索する処理を含み、
前記特徴量を検索する処理は、
前記第1画像の撮影時期を含む所定の期間内の各時期に対応する特徴量を、推定された特徴量の候補として抽出する処理を含む
ことを特徴とする植生判定プログラム。
(付記7)
所定の地域を異なる時期に撮影して得られた二枚の画像のそれぞれを区分して得られる各区画について、当該区画の画像の特徴量に基づいて、当該区画に撮影された植物の種類を判別し、
前記二枚の画像の一方である第1画像に含まれる前記区画について前記植物の種類を判別できず、前記二枚の画像の他方である第2画像に含まれる前記区画について前記植物の種類を判別できた場合に、
各植物を撮影することで得られる画像の特徴量を時期ごとに示す植物情報に基づいて、前記第2画像に含まれる前記区画について判別された前記種類の植物が、前記第1画像の撮影時期において呈する状態を示す画像の特徴量を推定し、
前記推定された特徴量と、前記第1画像に含まれる前記区画の画像の特徴量との類似性を評価し、
前記類似性があると評価された場合に、前記区画に対応する地点の植生は、前記第2画像の撮影時期と前記第1画像の撮影時期との間に変化していないと判断し、前記類似性がないと評価された場合に、前記区画に対応する地点の植生は、前記第2画像の撮影時期と前記第1画像の撮影時期との間に変化したと判断する
ことを特徴とする植生判定方法。
(付記8)
所定の地域を異なる時期に撮影して得られた二枚の画像のそれぞれを区分して得られる各区画について、当該区画の画像の特徴量に基づいて、当該区画に撮影された植物の種類を判別する判別部と、
前記二枚の画像の一方である第1画像に含まれる前記区画について前記植物の種類を判別できず、前記二枚の画像の他方である第2画像に含まれる前記区画について前記植物の種類を判別できた場合に、各植物を撮影することで得られる画像の特徴量を時期ごとに示す植物情報に基づいて、前記第2画像に含まれる前記区画について判別された前記種類の植物が、前記第1画像の撮影時期において呈する状態を示す画像の特徴量を推定する推定部と、
前記推定された特徴量と、前記第1画像に含まれる前記区画の画像の特徴量との類似性を評価する評価部と、
前記類似性があると評価された場合に、前記区画に対応する地点の植生は、前記第2画像の撮影時期と前記第1画像の撮影時期との間に変化していないと判断し、前記類似性がないと評価された場合に、前記区画に対応する地点の植生は、前記第2画像の撮影時期と前記第1画像の撮影時期との間に変化したと判断する判断部と
を備えたことを特徴とする植生判定装置。
Regarding the above description, the following items are further disclosed.
(Appendix 1)
For each section obtained by dividing each of the two images obtained by photographing a predetermined region at different times, the type of plant photographed in the section is determined based on the feature amount of the image of the section. Discriminate,
The type of the plant cannot be determined for the section included in the first image which is one of the two images, and the type of the plant is determined for the section included in the second image which is the other of the two images. If it can be determined,
Based on the plant information indicating the feature amount of the image obtained by photographing each plant for each period, the type of plant determined for the section included in the second image is the photographing period of the first image. Estimate the feature quantity of the image showing the state presented in
Evaluating the similarity between the estimated feature quantity and the feature quantity of the image of the section included in the first image;
When it is evaluated that there is the similarity, it is determined that the vegetation at the point corresponding to the section has not changed between the shooting time of the second image and the shooting time of the first image, When it is evaluated that there is no similarity, the computer determines that the vegetation at the point corresponding to the section has changed between the shooting time of the second image and the shooting time of the first image. A vegetation judgment program characterized by causing
(Appendix 2)
In the vegetation judgment program described in Appendix 1,
The process of discriminating the type of plant photographed in the section,
A vegetation determination program characterized by including a process of searching for a plant type having a feature quantity similar to the feature quantity of the section from the plant information at the time of capturing an image including the section.
(Appendix 3)
In the vegetation judgment program described in
The process of searching for the plant type is as follows:
A vegetation judgment program characterized by including a process of correcting a photographing time of an image including the section based on a climate of a region photographed in the image.
(Appendix 4)
For each section obtained by dividing the first image obtained by photographing a predetermined area at the first time, vegetation was specified at a point corresponding to the section at a second time different from the first time. Reference information including information indicating the result,
Based on the plant information indicating the feature amount of the image obtained by photographing each plant for each period, the state of the plant of the type indicated as the vegetation of the section by the reference information in the first period Estimate the feature value of the image shown,
Evaluating the similarity between the estimated feature quantity and the feature quantity of the image of the section included in the first image;
When it is evaluated that there is the similarity, it is determined that the vegetation at the point corresponding to the section has not changed between the second period and the first period, and it is evaluated that there is no similarity. In this case, the vegetation of the point corresponding to the section is caused to cause the computer to execute a process of determining that the vegetation at the point corresponding to the section has changed between the shooting time of the second image and the shooting time of the first image. Vegetation judgment program.
(Appendix 5)
In the vegetation judgment program described in Appendix 1,
The process of estimating the feature amount includes:
Among the plant information, including a process of searching for a feature amount corresponding to the shooting time of the first image from information corresponding to the identified type of plant,
The process of searching for the feature amount includes:
A vegetation judgment program characterized by including a process of correcting the photographing time of the first image based on a climate of a region photographed in the first image.
(Appendix 6)
In the vegetation judgment program described in Appendix 1,
The process of estimating the feature amount includes:
Among the plant information, including a process of searching for a feature amount corresponding to the shooting time of the first image from information corresponding to the identified type of plant,
The process of searching for the feature amount includes:
A vegetation determination program characterized by including a process of extracting a feature amount corresponding to each period within a predetermined period including the photographing time of the first image as an estimated feature amount candidate.
(Appendix 7)
For each section obtained by dividing each of the two images obtained by photographing a predetermined region at different times, the type of plant photographed in the section is determined based on the feature amount of the image of the section. Discriminate,
The type of the plant cannot be determined for the section included in the first image which is one of the two images, and the type of the plant is determined for the section included in the second image which is the other of the two images. If it can be determined,
Based on the plant information indicating the feature amount of the image obtained by photographing each plant for each period, the type of plant determined for the section included in the second image is the photographing period of the first image. Estimate the feature quantity of the image showing the state presented in
Evaluating the similarity between the estimated feature quantity and the feature quantity of the image of the section included in the first image;
When it is evaluated that there is the similarity, it is determined that the vegetation at the point corresponding to the section has not changed between the shooting time of the second image and the shooting time of the first image, When it is evaluated that there is no similarity, it is determined that the vegetation at the point corresponding to the section has changed between the shooting time of the second image and the shooting time of the first image. Vegetation judgment method.
(Appendix 8)
For each section obtained by dividing each of the two images obtained by photographing a predetermined region at different times, the type of plant photographed in the section is determined based on the feature amount of the image of the section. A discriminator for discriminating;
The type of the plant cannot be determined for the section included in the first image which is one of the two images, and the type of the plant is determined for the section included in the second image which is the other of the two images. When it can be determined, based on the plant information indicating the feature amount of the image obtained by photographing each plant for each period, the type of plant determined for the section included in the second image, An estimation unit that estimates a feature amount of an image indicating a state presented at the time of photographing the first image;
An evaluation unit that evaluates the similarity between the estimated feature amount and the feature amount of the image of the section included in the first image;
When it is evaluated that there is the similarity, it is determined that the vegetation at the point corresponding to the section has not changed between the shooting time of the second image and the shooting time of the first image, A judgment unit that judges that the vegetation at the point corresponding to the section has changed between the photographing time of the second image and the photographing time of the first image when it is evaluated that there is no similarity; A vegetation judging device characterized by that.
10…植生判定装置;11…比較部;12…推定部;13…評価部;14…判断部;16…差分検出装置;1…表示装置;2…撮像装置;3…撮像装置;21,31,41…プロセッサ;22,32,42…メモリ;23,33,43…ハードディスク装置;24,34…ネットワークインタフェース(I/F);35…表示部;36,44…汎用インタフェース(I/F);45…表示制御部;46…光学ドライブ装置;47…リムーバブルディスク;232…地図情報データベース;DB…植物状態データベース;NW…ネットワーク
DESCRIPTION OF
Claims (3)
植物の種類に対応付けて時期に応じて異なる画像特徴量を示す情報を含むデータベースを、撮影された時期に基づいて参照して、前記第一の画像の前記所定の領域に含まれる植物の種類と前記第二の画像の前記所定の領域に含まれる植物の種類を特定し、
前記第1の画像について特定した植物の種類と、前記第2の画像について特定した植物の種類とが一致する場合に、前記所定の領域の植物の種類は前記異なる時期の間で変化していないと判断し、
前記第1の画像について特定した植物の種類と、前記第2の画像について特定した植物の種類とが一致しない場合に、前記所定の領域の植物の種類は前記異なる時期の間で変化したと判断する
処理をコンピュータに実行させることを特徴とする植生判定プログラム。 Calculating at least the image feature amount of the predetermined region for the first image and the second image obtained by photographing the predetermined region at different times,
Types of plants included in the predetermined region of the first image with reference to a database including information indicating image feature quantities that differ according to the time in association with the types of plants based on the time of shooting. And identifying the type of plant included in the predetermined area of the second image,
When the plant type specified for the first image matches the plant type specified for the second image, the plant type of the predetermined region has not changed between the different times. And
When the plant type specified for the first image and the plant type specified for the second image do not match, it is determined that the plant type of the predetermined region has changed between the different times. A vegetation judgment program characterized by causing a computer to execute processing.
植物の種類に対応付けて時期に応じて異なる画像特徴量を示す情報を含むデータベースを、撮影された時期に基づいて参照して、前記第一の画像の前記所定の領域に含まれる植物の種類と前記第二の画像の前記所定の領域に含まれる植物の種類を特定し、
前記第1の画像について特定した植物の種類と、前記第2の画像について特定した植物の種類とが一致する場合に、前記所定の領域の植物の種類は前記異なる時期の間で変化していないと判断し、
前記第1の画像について特定した植物の種類と、前記第2の画像について特定した植物の種類とが一致しない場合に、前記所定の領域の植物の種類は前記異なる時期の間で変化したと判断する
ことを特徴とする植生判定方法。 Calculating at least the image feature amount of the predetermined region for the first image and the second image obtained by photographing the predetermined region at different times,
Types of plants included in the predetermined region of the first image with reference to a database including information indicating image feature quantities that differ according to the time in association with the types of plants based on the time of shooting. And identifying the type of plant included in the predetermined area of the second image,
When the plant type specified for the first image matches the plant type specified for the second image, the plant type of the predetermined region has not changed between the different times. And
When the plant type specified for the first image and the plant type specified for the second image do not match, it is determined that the plant type of the predetermined region has changed between the different times. A vegetation judgment method characterized by:
植物の種類に対応付けて時期に応じて異なる画像特徴量を示す情報を含むデータベースを、撮影された時期に基づいて参照して、前記第一の画像の前記所定の領域に含まれる植物の種類と前記第二の画像の前記所定の領域に含まれる植物の種類を特定する特定部と、
前記第1の画像について特定した植物の種類と、前記第2の画像について特定した植物の種類とが一致する場合に、前記所定の領域の植物の種類は前記異なる時期の間で変化していないと判断し、前記第1の画像について特定した植物の種類と、前記第2の画像について特定した植物の種類とが一致しない場合に、前記所定の領域の植物の種類は前記異なる時期の間で変化したと判断する判断部と
を備えることを特徴とする植生判定装置。 A calculating unit that calculates at least the image feature amount of the predetermined region for the first image and the second image obtained by photographing the predetermined region at different times, and
Types of plants included in the predetermined region of the first image with reference to a database including information indicating image feature quantities that differ according to the time in association with the types of plants based on the time of shooting. And a specifying unit for specifying the type of plant included in the predetermined region of the second image,
When the plant type specified for the first image matches the plant type specified for the second image, the plant type of the predetermined region has not changed between the different times. And when the plant type specified for the first image does not match the plant type specified for the second image, the plant type of the predetermined region is between the different times. A vegetation determination device comprising: a determination unit that determines that a change has occurred.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016112761A JP2016165303A (en) | 2016-06-06 | 2016-06-06 | Vegetation determination program, vegetation determination method, and vegetation determination device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016112761A JP2016165303A (en) | 2016-06-06 | 2016-06-06 | Vegetation determination program, vegetation determination method, and vegetation determination device |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2012252130A Division JP5949484B2 (en) | 2012-11-16 | 2012-11-16 | Difference detection program, difference detection method, and difference detection apparatus |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2016165303A true JP2016165303A (en) | 2016-09-15 |
Family
ID=56897740
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016112761A Pending JP2016165303A (en) | 2016-06-06 | 2016-06-06 | Vegetation determination program, vegetation determination method, and vegetation determination device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2016165303A (en) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019004874A (en) * | 2017-06-26 | 2019-01-17 | インターナショナル・ビジネス・マシーンズ・コーポレーションInternational Business Machines Corporation | Methods, computer program products and systems for cognitive plant clinic |
JP2020197507A (en) * | 2019-06-05 | 2020-12-10 | 野崎 眞次 | Precision agriculture support system and precision agriculture support method |
WO2023027197A1 (en) | 2021-08-24 | 2023-03-02 | Bayer Cropscience K.K. | System, information processing device, server device, program, or method |
EP4145270A1 (en) | 2021-09-03 | 2023-03-08 | Bayer CropScience K.K. | System, information processing device, server device, program, or method |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005276004A (en) * | 2004-03-26 | 2005-10-06 | Hitachi Ltd | Image information processing system |
JP2012196167A (en) * | 2011-03-20 | 2012-10-18 | Fujitsu Ltd | Plant species identification method |
-
2016
- 2016-06-06 JP JP2016112761A patent/JP2016165303A/en active Pending
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005276004A (en) * | 2004-03-26 | 2005-10-06 | Hitachi Ltd | Image information processing system |
JP2012196167A (en) * | 2011-03-20 | 2012-10-18 | Fujitsu Ltd | Plant species identification method |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019004874A (en) * | 2017-06-26 | 2019-01-17 | インターナショナル・ビジネス・マシーンズ・コーポレーションInternational Business Machines Corporation | Methods, computer program products and systems for cognitive plant clinic |
JP7219558B2 (en) | 2017-06-26 | 2023-02-08 | キンドリル・インク | Methods, computer programs and systems for cognitive plant clinics |
JP2020197507A (en) * | 2019-06-05 | 2020-12-10 | 野崎 眞次 | Precision agriculture support system and precision agriculture support method |
US11519892B2 (en) | 2019-06-05 | 2022-12-06 | Shinji Nozaki | Precision agriculture support system and precision agriculture support method |
WO2023027197A1 (en) | 2021-08-24 | 2023-03-02 | Bayer Cropscience K.K. | System, information processing device, server device, program, or method |
EP4145270A1 (en) | 2021-09-03 | 2023-03-08 | Bayer CropScience K.K. | System, information processing device, server device, program, or method |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5949484B2 (en) | Difference detection program, difference detection method, and difference detection apparatus | |
Rasmussen et al. | Pre-harvest weed mapping of Cirsium arvense in wheat and barley with off-the-shelf UAVs | |
Onishi et al. | Automatic classification of trees using a UAV onboard camera and deep learning | |
TWI615605B (en) | Image method, image processing system and computer-readable medium | |
Adelabu et al. | Testing the reliability and stability of the internal accuracy assessment of random forest for classifying tree defoliation levels using different validation methods | |
JP2016165303A (en) | Vegetation determination program, vegetation determination method, and vegetation determination device | |
Yin et al. | Mapping annual land use and land cover changes using MODIS time series | |
Aboutalebi et al. | Assessment of different methods for shadow detection in high-resolution optical imagery and evaluation of shadow impact on calculation of NDVI, and evapotranspiration | |
Murugan et al. | Fusion of drone and satellite data for precision agriculture monitoring | |
Laborte et al. | Spectral signature generalization and expansion can improve the accuracy of satellite image classification | |
KR102177985B1 (en) | Apparatus and Method for Automatically Detecting Landslide Area | |
Baamonde et al. | Fully automatic multi-temporal land cover classification using Sentinel-2 image data | |
Liu | Compositing the minimum NDVI for MODIS data | |
CN113850312A (en) | Forest ecological condition monitoring method and device, electronic equipment and storage medium | |
Ye et al. | A spectral index for highlighting forest cover from remotely sensed imagery | |
Budei et al. | Variability of multispectral lidar 3D and intensity features with individual tree height and its influence on needleleaf tree species identification | |
Schindler et al. | Method for national mapping spatial extent of southern beech forest using temporal spectral signatures | |
Guo et al. | A novel invasive plant detection approach using time series images from unmanned aerial systems based on convolutional and recurrent neural networks | |
Novotný et al. | Individual tree crowns delineation using local maxima approach and seeded region growing technique | |
Oldoni et al. | Annual cropland mapping using data mining and OLI Landsat-8 | |
Papadopoulos et al. | Weed mapping in cotton using ground-based sensors and GIS | |
Moumni et al. | Sample period dependent classification approach for the cartography of crops in the Haouz plain, Morocco | |
Kranjčić et al. | Satellite-based hyperspectral imaging and cartographic visualization of bark beetle forest damage for the city of Čabar | |
DiPietro et al. | Mapping the invasive plant Arundo donax and associated riparian vegetation using AVIRIS | |
Descals et al. | Automated detection of selective logging using SmallSat imagery |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20170421 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20170502 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20170605 |
|
RD01 | Notification of change of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7426 Effective date: 20170803 |
|
RD03 | Notification of appointment of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7423 Effective date: 20170803 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20170804 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20171107 |