JP7069609B2 - Crop cultivation support device - Google Patents
Crop cultivation support device Download PDFInfo
- Publication number
- JP7069609B2 JP7069609B2 JP2017168580A JP2017168580A JP7069609B2 JP 7069609 B2 JP7069609 B2 JP 7069609B2 JP 2017168580 A JP2017168580 A JP 2017168580A JP 2017168580 A JP2017168580 A JP 2017168580A JP 7069609 B2 JP7069609 B2 JP 7069609B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- unit
- region
- defect
- captured
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Description
本発明は、栽培領域を撮像する撮像部を備える作物栽培支援装置に関する。 The present invention relates to a crop cultivation support device including an imaging unit that captures an image of a cultivation area.
従来の作物栽培支援装置は特許文献1に開示されている。この作物栽培支援装置は農用車両に取り付けられたビデオカメラ(撮像部)、位置検出部及びパーソナルコンピュータを備える。位置検出部はGPSアンテナ及びGPS受信機を有する。パーソナルコンピュータにはビデオカメラ及び位置検出部が接続される。
The conventional crop cultivation support device is disclosed in
また、農用車両の上部には農用車両の後方に延びる支柱が設けられる。ビデオカメラは鉛直下方を向くように支柱の後端に固定される。ビテオカメラ1の直上にはGPSアンテナ4が取り付けられる。
In addition, a support column extending to the rear of the agricultural vehicle is provided on the upper part of the agricultural vehicle. The video camera is fixed to the rear end of the column so that it faces vertically downward. A
上記構成の作物栽培支援装置において、農用車両が圃場(栽培領域)上を走行すると、ビデオカメラは圃場を撮像して複数の撮像画像を形成する。パーソナルコンピュータは、GPSからの位置情報に基づき、複数の撮像画像の相互の位置関係を導出する。次に、パーソナルコンピュータ上で複数の撮像画像を合成し、圃場全体の合成画像を形成する。 In the crop cultivation support device having the above configuration, when the agricultural vehicle travels on the field (cultivation area), the video camera captures the field and forms a plurality of captured images. The personal computer derives the mutual positional relationship of a plurality of captured images based on the position information from the GPS. Next, a plurality of captured images are combined on a personal computer to form a composite image of the entire field.
合成の際には、撮像画像の重複部分について先に撮像した撮像画像を優先して合成するか、または後に撮像した撮像画像を優先して合成するのかを選択することができる。これにより、ビデオカメラの農用車両の取り付け位置とビデオカメラの視野等との関係により農用車両の一部が撮像画像に写り込む場合でも撮像画像を選択することにより農用車両の一部を消去することができる。 At the time of compositing, it is possible to select whether to preferentially synthesize the captured image captured earlier or to preferentially combine the captured image captured later for the overlapping portion of the captured image. As a result, even if a part of the agricultural vehicle is reflected in the captured image due to the relationship between the mounting position of the agricultural vehicle of the video camera and the field of view of the video camera, the part of the agricultural vehicle can be erased by selecting the captured image. Can be done.
しかしながら、上記従来の作物栽培支援装置によると、撮像画像の重複部分について、先に撮像した撮像画像に農用車両の一部が写り込み、後に撮像した撮像画像に例えば水面に映った太陽が写り込む場合がある。この場合には合成に用いる撮像画像上に不具合が発生し、圃場全体の合成画像の品質が低下する。このため、栽培領域内の作物の生育状態の判断に有用な画像を提供できない問題があった。 However, according to the above-mentioned conventional crop cultivation support device, a part of the agricultural vehicle is reflected in the first captured image and the sun reflected on the water surface is reflected in the later captured image for the overlapping portion of the captured image. In some cases. In this case, a defect occurs in the captured image used for compositing, and the quality of the composite image of the entire field is deteriorated. Therefore, there is a problem that it is not possible to provide an image useful for determining the growth state of the crop in the cultivated area.
本発明は、栽培領域内の作物の生育状態の判断に有用な画像を提供できる作物栽培支援装置を提供することを目的とする。 An object of the present invention is to provide a crop cultivation support device capable of providing an image useful for determining the growth state of a crop in a cultivation area.
上記目的を達成するために本発明は、作物を栽培する栽培領域の上空を移動して前記栽培領域を撮像する撮像部と、前記撮像部の位置を検出する位置検出部と、前記栽培領域の同一地点の地点画像を前記撮像部で撮像した複数の撮像画像に基づいて形成するとともに複数の前記地点画像を合成する合成部とを備えた作物栽培支援装置において、
前記撮像画像上の不具合を有した不具合領域を検出する不具合検出部を設け、
前記合成部が前記不具合検出部により検出した前記不具合領域を除いて前記地点画像を形成することを特徴としている。
In order to achieve the above object, the present invention has an image pickup unit that moves over a cultivation area where a crop is cultivated and images the cultivation area, a position detection unit that detects the position of the image pickup unit, and the cultivation area. In a crop cultivation support device provided with a compositing unit that forms a point image of the same point based on a plurality of captured images captured by the imaging unit and synthesizes a plurality of the point images.
A defect detection unit for detecting a defect area having a defect on the captured image is provided.
It is characterized in that the synthesis unit forms the point image excluding the defect region detected by the defect detection unit.
また本発明は、上記構成の作物栽培支援装置において、前記不具合検出部が一の前記撮像画像内を区分した複数の領域の所定の特性値を相対比較して前記不具合領域を検出することが好ましい。 Further, in the present invention, in the crop cultivation support device having the above configuration, it is preferable that the defect detection unit detects the defect region by relative comparison of predetermined characteristic values of a plurality of regions divided in the captured image. ..
また本発明は、上記構成の作物栽培支援装置において、前記不具合検出部が複数の前記撮像画像の同一地点に対する複数の領域の所定の特性値を相対比較して前記不具合領域を検出することが好ましい。 Further, in the present invention, in the crop cultivation support device having the above configuration, it is preferable that the defect detection unit detects the defect region by relative comparison of predetermined characteristic values of a plurality of regions with respect to the same point of the plurality of captured images. ..
また本発明は、上記構成の作物栽培支援装置において、前記不具合検出部が一の前記撮像画像内を区分した複数の領域の特性値と所定の閾値とを比較して前記不具合領域を検出することが好ましい。 Further, in the present invention, in the crop cultivation support device having the above configuration, the defect detection unit detects the defect region by comparing the characteristic values of a plurality of regions divided in one captured image with a predetermined threshold value. Is preferable.
また本発明は、上記構成の作物栽培支援装置において、前記不具合検出部が各前記撮像画像の周部を前記不具合領域として検出することが好ましい。 Further, in the present invention, in the crop cultivation support device having the above configuration, it is preferable that the defect detecting unit detects the peripheral portion of each captured image as the defect region.
また本発明は、上記構成の作物栽培支援装置において、前記撮像部が可視画像を撮像する可視撮像部と、近赤外画像を撮像する近赤外撮像部とを有し、前記不具合検出部は、前記可視画像の画素と前記近赤外画像の画素とのずれ量が所定量よりも大きい領域を前記不具合領域として検出することが好ましい。 Further, according to the present invention, in the crop cultivation support device having the above configuration, the imaging unit includes a visible imaging unit that captures a visible image and a near-infrared imaging unit that captures a near-infrared image. It is preferable to detect a region where the amount of deviation between the pixels of the visible image and the pixels of the near-infrared image is larger than a predetermined amount as the defective region.
また本発明は、上記構成の作物栽培支援装置において、前記撮像部の位置、画角及び画素数に基づいて前記地点画像の位置を導出することが好ましい。 Further, in the present invention, it is preferable to derive the position of the point image based on the position, the angle of view and the number of pixels of the image pickup unit in the crop cultivation support device having the above configuration.
また本発明は、上記構成の作物栽培支援装置において、複数の前記撮像画像及び複数の地点画像を記憶する記憶部が所定のネットワーク上に設けられることが好ましい。 Further, in the present invention, in the crop cultivation support device having the above configuration, it is preferable that a storage unit for storing a plurality of the captured images and a plurality of point images is provided on a predetermined network.
本発明によると、撮像部で撮像した複数の撮像画像に基づいて栽培領域の同一地点の地点画像を形成するとともに複数の地点画像を合成する合成部と、撮像画像上の不具合を有した不具合領域を検出する不具合検出部とを備える。そして、合成部が不具合検出部により検出した不具合領域を除いて地点画像を形成する。これにより、不具合領域が除去された複数の地点画像を合成することができ、合成後の画像の品質を向上させることができる。したがって、栽培領域内の作物の生育状態の判断に有用な画像を提供することができる。 According to the present invention, there is a compositing unit that forms a point image of the same point in the cultivation area based on a plurality of captured images captured by the imaging unit and synthesizes a plurality of point images, and a defective area having a defect on the captured image. It is equipped with a defect detection unit that detects. Then, the point image is formed by excluding the defect region detected by the defect detection unit by the composition unit. As a result, it is possible to combine a plurality of point images from which defective areas have been removed, and it is possible to improve the quality of the combined image. Therefore, it is possible to provide an image useful for determining the growth state of the crop in the cultivation area.
以下に図面を参照して本発明の一実施形態について説明する。図1は本実施形態の作物栽培支援装置の概略構成を示す図である。作物栽培支援装置1は撮像部2及び情報端末3を備え、作物PLを栽培する圃場FD(栽培領域)の全体の画像を形成する。なお、圃場FDとは例えば平面視略矩形形状で四辺に畦畔が設けられ、畦畔で囲まれた水田または畑を示す。
An embodiment of the present invention will be described below with reference to the drawings. FIG. 1 is a diagram showing a schematic configuration of a crop cultivation support device of the present embodiment. The crop
撮像部2は例えばマルチスペクトルカメラにより構成され、飛行体4に取り付けられる。撮像部2は可視撮像部20(図2参照)及び近赤外撮像部21(図2参照)を有する。可視撮像部20と近赤外撮像部21とは圃場FDに平行な面内で所定間隔をあけて配置される。
The
可視撮像部20は可視光の画像(可視画像)を形成する。可視撮像部20は、第1バンドパスフィルタ、第1結像光学系、第1イメージセンサ及び第1デジタルシグナルプロセッサ等を有する(いずれも不図示)。第1バンドパスフィルタは例えば波長650nmを中心波長とする比較的狭帯域で光を透過させる。第1結像光学系は、第1バンドパスフィルタを透過した測定対象の可視光の光学像を所定の第1結像面上に結像する。第1イメージセンサは、第1結像面に受光面を一致させて配置され、測定対象の可視光の光学像を電気的な信号に変換する。第1デジタルシグナルプロセッサは第1イメージセンサの出力に対して画像処理を施し、可視画像を形成する。
The
近赤外撮像部21は近赤外光の画像(近赤外画像)を形成する。近赤外撮像部20は、第2バンドパスフィルタ、第2結像光学系、第2イメージセンサ及び第2デジタルシグナルプロセッサを有する(いずれも不図示)。第2バンドパスフィルタは750nm以上の所定波長(例えば波長800nm)を中心波長とする比較的狭帯域で光を透過させる。第2結像光学系は、第2バンドパスフィルタを透過した測定対象の近赤外光の光学像を所定の第2結像面上に結像する。第2イメージセンサは第2結像面に受光面を一致させて配置され、測定対象の近赤外光の光学像を電気的な信号に変換する。第2デジタルシグナルプロセッサは第2イメージセンサの出力に対して画像処理を施し、近赤外画像を形成する。なお、第1イメージセンサ及び第2イメージセンサとして例えばVGAタイプ(640画素×480画素)のイメージセンサを用いることができる。
The near-infrared imaging unit 21 forms an image of near-infrared light (near-infrared image). The near-
なお、撮像部2は近赤外撮像部21を省き、可視撮像部20により構成されてもよい。この場合、可視撮像部20は、第1結像光学系と、第1イメージセンサと、第1イメージセンサ上に配置されたR/G/B/IrまたはW/Y/R/Irとを備えて構成される(例えば特許第5168353号公報参照)。上記「R」、「G」、「B」はそれぞれ主に赤色光、緑色光、青色光を透過させるフィルタである。上記「Ir」は主に近赤外光を透過させるフィルタである。上記「W」は主に白色光を透過させるフィルタであり、上記「Y」は主に黄色光を透過させるフィルタである。
The
飛行体4は自律飛行可能な無人航空機(ドローン)により構成され、圃場FDの上空を飛行する。飛行体4は複数(例えば8個)の水平回転翼42を設けたハウジング41を有する。撮像部2はハウジング41の下面に取り付けられた筐体25内に配置される。移動機構(不図示)により筐体25は開口部(不図示)を有する下面が鉛直下方に向く方向と正面に向く方向とに移動可能に構成される。これにより、可視撮像部20及び近赤外撮像部21は開口部を介して鉛直下方を向く方向と正面を向く方向とを移動可能になっている。また、ハウジング41の下面から下方に向かって複数の脚部46が突設される。飛行体4の着陸の際に脚部46が地面に接触する。
The
飛行体4に対して事前のプログラミングによって飛行経路及び飛行高度等を設定すると、使用者が無線コントローラ(不図示)等を用いて操縦しなくても飛行体4は水平回転翼42を回転させて自律飛行することができる。飛行体4が飛行する際には可視撮像部20及び近赤外撮像部21は鉛直下方を向く。これにより、可視撮像部20及び近赤外撮像部21は圃場FDの上空を移動して圃場FDを撮像することができる。飛行体4が着陸する際には可視撮像部20及び近赤外撮像部21は正面方向を向く。これにより、可視撮像部20及び近赤外撮像部21のレンズ(不図示)等の地面への衝突による破損を防止することができる。なお、飛行体4は使用者による無線操縦飛行(誘導飛行)可能に構成されてもよい。
When the flight path, flight altitude, etc. are set for the
また、飛行体4は例えば気球、飛行船、飛行機、ヘリコプター等であってもよい。また、飛行体4に替えて、地上から筐体25を吊り上げるクレーン等の吊上げ装置(不図示)を用いてもよい。この時、吊り下げた筐体25を水平方向に移動させる。
Further, the flying
情報端末3は例えばパーソナルコンピュータにより構成される。情報端末3は接続部35、45(図2参照)を介して飛行体4及び撮像部2と通信可能に構成され、表示部31及び操作部32を有する。表示部31は例えば液晶パネル等から成り、操作メニュー、飛行体4との通信状況、後述の合成画像CI等を表示する。操作部32はキーボード32a及びマウス32bを有し、各種データの入力操作を受け付けて出力する。なお、情報端末3はスマートフォン等の携帯電話機またはタブレットPCにより構成されてもよい。
The
図2は作物栽培支援装置1の構成を示すブロック図である。情報端末3及び飛行体4はそれぞれの各部を制御するCPUから成る制御部39、49をそれぞれ有する。制御部39と制御部49とは接続部35、45を介して無線接続される。制御部39には表示部31、操作部32、記憶部33、合成部34、接続部35、不具合検出部36及び生育指標導出部37が接続される。
FIG. 2 is a block diagram showing the configuration of the crop
記憶部33は各種プログラム及び各種データを記憶する。各種プログラムには情報端末3の全体動作を制御するプログラム等が含まれる。各種データには可視画像、近赤外画像、撮像画像FI、地点画像PI及び合成画像CI等が含まれる。撮像画像FIは本実施形態では可視画像及び近赤外画像に基づいて形成された画像である。地点画像PIは撮像画像FI上の地点の画像である。なお、地点画像PIは一または複数画素から成り、一の地点画像PIの大きさは一の撮像画像FIの大きさよりも小さくなっている。合成画像CIは複数の地点画像PIを合成して形成される画像であり、本実施形態では例えば一の圃場FDの全体の画像である。また、本実施形態では撮像画像FI、地点画像PI及び合成画像CIは後述のNDVI画像により形成される。
The
合成部34は地点画像PIを複数(本実施形態では6枚)の撮像画像FIに基づいて形成する。また、合成部34は複数の地点画像PIを合成する。これにより、合成部34は合成画像CIを形成する。なお、地点画像PIの詳細については後述する。
The synthesizing
接続部35、45にはアンテナ(不図示)が設けられる。接続部35、45はアンテナを介して無線電波により通信データの送受信を行う。通信データには可視撮像部20及び近赤外撮像部21がそれぞれ撮像した可視画像及び近赤外画像が含まれる。
Antennas (not shown) are provided at the
不具合検出部36は、撮像画像FI上の後述の不具合を有した不具合領域DR(図6参照)を検出する。合成部34は後述のように不具合領域DRを除いて地点画像PIを形成する。
The
生育指標導出部37は、可視撮像部20で撮像した可視画像及び近赤外撮像部21で撮像した近赤外画像に基づいて、圃場FD内の作物PLの生育状態を示す生育指標を導出する。本実施形態では生育指標として、NDVI(Normalized Difference Vegetation Index、正規化差植生指数)を用いている。NDVIで表示した画像であるNDVI画像は可視画像及び近赤外画像に基づいて形成される。可視画像の画素値をRvとし、近赤外画像の画素値をRiとすると、可視画像及び近赤外画像の画素値に対応するNDVI画像の画素値がNDVIに相当し、NDVI=(Ri-Rv)/(Ri+Rv)と表される。NDVIが大きいほど植生が濃いことを表す。
The growth
例えばNDVI画像の画素位置(10,15)における画素値は、可視画像の画素位置(10,15)における画素値及び近赤外画像の画素位置(10,15)における画素値から導出される。なお、可視撮像部20と近赤外撮像部21との視差が考慮され、可視画像の画素位置及び近赤外画像の画素位置のうちの少なくとも一方の画素位置が視差を修正するようにシフトされた上で、NDVIが導出されてもよい。また、可視撮像部20の第1結像光学系と近赤外撮像部21の第2結像光学系は画角及び歪曲収差等の光学特性が互いに同等である。
For example, the pixel value at the pixel position (10, 15) of the NDVI image is derived from the pixel value at the pixel position (10, 15) of the visible image and the pixel value at the pixel position (10, 15) of the near-infrared image. Considering the difference between the visible
なお、生育指標として、RVI(Ratio Vegetation Index、比植生指数、RVI=Ri/Rv)、DVI(Difference Vegetation Index、差植生指数、DVI=Ri-Rv)、TVI(Transformed Vegetation Index、TVI=NDVI+0.5)0.5)、またはIPVI(Infrared Percentage Vegetation Index、IPVI=Ri/(Ri+Rv)=(NDVI+1)/2)等を用いてもよい。 In addition, as a growth index, RVI (Ratio Vegetation Index, ratio vegetation index, RVI = Ri / Rv), DVI (Difference Vegetation Index, differential vegetation index, DVI = Ri-Rv), TVI (Transformed Definition0. 5) 0.5 ), IPVI (Infrared Percentage Vegetation Index, IPVI = Ri / (Ri + Rv) = (NDVI + 1) / 2) or the like may be used.
また、生育指標として、圃場FDの地表面を作物PLが覆っている割合を示す植被率を用いてもよい。例えば、近赤外撮像部21で撮像した圃場FDの近赤外画像に基づいて生育指標導出部37は二値化処理を行い、白色と黒色の二値化画像を形成する。この時、白色部分が作物PLに相当し、黒色部分が土壌に相当する。そして、生育指標導出部37は二値化画像において白色部分が占める割合を示す植被率を導出する。
Further, as a growth index, a vegetation coverage ratio indicating the ratio of the crop PL covering the ground surface of the field FD may be used. For example, the growth
飛行体4の制御部49には記憶部43、接続部45、水平回転翼42、方位測定部47及び位置検出部48が接続される。また、制御部49には可視撮像部20及び近赤外撮像部21が接続される。記憶部43には飛行体4の制御プログラム(自律飛行プログラムを含む)、撮像部2の制御プログラム及び各種データが記憶される。記憶部43が記憶する各種データには飛行体4の飛行経路及び高度等の飛行データ等が含まれる。
A
位置検出部48は例えばGPS(Global Positioning System、全地球測位システム)を備える。なお、GPSはDGPS(Differential GPS)等の誤差を補正する補正機能を有するGPSであってもよい。位置検出部48により撮像部2(可視撮像部20及び近赤外撮像部21)の位置(緯度X、経度Y、高度Z)が検出される。方位測定部47は例えば3軸方位計(3軸地磁気センサ)により構成され、撮像部2の地球上における方位を測定する。また、制御部39は、撮像部2の位置、画角及び画素数から地点画像PIの位置を導出する。
The
図3は合成画像CIを形成する工程を示す図である。合成画像CIを形成する工程は撮影工程、NDVI画像形成工程、不具合検出工程、地点画像形成工程及び画像合成工程を有する。本実施形態では、合成画像CIは一の圃場FDの画像を例として説明する。 FIG. 3 is a diagram showing a process of forming a composite image CI. The step of forming the composite image CI includes a photographing step, an NDVI image forming step, a defect detection step, a point image forming step, and an image compositing step. In the present embodiment, the composite image CI will be described using an image of one field FD as an example.
図4は撮像工程を示す平面図である。上記構成の作物栽培支援装置1において、水平回転翼42の回転により飛行体4が自律飛行し、圃場FDの上空に到達する。飛行体4は圃場FDの上空を設定高度H(本実施形態では30m)及び設定速度(本実施形態では15km/h)で、矢印FCで示すように平面視で九十九折りに飛行する。具体的には、飛行体4は圃場FDの長手方向に沿って長手方向の一方端部から他方端部に向かって飛行し、他方端部に到達すると圃場FDの短手方向に沿って所定距離飛行した後に長手方向に沿って長手方向の一方端部に向かって飛行することを繰り返す。飛行体4が圃場FDの上空を飛行している間に可視撮像部20及び近赤外撮像部21は圃場FDを撮像する。
FIG. 4 is a plan view showing an imaging process. In the crop
図5は撮像工程の側面図を示している。なお、図5では飛行体4の図示を省略し、矢印FCは飛行体4の飛行方向(撮像部2の移動方向)を示している。撮像工程において、可視撮像部20及び近赤外撮像部21の画角αを45°とすると、撮像範囲Dは約24.85m×約33.13mの領域となる。そして、撮像部2が1秒間に可視画像及び近赤外画像をそれぞれ1枚撮像する場合、圃場FD上の同一地点SPがそれぞれ6回撮像される。可視画像及び近赤外画像は接続部45、35を介して制御部39に送信され、記憶部33に記憶される。この時、各可視画像及び各近赤外画像は撮像部2の位置と関連付けて記憶部33に記憶される。撮像工程の後に、NDVI画像形成工程に移行する。
FIG. 5 shows a side view of the imaging process. In FIG. 5, the illustration of the flying
NDVI画像形成工程では、生育指標導出部37により可視画像の画素及び近赤外画像の画素からNDVIが導出される。これにより、NDVI画像である撮像画像FIが形成される。NDVI画像ではNDVIに応じてR、G、Bで色分けされる。例えば、NDVI画像において、R、G、Bの順にNDVIが低くなる。NDVI画像形成工程の後に不具合検出工程に移行する。
In the NDVI image forming step, the NDVI is derived from the pixels of the visible image and the pixels of the near-infrared image by the growth
図6は不具合検出工程時において、同一地点SPが撮像された複数(本実施形態では6枚)の撮像画像FIを示す図である。「A」~「F」の撮像画像FIには同一地点SPが撮像される。「A」~「F」の撮像画像FIの撮像タイミングはそれぞれ異なり、「A」~「F」の順で時系列に並んでいる。例えば圃場FDが水田の場合には、撮影工程時に水面に映った太陽が可視画像及び近赤外画像に写り込む場合がある。このため、撮像画像FI上に太陽の写り込みに起因する不具合を有した不具合領域DRが生じる場合がある。 FIG. 6 is a diagram showing a plurality of (six images in this embodiment) captured image FI in which the same point SP is captured during the defect detection step. The same point SP is imaged in the captured images FI of "A" to "F". The imaging timings of the captured images FI of "A" to "F" are different from each other, and they are arranged in chronological order in the order of "A" to "F". For example, when the field FD is a paddy field, the sun reflected on the water surface during the photographing process may be reflected in the visible image and the near infrared image. For this reason, a defective region DR may occur on the captured image FI, which has a defect due to the reflection of the sun.
また、撮像工程において、例えば撮像部2を収納した筐体25の向きが移動機構の誤作動等によって正面方向(圃場FD以外の方向)に一時的に変更される場合がある。この場合、撮像画像FI上で撮像部2の向きが変更された時の領域が不具合領域DRとなる。
Further, in the imaging process, for example, the orientation of the
また、撮像工程において、例えば風等により作物PLが倒伏した様子が可視画像及び近赤外画像に写り込む場合がある。この場合、撮像画像FI上で作物PLが倒伏した領域が不具合領域DRとなる。 Further, in the imaging process, for example, the appearance of the crop PL lying down due to wind or the like may be reflected in the visible image and the near infrared image. In this case, the region where the crop PL has fallen on the captured image FI is the defective region DR.
また、撮像画像FIの周辺部PhのNDVI(特性値)が中心部CPのNDVIよりも低下するシェーディング誤差が発生する場合がある。この場合、撮像画像FIの周辺部Phの領域が不具合領域DRとなる。 In addition, a shading error may occur in which the NDVI (characteristic value) of the peripheral portion Ph of the captured image FI is lower than that of the NDVI of the central portion CP. In this case, the region of the peripheral portion Ph of the captured image FI becomes the defective region DR.
また、前述のように可視撮像部20と近赤外撮像部21とは所定距離離れて配置されている。このため、可視撮像部20と近赤外撮像部21との視差に起因する可視画素と近赤外画素とのズレによる誤差が発生する場合がある。この場合、ズレ量が所定値よりも大きい領域が不具合領域DRとなる。
Further, as described above, the
上記例の不具合領域DRのNDVIは不具合のない他の領域(不具合領域DRではない領域)のNDVIよりも低い値を示す。このため、不具合領域DRのNDVIを用いて複数の地点画像PIを合成すると、合成画像CIの品質が低下する。そこで、不具合検出部36は、撮像画像FI上の不具合領域DRを検出し、合成部34は不具合検出部36により検出した不具合領域DRを除いて地点画像PIを形成する。本実施形態では、不具合検出部36は一の撮像画像FI内を区分した複数の領域のNDVIを相対比較して不具合領域DRを検出する。
The NDVI of the defective region DR in the above example shows a lower value than the NDVI of another region (region that is not the defective region DR) without defects. Therefore, if a plurality of point image PIs are combined using the NDVI of the defective region DR, the quality of the combined image CI deteriorates. Therefore, the
例えば、図6に示す同一地点SPを撮像した「A」~「F」の撮像画像FIにおいて、圃場FDの水面に映った太陽が写り込んだ場合、不具合検出部36は太陽が写り込んだ領域を不具合領域DRとして検出する。この時、「C」の撮像画像FI上の同一地点SPを含む所定領域の領域画像Prは不具合領域DRと重なっている。なお、領域画像Prの大きさ(範囲)は撮像画像FIの大きさ(範囲)よりも小さく、地点画像PIと同じ大きさである。
For example, when the sun reflected on the water surface of the field FD is reflected in the captured images FI of "A" to "F" obtained by imaging the same point SP shown in FIG. 6, the
次に、合成部34は、同一地点SPを含む複数の領域画像Prについて、「C」の領域画像Prを使用せずに、残り5枚の領域画像Prを用いて同一地点SPを含む領域画像Pr内の各画素のNDVIの平均値を導出する。これにより、不具合領域DRが除去された同一地点SPの地点画像PI(図7参照)が形成される。その他の同一地点SPの領域画像Prについても同様に不具合領域DRが除去された地点画像PIが形成される。以上により、不具合領域DRが除去された複数の地点画像PIN(図7参照)が形成される。なお、「N」は複数の地点画像PIのそれぞれに割り当てられたシリアル番号であり、地点画像PIの総数がKである場合に1からKまでの整数である。
Next, the
なお、本実施形態において同一地点SPを含む6枚の領域画像Prについて、不具合領域DRが検出されない場合には合成部34は6枚全ての領域画像Prを用いて同一地点SPを含む領域画像Pr内の各画素のNDVIの平均値を導出する。なお、領域画像Prの画像補正により、不具合領域DRのNDVIを補正できる場合には補正後の領域画像Prを用いてもよい。
In the present embodiment, when the defective region DR is not detected for the six region image Prs including the same spot SP, the
次に、複数の地点画像PIを合成して合成画像CIを形成する画像合成工程について説明する。合成部34は、不具合領域DRが除去された複数の地点画像PINの各々における緯度XN、経度YN、高度ZN及び方位θNに基づいて、アフィン変換を行う画像変換行列を導出する。複数の地点画像PINの各々は、地点画像PINを形成する際に用いられた可視画像および近赤外画像の各々の撮像時における可視撮像部20及び近赤外撮像部21の緯度XN、経度YN、高度ZN及び方位θNを備える。合成部34は、複数の地点画像PINの各々について、地点画像PINの画素位置を地点画像PINの備える緯度XN、経度YN、高度ZN及び方位θNに基づくアフィン変換を行う。これにより、地点画像PIの画素位置を合成画像CIにおける画素位置へ変換する。
Next, an image synthesizing step of synthesizing a plurality of point image PIs to form a composite image CI will be described. The synthesizing
図7は画像合成工程を説明するための図を示している。図7の上段は複数の地点画像PINを示し、図7の下段は合成画像CIの座標系を示す。アフィン変換は、公知のように線形変換と平行移動(並進)とを組み合わせた変換であり、数式1により表される(例えば、「アフィン変換とは」、[online]、[2017年5月15日検索]、インターネット(URL:http//d.hatena.ne.jp/Zellij/20120523/p1))。 FIG. 7 shows a diagram for explaining the image composition process. The upper part of FIG. 7 shows a plurality of point image PINs , and the lower part of FIG. 7 shows the coordinate system of the composite image CI. As is known, an affine transformation is a transformation that combines a linear transformation and a translation (translation), and is expressed by Equation 1 (for example, "What is an affine transformation?", [Online], [May 15, 2017]. Day search], Internet (URL: http://d.hatena.ne.jp/Zellij/20120523/p1)).
数式1における右辺の列ベクトル(x,y)は図7の上段に示すように地点画像PIでの画素位置であり(N番目の地点画像PINではx=xN、y=yN)、列ベクトル(x´,y´)は図7の下段に示すように合成画像CIの座標系での画素位置を示す。数式1の右辺第1項における1行1列、1行2列、2行1列及び2行2列の各成分a、b、c、dから成る2行2列の行列は回転の変換行列R(θ)を表し、数式1の右辺第2項の列ベクトル(tx,ty)は並進(平行移動)の変換行列を表す。
The column vector (x, y) on the right side in
回転の変換行列R(θ)における各成分a、b、c、dは、方位測定部47の値θから、数式2によって与えられる(N番目の地点画像PINではθ=θN)。なお、撮像工程時の撮像部2の実際の高度が基準高度(設定高度H、図5参照)と異なる場合には、回転行列R(θ)に撮像工程時の撮像部2の実際の高度が基準高度と同等になるように撮像工程時の実際の高度に応じたスケーリング係数が乗算される。例えば、成分aはcosθにスケーリング係数を乗算した値である。
Each component a, b, c, d in the transformation matrix R (θ) of rotation is given by the
そして、並進(平行移動)の変換行列における各成分tx、tyは数式3及び数式4で与えられる。数式3及び数式4では、合成画像CIの座標系における原点(0,0)からの距離d[m]と、水平方向(x軸)との角度φ[rad]を緯度X及び経度Yから導出して画素数に変換する。
Then, the components t x and ty in the translation (translation) transformation matrix are given by the
数式3及び数式4の係数kはメートルを画素数に変換する係数である。例えば、第1イメージセンサ及び第2イメージセンサの画素数が480画素の場合には係数k=24.85[m]/480[画素]≒0.052[m/画素]となる。また、距離d[m]及び角度φ[rad]の算出方法は公知であり、数式5及び数式6によって与えられる(例えば「2地点間の距離と方位角」、[online]、[2017年5月22日検索]、インターネット(URL:http//keisan.casio.jp/exec/system/1257670779))。
The coefficient k in the
なお、数式5及び数式6のX1及びY1はそれぞれA地点の緯度及び経度であり、数式5及び数式6のX2及びY2はそれぞれB地点の緯度及び経度である。数式5のrは地球を球体とみなした際の赤道半径(=6378.137km)である。ここでは、A地点またはB地点が合成画像CIの座標系における原点(0,0)となる。 Note that X1 and Y1 in Equations 5 and 6 are the latitude and longitude of point A, respectively, and X2 and Y2 in Equations 5 and 6 are the latitude and longitude of point B, respectively. R in Equation 5 is the equatorial radius (= 6378.137 km) when the earth is regarded as a sphere. Here, the point A or the point B is the origin (0,0) in the coordinate system of the composite image CI.
また、数式1の回転行列と並進(平行移動)の変換行列とを単一の行列M(3行3列の行列)にまとめて数式7のように表現することができる。
Further, the rotation matrix of
なお、変換後の位置(x´,y´)における画素のNDVIを実際に求める際には、まず行列Mの逆行列であるM-1を導出し、変換後の(x´,y´)の対応位置(x、y)を数式8により導出する。 When actually obtaining the NDVI of the pixel at the position (x', y') after conversion, first derive M -1 , which is the inverse matrix of the matrix M, and then (x', y') after conversion. Corresponding position (x, y) of is derived by the formula 8.
そして、数式8により得られる変換前の位置(x,y)における画素のNDVIまたは当該位置近傍に存在する複数の画素のNDVIによって補間(線形補間等)されるNDVIを変換後の位置(x´,y´)における画素のNDVIとして決定する。 Then, the NDVI that is interpolated (linear interpolation, etc.) by the NDVI of the pixel at the position (x, y) before conversion obtained by Equation 8 or the NDVI of a plurality of pixels existing in the vicinity of the position is converted to the position (x') after conversion. , Y') is determined as the NDVI of the pixel.
本実施形態の作物栽培支援装置1によると、作物PLを栽培する圃場FD(栽培領域)の上空を移動して圃場FDを撮像する撮像部2と、撮像部2の位置を検出する位置検出部48と、圃場FDの同一地点SPの地点画像PIを撮像部2で撮像した複数の撮像画像FIに基づいて形成するとともに複数の地点画像PIを合成する合成部34とを備える。また、撮像画像FI上の不具合を有した不具合領域DRを検出する不具合検出部36を設け、合成部34が不具合検出部36により検出した不具合領域DRを除いて地点画像PIを形成する。
According to the crop
これにより、不具合領域DRが除かれた地点画像PIを形成し、複数の地点画像PIを合成する。したがって、圃場FD全体の合成画像の品質が向上し、作物PLの生育状態の判断に有用な画像を提供することができる。 As a result, a point image PI from which the defective region DR is removed is formed, and a plurality of point image PIs are combined. Therefore, the quality of the composite image of the entire field FD is improved, and it is possible to provide an image useful for determining the growth state of the crop PL.
また、不具合検出部36が一の撮像画像FI内を区分した複数の領域のNDVI(特性値)を相対比較して不具合領域DRを検出する。これにより、不具合検出部36は不具合領域DRを容易に検出することができる。
Further, the
なお、不具合検出部36が複数の撮像画像FIの同一地点SPに対する複数の領域のNDVI(特性値)を相対比較して不具合領域DRを検出してもよい。この場合でも、不具合検出部36は不具合領域DRを容易に検出することができる。
The
また、不具合検出部36が一の撮像画像FI内を区分した複数の領域のNDVI(特性値)と所定の閾値とを比較して不具合領域DRを検出してもよい。この場合でも、不具合検出部36は不具合領域DRを容易に検出することができる。
Further, the
また、不具合検出部36が各撮像画像FIの周部Phを不具合領域DRと判定してもよい。これにより、撮像画像FIの周辺部PhのNDVIが中心部CPのNDVIよりも低下するシェーディング誤差による合成画像CIの品質低下を容易に防止することができる。
Further, the
また、撮像部2が可視画像を撮像する可視撮像部20と、近赤外画像を撮像する近赤外撮像部21とを有し、不具合検出部36は、可視画像の画素と近赤外画像の画素とのずれ量が所定量よりも大きい領域を不具合領域DRと判定してもよい。これにより、可視撮像部20と近赤外撮像部21との視差による可視画素と近赤外画素とのズレによる誤差に起因する合成画像CIの品質低下を容易に防止することができる。
Further, the
また、制御部39は撮像部2の位置、画角α及び画素数に基づいて地点画像PIの位置を導出する。これにより、地点画像PIの位置を容易に導出することができる。
Further, the
なお、情報端末3がインターネット等の所定のネットワークに接続され、撮像画像FI、地点画像PI及び合成画像CIを記憶する記憶部がネットワーク上に設けられてもよい。これにより、記憶部33の容量を小さくすることができる。
The
なお、本実施形態において、撮像画像FI、地点画像PI及び合成画像CIはNDVI画像になっているが、撮像画像FI、地点画像PI及び合成画像CIはNDVI画像に限定されない。例えば、撮像部2から近赤外撮像部21を省き、撮像画像FI、地点画像PI及び合成画像CIは可視撮像部20で撮像したRGB値のカラー画像でもよい。また、撮像画像FI、地点画像PI及び合成画像CIは植被率で表した画像でもよい。
In the present embodiment, the captured image FI, the point image PI, and the composite image CI are NDVI images, but the captured image FI, the point image PI, and the composite image CI are not limited to the NDVI image. For example, the near-infrared imaging unit 21 may be omitted from the
本発明は、栽培領域を撮像する撮像部を備える作物栽培支援装置に利用することができる。 INDUSTRIAL APPLICABILITY The present invention can be used for a crop cultivation support device including an image pickup unit that captures an image of a cultivation area.
1 作物栽培支援装置
2 撮像部
3 情報端末
4 飛行体
20 可視撮像部
21 近赤外撮像部
25 筐体
31 表示部
32 操作部
33 記憶部
34 合成部
35 接続部
36 不具合検出部
37 生育指標導出部
43 記憶部
45 接続部
47 方位測定部
48 位置検出部
DR 不具合領域
FD 圃場
FI 撮像画像
PI 地点画像
PL 作物
Pr 領域画像
SP 同一地点
1 Crop
Claims (6)
前記撮像部の位置を検出する位置検出部と、
合成部とを備えた作物栽培支援装置において、
前記撮像部が撮像した撮像画像上の不具合を有した不具合領域を検出する不具合検出部を設け、
前記合成部は、前記栽培領域の同一地点が撮像されているともに撮像タイミングがそれぞれ異なる複数の前記撮像画像から、それぞれの前記撮像画像における前記同一地点を含む所定領域である複数の領域画像を生成し、複数の前記領域画像のうち、前記不具合検出部により検出した不具合領域を含む前記領域画像を除くとともに、前記不具合領域を含まない前記領域画像を用いて地点画像を生成し、互いに異なる複数の前記地点画像を、その位置に対応させて合成して合成画像を形成し、
前記撮像部が可視画像を撮像する可視撮像部と、近赤外画像を撮像する近赤外撮像部とを有し、
前記不具合検出部は、前記可視画像の画素と前記近赤外画像の画素とのずれ量が所定量よりも大きい領域を前記不具合領域として検出することを特徴とする作物栽培支援装置。 An imaging unit that moves over the cultivation area where crops are cultivated and images the cultivation area,
A position detection unit that detects the position of the image pickup unit and
In a crop cultivation support device equipped with a synthesis unit,
A defect detection unit is provided to detect a defect area having a defect on the captured image captured by the imaging unit.
The synthesis unit generates a plurality of region images which are predetermined regions including the same spot in each of the captured images from a plurality of captured images in which the same spot in the cultivated region is imaged and the imaging timings are different from each other. Then, among the plurality of the region images, the region image including the defect region detected by the defect detection unit is excluded, and a point image is generated using the region image not including the defect region, and a plurality of images different from each other are generated. The point image is combined corresponding to the position to form a composite image, and the composite image is formed .
The imaging unit has a visible imaging unit that captures a visible image and a near-infrared imaging unit that captures a near-infrared image.
The defect detection unit is a crop cultivation support device characterized in that a region in which the amount of deviation between the pixels of the visible image and the pixels of the near infrared image is larger than a predetermined amount is detected as the defect region .
前記撮像部の位置を検出する位置検出部と、
前記栽培領域の同一地点の地点画像を前記撮像部で撮像した複数の撮像画像に基づいて形成するとともに複数の前記地点画像を合成する合成部とを備えた作物栽培支援装置において、
前記撮像画像上の不具合を有した不具合領域を検出する不具合検出部を設け、
前記合成部が前記不具合検出部により検出した前記不具合領域を除いて前記地点画像を形成し、
前記撮像部が可視画像を撮像する可視撮像部と、近赤外画像を撮像する近赤外撮像部とを有し、
前記不具合検出部は、前記可視画像の画素と前記近赤外画像の画素とのずれ量が所定量よりも大きい領域を前記不具合領域として検出することを特徴とする作物栽培支援装置。 An imaging unit that moves over the cultivation area where crops are cultivated and images the cultivation area,
A position detection unit that detects the position of the image pickup unit and
In a crop cultivation support device provided with a compositing unit that forms a point image of the same point in the cultivation area based on a plurality of captured images captured by the imaging unit and synthesizes a plurality of the point images.
A defect detection unit for detecting a defect area having a defect on the captured image is provided.
The point image is formed by excluding the defect region detected by the defect detection unit by the synthesis unit.
The imaging unit has a visible imaging unit that captures a visible image and a near-infrared imaging unit that captures a near-infrared image.
The defect detection unit is a crop cultivation support device characterized in that a region in which the amount of deviation between the pixels of the visible image and the pixels of the near infrared image is larger than a predetermined amount is detected as the defect region.
作物を栽培する栽培領域の上空を移動して前記栽培領域を撮像する撮像部により撮像された撮像画像を、前記撮像部の位置と関連付けて受け取るステップと、
前記撮像部が撮像した可視画像の画素と、前記撮像部が撮像した近赤外画像の画素とのずれ量が所定量よりも大きい領域を、前記撮像画像上の不具合を有した不具合領域として除いて、前記栽培領域の同一地点の地点画像を前記撮像部で撮像した複数の撮像画像に基づいて形成するステップと、
複数の前記地点画像を合成する合成部するステップと、
を実行させるプログラム。 On the computer
A step of moving over a cultivation area where crops are cultivated and receiving an image captured by an image pickup unit that images the cultivation area in association with the position of the image pickup unit.
A region where the amount of deviation between the pixels of the visible image captured by the imaging unit and the pixels of the near-infrared image captured by the imaging unit is larger than a predetermined amount is excluded as a defect region having a defect on the captured image. Then, a step of forming a point image of the same point in the cultivation area based on a plurality of captured images captured by the imaging unit, and
A step of synthesizing a plurality of the above-mentioned point images and a step of synthesizing them.
A program to execute.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017168580A JP7069609B2 (en) | 2017-09-01 | 2017-09-01 | Crop cultivation support device |
JP2022074326A JP7318768B2 (en) | 2017-09-01 | 2022-04-28 | Crop cultivation support device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017168580A JP7069609B2 (en) | 2017-09-01 | 2017-09-01 | Crop cultivation support device |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022074326A Division JP7318768B2 (en) | 2017-09-01 | 2022-04-28 | Crop cultivation support device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019046149A JP2019046149A (en) | 2019-03-22 |
JP7069609B2 true JP7069609B2 (en) | 2022-05-18 |
Family
ID=65814394
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017168580A Active JP7069609B2 (en) | 2017-09-01 | 2017-09-01 | Crop cultivation support device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7069609B2 (en) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110602462B (en) * | 2019-09-27 | 2020-11-03 | 南京工程学院 | Industrial image detection device and method based on AI |
JP7399680B2 (en) * | 2019-10-29 | 2023-12-18 | ヤンマーパワーテクノロジー株式会社 | Work support system |
JP6880380B2 (en) * | 2019-11-01 | 2021-06-02 | エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd | Image processing equipment, image processing methods, and programs |
JP7359464B2 (en) * | 2020-01-30 | 2023-10-11 | 株式会社ナイルワークス | Crop growing system |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003339238A (en) | 2002-05-28 | 2003-12-02 | Satake Corp | Method and apparatus for diagnosing crop growth |
JP2005284635A (en) | 2004-03-29 | 2005-10-13 | Seiko Epson Corp | Image forming apparatus, image forming method and image forming program |
JP2010014491A (en) | 2008-07-02 | 2010-01-21 | National Institute Of Advanced Industrial & Technology | Offshore monitoring system method |
JP2014228881A (en) | 2013-05-17 | 2014-12-08 | 株式会社日立製作所 | Mosaic image generation device, generation method, and generation program |
JP2016149006A (en) | 2015-02-12 | 2016-08-18 | アジア航測株式会社 | Change detection system using aerial mobile acquisition information, change detection method using aerial mobile acquisition information, and program of the same |
WO2016147870A1 (en) | 2015-03-16 | 2016-09-22 | コニカミノルタ株式会社 | Plant health diagnosis apparatus, method, and program |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001120042A (en) * | 1999-10-22 | 2001-05-08 | Hokuriku Natl Agricultural Experiment Station | Image mapping system |
-
2017
- 2017-09-01 JP JP2017168580A patent/JP7069609B2/en active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003339238A (en) | 2002-05-28 | 2003-12-02 | Satake Corp | Method and apparatus for diagnosing crop growth |
JP2005284635A (en) | 2004-03-29 | 2005-10-13 | Seiko Epson Corp | Image forming apparatus, image forming method and image forming program |
JP2010014491A (en) | 2008-07-02 | 2010-01-21 | National Institute Of Advanced Industrial & Technology | Offshore monitoring system method |
JP2014228881A (en) | 2013-05-17 | 2014-12-08 | 株式会社日立製作所 | Mosaic image generation device, generation method, and generation program |
JP2016149006A (en) | 2015-02-12 | 2016-08-18 | アジア航測株式会社 | Change detection system using aerial mobile acquisition information, change detection method using aerial mobile acquisition information, and program of the same |
WO2016147870A1 (en) | 2015-03-16 | 2016-09-22 | コニカミノルタ株式会社 | Plant health diagnosis apparatus, method, and program |
Non-Patent Citations (1)
Title |
---|
古瀬 達哉,UAVによる撮影画像の5D World Mapへのマッピングによる時空間・環境データベースの構築,第8回データ工学と情報マネジメントに関するフォーラム (第14回日本データベース学会年次大会) [online],日本,電子情報通信学会データ工学研究専門委員会 日本データベース学会 情報処理学会データベースシステム研究会,2016年03月02日 |
Also Published As
Publication number | Publication date |
---|---|
JP2019046149A (en) | 2019-03-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7069609B2 (en) | Crop cultivation support device | |
US20170277187A1 (en) | Aerial Three-Dimensional Scanner | |
US10401872B2 (en) | Method and system for collision avoidance | |
JP6996560B2 (en) | Crop cultivation support device | |
US20150130936A1 (en) | Crop monitoring system | |
JP6708790B2 (en) | Image generation device, image generation system, image generation method, and image generation program | |
US10249024B2 (en) | Systems and methods for enhancing object visibility for overhead imaging | |
EP3358480B1 (en) | Drawing creation device and drawing creation method | |
US11689808B2 (en) | Image synthesis system | |
KR101345554B1 (en) | Method of resampling high resolution digital multi band imagery from line senser into frame type imagery to construct gis(uis), digital map and 3d spatial information using ground control point and gps/ins data | |
JP2018160228A (en) | Route generation device, route control system, and route generation method | |
JP7074126B2 (en) | Image processing equipment, growth survey image creation system and program | |
US20130271638A1 (en) | Identifying pixels of image data | |
KR102313438B1 (en) | Method for estimation of river bed change rate using hyperspectral image | |
US20220301303A1 (en) | Multispectral imaging for navigation systems and methods | |
KR102313437B1 (en) | Method for estimation of bathymetry using hyperspectral image | |
JP7318768B2 (en) | Crop cultivation support device | |
Koirala et al. | Real-time hyperspectral image processing for UAV applications, using HySpex Mjolnir-1024 | |
Haavardsholm et al. | Multimodal Multispectral Imaging System for Small UAVs | |
WO2020044628A1 (en) | Cultivated land imaging system and cultivated land imaging method | |
JP6880380B2 (en) | Image processing equipment, image processing methods, and programs | |
CN115861463A (en) | Method for generating panoramic orthographic image of multispectral ground observation device and program product |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200318 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20210427 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210525 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210721 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220104 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220303 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220405 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220418 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7069609 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |