JP7069609B2 - Crop cultivation support device - Google Patents

Crop cultivation support device Download PDF

Info

Publication number
JP7069609B2
JP7069609B2 JP2017168580A JP2017168580A JP7069609B2 JP 7069609 B2 JP7069609 B2 JP 7069609B2 JP 2017168580 A JP2017168580 A JP 2017168580A JP 2017168580 A JP2017168580 A JP 2017168580A JP 7069609 B2 JP7069609 B2 JP 7069609B2
Authority
JP
Japan
Prior art keywords
image
unit
region
defect
captured
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017168580A
Other languages
Japanese (ja)
Other versions
JP2019046149A (en
Inventor
哲也 片桐
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Konica Minolta Inc
Original Assignee
Konica Minolta Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Konica Minolta Inc filed Critical Konica Minolta Inc
Priority to JP2017168580A priority Critical patent/JP7069609B2/en
Publication of JP2019046149A publication Critical patent/JP2019046149A/en
Priority to JP2022074326A priority patent/JP7318768B2/en
Application granted granted Critical
Publication of JP7069609B2 publication Critical patent/JP7069609B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、栽培領域を撮像する撮像部を備える作物栽培支援装置に関する。 The present invention relates to a crop cultivation support device including an imaging unit that captures an image of a cultivation area.

従来の作物栽培支援装置は特許文献1に開示されている。この作物栽培支援装置は農用車両に取り付けられたビデオカメラ(撮像部)、位置検出部及びパーソナルコンピュータを備える。位置検出部はGPSアンテナ及びGPS受信機を有する。パーソナルコンピュータにはビデオカメラ及び位置検出部が接続される。 The conventional crop cultivation support device is disclosed in Patent Document 1. This crop cultivation support device includes a video camera (imaging unit), a position detection unit, and a personal computer attached to an agricultural vehicle. The position detection unit has a GPS antenna and a GPS receiver. A video camera and a position detector are connected to the personal computer.

また、農用車両の上部には農用車両の後方に延びる支柱が設けられる。ビデオカメラは鉛直下方を向くように支柱の後端に固定される。ビテオカメラ1の直上にはGPSアンテナ4が取り付けられる。 In addition, a support column extending to the rear of the agricultural vehicle is provided on the upper part of the agricultural vehicle. The video camera is fixed to the rear end of the column so that it faces vertically downward. A GPS antenna 4 is attached directly above the video camera 1.

上記構成の作物栽培支援装置において、農用車両が圃場(栽培領域)上を走行すると、ビデオカメラは圃場を撮像して複数の撮像画像を形成する。パーソナルコンピュータは、GPSからの位置情報に基づき、複数の撮像画像の相互の位置関係を導出する。次に、パーソナルコンピュータ上で複数の撮像画像を合成し、圃場全体の合成画像を形成する。 In the crop cultivation support device having the above configuration, when the agricultural vehicle travels on the field (cultivation area), the video camera captures the field and forms a plurality of captured images. The personal computer derives the mutual positional relationship of a plurality of captured images based on the position information from the GPS. Next, a plurality of captured images are combined on a personal computer to form a composite image of the entire field.

合成の際には、撮像画像の重複部分について先に撮像した撮像画像を優先して合成するか、または後に撮像した撮像画像を優先して合成するのかを選択することができる。これにより、ビデオカメラの農用車両の取り付け位置とビデオカメラの視野等との関係により農用車両の一部が撮像画像に写り込む場合でも撮像画像を選択することにより農用車両の一部を消去することができる。 At the time of compositing, it is possible to select whether to preferentially synthesize the captured image captured earlier or to preferentially combine the captured image captured later for the overlapping portion of the captured image. As a result, even if a part of the agricultural vehicle is reflected in the captured image due to the relationship between the mounting position of the agricultural vehicle of the video camera and the field of view of the video camera, the part of the agricultural vehicle can be erased by selecting the captured image. Can be done.

特開2001-120042号公報(第3頁、第4頁、第1図、第2図、第4図)Japanese Unexamined Patent Publication No. 2001-120042 (Pages 3, 4, 4, Figure 1, Figure 2, Figure 4)

しかしながら、上記従来の作物栽培支援装置によると、撮像画像の重複部分について、先に撮像した撮像画像に農用車両の一部が写り込み、後に撮像した撮像画像に例えば水面に映った太陽が写り込む場合がある。この場合には合成に用いる撮像画像上に不具合が発生し、圃場全体の合成画像の品質が低下する。このため、栽培領域内の作物の生育状態の判断に有用な画像を提供できない問題があった。 However, according to the above-mentioned conventional crop cultivation support device, a part of the agricultural vehicle is reflected in the first captured image and the sun reflected on the water surface is reflected in the later captured image for the overlapping portion of the captured image. In some cases. In this case, a defect occurs in the captured image used for compositing, and the quality of the composite image of the entire field is deteriorated. Therefore, there is a problem that it is not possible to provide an image useful for determining the growth state of the crop in the cultivated area.

本発明は、栽培領域内の作物の生育状態の判断に有用な画像を提供できる作物栽培支援装置を提供することを目的とする。 An object of the present invention is to provide a crop cultivation support device capable of providing an image useful for determining the growth state of a crop in a cultivation area.

上記目的を達成するために本発明は、作物を栽培する栽培領域の上空を移動して前記栽培領域を撮像する撮像部と、前記撮像部の位置を検出する位置検出部と、前記栽培領域の同一地点の地点画像を前記撮像部で撮像した複数の撮像画像に基づいて形成するとともに複数の前記地点画像を合成する合成部とを備えた作物栽培支援装置において、
前記撮像画像上の不具合を有した不具合領域を検出する不具合検出部を設け、
前記合成部が前記不具合検出部により検出した前記不具合領域を除いて前記地点画像を形成することを特徴としている。
In order to achieve the above object, the present invention has an image pickup unit that moves over a cultivation area where a crop is cultivated and images the cultivation area, a position detection unit that detects the position of the image pickup unit, and the cultivation area. In a crop cultivation support device provided with a compositing unit that forms a point image of the same point based on a plurality of captured images captured by the imaging unit and synthesizes a plurality of the point images.
A defect detection unit for detecting a defect area having a defect on the captured image is provided.
It is characterized in that the synthesis unit forms the point image excluding the defect region detected by the defect detection unit.

また本発明は、上記構成の作物栽培支援装置において、前記不具合検出部が一の前記撮像画像内を区分した複数の領域の所定の特性値を相対比較して前記不具合領域を検出することが好ましい。 Further, in the present invention, in the crop cultivation support device having the above configuration, it is preferable that the defect detection unit detects the defect region by relative comparison of predetermined characteristic values of a plurality of regions divided in the captured image. ..

また本発明は、上記構成の作物栽培支援装置において、前記不具合検出部が複数の前記撮像画像の同一地点に対する複数の領域の所定の特性値を相対比較して前記不具合領域を検出することが好ましい。 Further, in the present invention, in the crop cultivation support device having the above configuration, it is preferable that the defect detection unit detects the defect region by relative comparison of predetermined characteristic values of a plurality of regions with respect to the same point of the plurality of captured images. ..

また本発明は、上記構成の作物栽培支援装置において、前記不具合検出部が一の前記撮像画像内を区分した複数の領域の特性値と所定の閾値とを比較して前記不具合領域を検出することが好ましい。 Further, in the present invention, in the crop cultivation support device having the above configuration, the defect detection unit detects the defect region by comparing the characteristic values of a plurality of regions divided in one captured image with a predetermined threshold value. Is preferable.

また本発明は、上記構成の作物栽培支援装置において、前記不具合検出部が各前記撮像画像の周部を前記不具合領域として検出することが好ましい。 Further, in the present invention, in the crop cultivation support device having the above configuration, it is preferable that the defect detecting unit detects the peripheral portion of each captured image as the defect region.

また本発明は、上記構成の作物栽培支援装置において、前記撮像部が可視画像を撮像する可視撮像部と、近赤外画像を撮像する近赤外撮像部とを有し、前記不具合検出部は、前記可視画像の画素と前記近赤外画像の画素とのずれ量が所定量よりも大きい領域を前記不具合領域として検出することが好ましい。 Further, according to the present invention, in the crop cultivation support device having the above configuration, the imaging unit includes a visible imaging unit that captures a visible image and a near-infrared imaging unit that captures a near-infrared image. It is preferable to detect a region where the amount of deviation between the pixels of the visible image and the pixels of the near-infrared image is larger than a predetermined amount as the defective region.

また本発明は、上記構成の作物栽培支援装置において、前記撮像部の位置、画角及び画素数に基づいて前記地点画像の位置を導出することが好ましい。 Further, in the present invention, it is preferable to derive the position of the point image based on the position, the angle of view and the number of pixels of the image pickup unit in the crop cultivation support device having the above configuration.

また本発明は、上記構成の作物栽培支援装置において、複数の前記撮像画像及び複数の地点画像を記憶する記憶部が所定のネットワーク上に設けられることが好ましい。 Further, in the present invention, in the crop cultivation support device having the above configuration, it is preferable that a storage unit for storing a plurality of the captured images and a plurality of point images is provided on a predetermined network.

本発明によると、撮像部で撮像した複数の撮像画像に基づいて栽培領域の同一地点の地点画像を形成するとともに複数の地点画像を合成する合成部と、撮像画像上の不具合を有した不具合領域を検出する不具合検出部とを備える。そして、合成部が不具合検出部により検出した不具合領域を除いて地点画像を形成する。これにより、不具合領域が除去された複数の地点画像を合成することができ、合成後の画像の品質を向上させることができる。したがって、栽培領域内の作物の生育状態の判断に有用な画像を提供することができる。 According to the present invention, there is a compositing unit that forms a point image of the same point in the cultivation area based on a plurality of captured images captured by the imaging unit and synthesizes a plurality of point images, and a defective area having a defect on the captured image. It is equipped with a defect detection unit that detects. Then, the point image is formed by excluding the defect region detected by the defect detection unit by the composition unit. As a result, it is possible to combine a plurality of point images from which defective areas have been removed, and it is possible to improve the quality of the combined image. Therefore, it is possible to provide an image useful for determining the growth state of the crop in the cultivation area.

本発明の一実施形態の作物栽培支援装置を示す概略構成図Schematic block diagram which shows the crop cultivation support apparatus of one Embodiment of this invention. 本発明の一実施形態の作物栽培支援装置の構成を示すブロック図A block diagram showing the configuration of a crop cultivation support device according to an embodiment of the present invention. 本発明の一実施形態の作物栽培支援装置の合成画像の形成工程を示す図The figure which shows the formation process of the synthetic image of the crop cultivation support apparatus of one Embodiment of this invention. 本発明の一実施形態の作物栽培支援装置の撮像工程を示す平面図The plan view which shows the image pickup process of the crop cultivation support apparatus of one Embodiment of this invention. 本発明の一実施形態の作物栽培支援装置の撮像工程を示す側面図Side view which shows the imaging process of the crop cultivation support apparatus of one Embodiment of this invention. 本発明の一実施形態の作物栽培支援装置の不具合検出工程を説明するための図The figure for demonstrating the defect detection process of the crop cultivation support apparatus of one Embodiment of this invention. 本発明の一実施形態の作物栽培支援装置の画像合成工程を示す図The figure which shows the image synthesis process of the crop cultivation support apparatus of one Embodiment of this invention.

以下に図面を参照して本発明の一実施形態について説明する。図1は本実施形態の作物栽培支援装置の概略構成を示す図である。作物栽培支援装置1は撮像部2及び情報端末3を備え、作物PLを栽培する圃場FD(栽培領域)の全体の画像を形成する。なお、圃場FDとは例えば平面視略矩形形状で四辺に畦畔が設けられ、畦畔で囲まれた水田または畑を示す。 An embodiment of the present invention will be described below with reference to the drawings. FIG. 1 is a diagram showing a schematic configuration of a crop cultivation support device of the present embodiment. The crop cultivation support device 1 includes an image pickup unit 2 and an information terminal 3, and forms an entire image of the field FD (cultivation area) in which the crop PL is cultivated. The field FD is, for example, a paddy field or a field having a substantially rectangular shape in a plan view and having ridges on all four sides and surrounded by the ridges.

撮像部2は例えばマルチスペクトルカメラにより構成され、飛行体4に取り付けられる。撮像部2は可視撮像部20(図2参照)及び近赤外撮像部21(図2参照)を有する。可視撮像部20と近赤外撮像部21とは圃場FDに平行な面内で所定間隔をあけて配置される。 The image pickup unit 2 is composed of, for example, a multispectral camera, and is attached to the flying object 4. The image pickup unit 2 has a visible image pickup unit 20 (see FIG. 2) and a near infrared image pickup unit 21 (see FIG. 2). The visible image pickup unit 20 and the near infrared image pickup unit 21 are arranged at predetermined intervals in a plane parallel to the field FD.

可視撮像部20は可視光の画像(可視画像)を形成する。可視撮像部20は、第1バンドパスフィルタ、第1結像光学系、第1イメージセンサ及び第1デジタルシグナルプロセッサ等を有する(いずれも不図示)。第1バンドパスフィルタは例えば波長650nmを中心波長とする比較的狭帯域で光を透過させる。第1結像光学系は、第1バンドパスフィルタを透過した測定対象の可視光の光学像を所定の第1結像面上に結像する。第1イメージセンサは、第1結像面に受光面を一致させて配置され、測定対象の可視光の光学像を電気的な信号に変換する。第1デジタルシグナルプロセッサは第1イメージセンサの出力に対して画像処理を施し、可視画像を形成する。 The visible imaging unit 20 forms an image of visible light (visible image). The visible imaging unit 20 includes a first bandpass filter, a first imaging optical system, a first image sensor, a first digital signal processor, and the like (all not shown). The first bandpass filter transmits light in a relatively narrow band having a wavelength of 650 nm as a central wavelength, for example. The first imaging optical system forms an optical image of visible light to be measured that has passed through the first bandpass filter on a predetermined first imaging plane. The first image sensor is arranged so that the light receiving surface is aligned with the first image plane, and converts an optical image of visible light to be measured into an electrical signal. The first digital signal processor performs image processing on the output of the first image sensor to form a visible image.

近赤外撮像部21は近赤外光の画像(近赤外画像)を形成する。近赤外撮像部20は、第2バンドパスフィルタ、第2結像光学系、第2イメージセンサ及び第2デジタルシグナルプロセッサを有する(いずれも不図示)。第2バンドパスフィルタは750nm以上の所定波長(例えば波長800nm)を中心波長とする比較的狭帯域で光を透過させる。第2結像光学系は、第2バンドパスフィルタを透過した測定対象の近赤外光の光学像を所定の第2結像面上に結像する。第2イメージセンサは第2結像面に受光面を一致させて配置され、測定対象の近赤外光の光学像を電気的な信号に変換する。第2デジタルシグナルプロセッサは第2イメージセンサの出力に対して画像処理を施し、近赤外画像を形成する。なお、第1イメージセンサ及び第2イメージセンサとして例えばVGAタイプ(640画素×480画素)のイメージセンサを用いることができる。 The near-infrared imaging unit 21 forms an image of near-infrared light (near-infrared image). The near-infrared imaging unit 20 includes a second bandpass filter, a second imaging optical system, a second image sensor, and a second digital signal processor (all not shown). The second bandpass filter transmits light in a relatively narrow band having a predetermined wavelength of 750 nm or more (for example, a wavelength of 800 nm) as a central wavelength. The second imaging optical system forms an optical image of the near-infrared light to be measured that has passed through the second bandpass filter on a predetermined second imaging plane. The second image sensor is arranged so that the light receiving surface is aligned with the second image plane, and converts the optical image of the near infrared light to be measured into an electrical signal. The second digital signal processor performs image processing on the output of the second image sensor to form a near-infrared image. As the first image sensor and the second image sensor, for example, a VGA type (640 pixels × 480 pixels) image sensor can be used.

なお、撮像部2は近赤外撮像部21を省き、可視撮像部20により構成されてもよい。この場合、可視撮像部20は、第1結像光学系と、第1イメージセンサと、第1イメージセンサ上に配置されたR/G/B/IrまたはW/Y/R/Irとを備えて構成される(例えば特許第5168353号公報参照)。上記「R」、「G」、「B」はそれぞれ主に赤色光、緑色光、青色光を透過させるフィルタである。上記「Ir」は主に近赤外光を透過させるフィルタである。上記「W」は主に白色光を透過させるフィルタであり、上記「Y」は主に黄色光を透過させるフィルタである。 The imaging unit 2 may omit the near-infrared imaging unit 21 and may be configured by the visible imaging unit 20. In this case, the visible imaging unit 20 includes a first imaging optical system, a first image sensor, and R / G / B / Ir or W / Y / R / Ir arranged on the first image sensor. (See, for example, Japanese Patent No. 5168353). The above-mentioned "R", "G", and "B" are filters that mainly transmit red light, green light, and blue light, respectively. The above-mentioned "Ir" is a filter that mainly transmits near-infrared light. The "W" is a filter that mainly transmits white light, and the "Y" is a filter that mainly transmits yellow light.

飛行体4は自律飛行可能な無人航空機(ドローン)により構成され、圃場FDの上空を飛行する。飛行体4は複数(例えば8個)の水平回転翼42を設けたハウジング41を有する。撮像部2はハウジング41の下面に取り付けられた筐体25内に配置される。移動機構(不図示)により筐体25は開口部(不図示)を有する下面が鉛直下方に向く方向と正面に向く方向とに移動可能に構成される。これにより、可視撮像部20及び近赤外撮像部21は開口部を介して鉛直下方を向く方向と正面を向く方向とを移動可能になっている。また、ハウジング41の下面から下方に向かって複数の脚部46が突設される。飛行体4の着陸の際に脚部46が地面に接触する。 The aircraft 4 is composed of an unmanned aerial vehicle (drone) capable of autonomous flight, and flies over the field FD. The air vehicle 4 has a housing 41 provided with a plurality of (for example, eight) horizontal rotary blades 42. The image pickup unit 2 is arranged in the housing 25 attached to the lower surface of the housing 41. The housing 25 is configured to be movable in a direction in which the lower surface having an opening (not shown) faces vertically downward and in a direction toward the front by a moving mechanism (not shown). As a result, the visible imaging unit 20 and the near-infrared imaging unit 21 can move in the direction facing vertically downward and the direction facing the front through the opening. Further, a plurality of leg portions 46 are projected downward from the lower surface of the housing 41. When the aircraft 4 lands, the legs 46 come into contact with the ground.

飛行体4に対して事前のプログラミングによって飛行経路及び飛行高度等を設定すると、使用者が無線コントローラ(不図示)等を用いて操縦しなくても飛行体4は水平回転翼42を回転させて自律飛行することができる。飛行体4が飛行する際には可視撮像部20及び近赤外撮像部21は鉛直下方を向く。これにより、可視撮像部20及び近赤外撮像部21は圃場FDの上空を移動して圃場FDを撮像することができる。飛行体4が着陸する際には可視撮像部20及び近赤外撮像部21は正面方向を向く。これにより、可視撮像部20及び近赤外撮像部21のレンズ(不図示)等の地面への衝突による破損を防止することができる。なお、飛行体4は使用者による無線操縦飛行(誘導飛行)可能に構成されてもよい。 When the flight path, flight altitude, etc. are set for the aircraft 4 by prior programming, the aircraft 4 rotates the horizontal rotary wing 42 without the user maneuvering using a radio controller (not shown) or the like. Can fly autonomously. When the flying object 4 flies, the visible imaging unit 20 and the near-infrared imaging unit 21 face vertically downward. As a result, the visible imaging unit 20 and the near-infrared imaging unit 21 can move over the field FD to image the field FD. When the aircraft 4 lands, the visible imaging unit 20 and the near-infrared imaging unit 21 face the front direction. This makes it possible to prevent damage to the lenses (not shown) of the visible imaging unit 20 and the near-infrared imaging unit 21 due to collision with the ground. The flight body 4 may be configured to enable radio-controlled flight (guided flight) by the user.

また、飛行体4は例えば気球、飛行船、飛行機、ヘリコプター等であってもよい。また、飛行体4に替えて、地上から筐体25を吊り上げるクレーン等の吊上げ装置(不図示)を用いてもよい。この時、吊り下げた筐体25を水平方向に移動させる。 Further, the flying object 4 may be, for example, a balloon, an airship, an airplane, a helicopter, or the like. Further, instead of the flying object 4, a lifting device (not shown) such as a crane that lifts the housing 25 from the ground may be used. At this time, the suspended housing 25 is moved in the horizontal direction.

情報端末3は例えばパーソナルコンピュータにより構成される。情報端末3は接続部35、45(図2参照)を介して飛行体4及び撮像部2と通信可能に構成され、表示部31及び操作部32を有する。表示部31は例えば液晶パネル等から成り、操作メニュー、飛行体4との通信状況、後述の合成画像CI等を表示する。操作部32はキーボード32a及びマウス32bを有し、各種データの入力操作を受け付けて出力する。なお、情報端末3はスマートフォン等の携帯電話機またはタブレットPCにより構成されてもよい。 The information terminal 3 is composed of, for example, a personal computer. The information terminal 3 is configured to be communicable with the flying object 4 and the image pickup unit 2 via the connection units 35 and 45 (see FIG. 2), and has a display unit 31 and an operation unit 32. The display unit 31 is composed of, for example, a liquid crystal panel or the like, and displays an operation menu, a communication status with the flying object 4, a composite image CI described later, and the like. The operation unit 32 has a keyboard 32a and a mouse 32b, and receives and outputs various data input operations. The information terminal 3 may be configured by a mobile phone such as a smartphone or a tablet PC.

図2は作物栽培支援装置1の構成を示すブロック図である。情報端末3及び飛行体4はそれぞれの各部を制御するCPUから成る制御部39、49をそれぞれ有する。制御部39と制御部49とは接続部35、45を介して無線接続される。制御部39には表示部31、操作部32、記憶部33、合成部34、接続部35、不具合検出部36及び生育指標導出部37が接続される。 FIG. 2 is a block diagram showing the configuration of the crop cultivation support device 1. The information terminal 3 and the flying object 4 each have control units 39 and 49 including CPUs that control each unit. The control unit 39 and the control unit 49 are wirelessly connected via the connection units 35 and 45. A display unit 31, an operation unit 32, a storage unit 33, a synthesis unit 34, a connection unit 35, a defect detection unit 36, and a growth index derivation unit 37 are connected to the control unit 39.

記憶部33は各種プログラム及び各種データを記憶する。各種プログラムには情報端末3の全体動作を制御するプログラム等が含まれる。各種データには可視画像、近赤外画像、撮像画像FI、地点画像PI及び合成画像CI等が含まれる。撮像画像FIは本実施形態では可視画像及び近赤外画像に基づいて形成された画像である。地点画像PIは撮像画像FI上の地点の画像である。なお、地点画像PIは一または複数画素から成り、一の地点画像PIの大きさは一の撮像画像FIの大きさよりも小さくなっている。合成画像CIは複数の地点画像PIを合成して形成される画像であり、本実施形態では例えば一の圃場FDの全体の画像である。また、本実施形態では撮像画像FI、地点画像PI及び合成画像CIは後述のNDVI画像により形成される。 The storage unit 33 stores various programs and various data. Various programs include programs that control the overall operation of the information terminal 3. Various data include a visible image, a near-infrared image, a captured image FI, a point image PI, a composite image CI, and the like. The captured image FI is an image formed based on a visible image and a near-infrared image in the present embodiment. The point image PI is an image of a point on the captured image FI. The point image PI is composed of one or a plurality of pixels, and the size of one point image PI is smaller than the size of one captured image FI. The composite image CI is an image formed by synthesizing a plurality of point image PIs, and in the present embodiment, for example, is an entire image of one field FD. Further, in the present embodiment, the captured image FI, the point image PI, and the composite image CI are formed by the NDVI image described later.

合成部34は地点画像PIを複数(本実施形態では6枚)の撮像画像FIに基づいて形成する。また、合成部34は複数の地点画像PIを合成する。これにより、合成部34は合成画像CIを形成する。なお、地点画像PIの詳細については後述する。 The synthesizing unit 34 forms the point image PIs based on a plurality of (six images in this embodiment) captured image FIs. Further, the synthesizing unit 34 synthesizes a plurality of point image PIs. As a result, the composite unit 34 forms the composite image CI. The details of the point image PI will be described later.

接続部35、45にはアンテナ(不図示)が設けられる。接続部35、45はアンテナを介して無線電波により通信データの送受信を行う。通信データには可視撮像部20及び近赤外撮像部21がそれぞれ撮像した可視画像及び近赤外画像が含まれる。 Antennas (not shown) are provided at the connection portions 35 and 45. The connection units 35 and 45 transmit and receive communication data by wireless radio waves via an antenna. The communication data includes a visible image and a near-infrared image captured by the visible imaging unit 20 and the near-infrared imaging unit 21, respectively.

不具合検出部36は、撮像画像FI上の後述の不具合を有した不具合領域DR(図6参照)を検出する。合成部34は後述のように不具合領域DRを除いて地点画像PIを形成する。 The defect detection unit 36 detects a defect region DR (see FIG. 6) having a defect described later on the captured image FI. The synthesizing unit 34 forms a point image PI excluding the defective region DR as described later.

生育指標導出部37は、可視撮像部20で撮像した可視画像及び近赤外撮像部21で撮像した近赤外画像に基づいて、圃場FD内の作物PLの生育状態を示す生育指標を導出する。本実施形態では生育指標として、NDVI(Normalized Difference Vegetation Index、正規化差植生指数)を用いている。NDVIで表示した画像であるNDVI画像は可視画像及び近赤外画像に基づいて形成される。可視画像の画素値をRvとし、近赤外画像の画素値をRiとすると、可視画像及び近赤外画像の画素値に対応するNDVI画像の画素値がNDVIに相当し、NDVI=(Ri-Rv)/(Ri+Rv)と表される。NDVIが大きいほど植生が濃いことを表す。 The growth index derivation unit 37 derives a growth index indicating the growth state of the crop PL in the field FD based on the visible image captured by the visible imaging unit 20 and the near-infrared image captured by the near-infrared imaging unit 21. .. In this embodiment, NDVI (Normalized Difference Vegetation Index, Normalized Difference Vegetation Index) is used as a growth index. An NDVI image, which is an image displayed by NDVI, is formed based on a visible image and a near-infrared image. When the pixel value of the visible image is Rv and the pixel value of the near-infrared image is Ri, the pixel value of the NDVI image corresponding to the pixel value of the visible image and the near-infrared image corresponds to NDVI, and NDVI = (Ri-). It is expressed as Rv) / (Ri + Rv). The larger the NDVI, the thicker the vegetation.

例えばNDVI画像の画素位置(10,15)における画素値は、可視画像の画素位置(10,15)における画素値及び近赤外画像の画素位置(10,15)における画素値から導出される。なお、可視撮像部20と近赤外撮像部21との視差が考慮され、可視画像の画素位置及び近赤外画像の画素位置のうちの少なくとも一方の画素位置が視差を修正するようにシフトされた上で、NDVIが導出されてもよい。また、可視撮像部20の第1結像光学系と近赤外撮像部21の第2結像光学系は画角及び歪曲収差等の光学特性が互いに同等である。 For example, the pixel value at the pixel position (10, 15) of the NDVI image is derived from the pixel value at the pixel position (10, 15) of the visible image and the pixel value at the pixel position (10, 15) of the near-infrared image. Considering the difference between the visible image pickup unit 20 and the near-infrared image pickup unit 21, at least one of the pixel position of the visible image and the pixel position of the near-infrared image is shifted so as to correct the difference. Then, NDVI may be derived. Further, the first imaging optical system of the visible imaging unit 20 and the second imaging optical system of the near infrared imaging unit 21 have the same optical characteristics such as the angle of view and distortion.

なお、生育指標として、RVI(Ratio Vegetation Index、比植生指数、RVI=Ri/Rv)、DVI(Difference Vegetation Index、差植生指数、DVI=Ri-Rv)、TVI(Transformed Vegetation Index、TVI=NDVI+0.5)0.5)、またはIPVI(Infrared Percentage Vegetation Index、IPVI=Ri/(Ri+Rv)=(NDVI+1)/2)等を用いてもよい。 In addition, as a growth index, RVI (Ratio Vegetation Index, ratio vegetation index, RVI = Ri / Rv), DVI (Difference Vegetation Index, differential vegetation index, DVI = Ri-Rv), TVI (Transformed Definition0. 5) 0.5 ), IPVI (Infrared Percentage Vegetation Index, IPVI = Ri / (Ri + Rv) = (NDVI + 1) / 2) or the like may be used.

また、生育指標として、圃場FDの地表面を作物PLが覆っている割合を示す植被率を用いてもよい。例えば、近赤外撮像部21で撮像した圃場FDの近赤外画像に基づいて生育指標導出部37は二値化処理を行い、白色と黒色の二値化画像を形成する。この時、白色部分が作物PLに相当し、黒色部分が土壌に相当する。そして、生育指標導出部37は二値化画像において白色部分が占める割合を示す植被率を導出する。 Further, as a growth index, a vegetation coverage ratio indicating the ratio of the crop PL covering the ground surface of the field FD may be used. For example, the growth index derivation unit 37 performs binarization processing based on the near-infrared image of the field FD imaged by the near-infrared imaging unit 21 to form a white and black binarized image. At this time, the white part corresponds to the crop PL and the black part corresponds to the soil. Then, the growth index derivation unit 37 derives the vegetation coverage ratio indicating the proportion of the white portion in the binarized image.

飛行体4の制御部49には記憶部43、接続部45、水平回転翼42、方位測定部47及び位置検出部48が接続される。また、制御部49には可視撮像部20及び近赤外撮像部21が接続される。記憶部43には飛行体4の制御プログラム(自律飛行プログラムを含む)、撮像部2の制御プログラム及び各種データが記憶される。記憶部43が記憶する各種データには飛行体4の飛行経路及び高度等の飛行データ等が含まれる。 A storage unit 43, a connection unit 45, a horizontal rotor 42, an azimuth measurement unit 47, and a position detection unit 48 are connected to the control unit 49 of the aircraft body 4. Further, a visible imaging unit 20 and a near infrared imaging unit 21 are connected to the control unit 49. The storage unit 43 stores the control program of the flying object 4 (including the autonomous flight program), the control program of the imaging unit 2, and various data. The various data stored in the storage unit 43 include flight data such as the flight path and altitude of the flying object 4.

位置検出部48は例えばGPS(Global Positioning System、全地球測位システム)を備える。なお、GPSはDGPS(Differential GPS)等の誤差を補正する補正機能を有するGPSであってもよい。位置検出部48により撮像部2(可視撮像部20及び近赤外撮像部21)の位置(緯度X、経度Y、高度Z)が検出される。方位測定部47は例えば3軸方位計(3軸地磁気センサ)により構成され、撮像部2の地球上における方位を測定する。また、制御部39は、撮像部2の位置、画角及び画素数から地点画像PIの位置を導出する。 The position detection unit 48 includes, for example, GPS (Global Positioning System). The GPS may be a GPS having a correction function for correcting an error such as DGPS (Differential GPS). The position detection unit 48 detects the position (latitude X, longitude Y, altitude Z) of the image pickup unit 2 (visible image pickup unit 20 and near infrared image pickup unit 21). The azimuth measuring unit 47 is composed of, for example, a 3-axis azimuth meter (3-axis geomagnetic sensor), and measures the azimuth of the imaging unit 2 on the earth. Further, the control unit 39 derives the position of the point image PI from the position, the angle of view, and the number of pixels of the image pickup unit 2.

図3は合成画像CIを形成する工程を示す図である。合成画像CIを形成する工程は撮影工程、NDVI画像形成工程、不具合検出工程、地点画像形成工程及び画像合成工程を有する。本実施形態では、合成画像CIは一の圃場FDの画像を例として説明する。 FIG. 3 is a diagram showing a process of forming a composite image CI. The step of forming the composite image CI includes a photographing step, an NDVI image forming step, a defect detection step, a point image forming step, and an image compositing step. In the present embodiment, the composite image CI will be described using an image of one field FD as an example.

図4は撮像工程を示す平面図である。上記構成の作物栽培支援装置1において、水平回転翼42の回転により飛行体4が自律飛行し、圃場FDの上空に到達する。飛行体4は圃場FDの上空を設定高度H(本実施形態では30m)及び設定速度(本実施形態では15km/h)で、矢印FCで示すように平面視で九十九折りに飛行する。具体的には、飛行体4は圃場FDの長手方向に沿って長手方向の一方端部から他方端部に向かって飛行し、他方端部に到達すると圃場FDの短手方向に沿って所定距離飛行した後に長手方向に沿って長手方向の一方端部に向かって飛行することを繰り返す。飛行体4が圃場FDの上空を飛行している間に可視撮像部20及び近赤外撮像部21は圃場FDを撮像する。 FIG. 4 is a plan view showing an imaging process. In the crop cultivation support device 1 having the above configuration, the flying object 4 autonomously flies by the rotation of the horizontal rotary blade 42 and reaches the sky above the field FD. The flying object 4 flies over the field FD at a set altitude H (30 m in this embodiment) and a set speed (15 km / h in this embodiment) in a zigzag manner as shown by the arrow FC. Specifically, the flying object 4 flies from one end in the longitudinal direction toward the other end along the longitudinal direction of the field FD, and when it reaches the other end, it reaches a predetermined distance along the lateral direction of the field FD. After flying, it repeats flying along the longitudinal direction toward one end in the longitudinal direction. While the flying object 4 is flying over the field FD, the visible imaging unit 20 and the near-infrared imaging unit 21 image the field FD.

図5は撮像工程の側面図を示している。なお、図5では飛行体4の図示を省略し、矢印FCは飛行体4の飛行方向(撮像部2の移動方向)を示している。撮像工程において、可視撮像部20及び近赤外撮像部21の画角αを45°とすると、撮像範囲Dは約24.85m×約33.13mの領域となる。そして、撮像部2が1秒間に可視画像及び近赤外画像をそれぞれ1枚撮像する場合、圃場FD上の同一地点SPがそれぞれ6回撮像される。可視画像及び近赤外画像は接続部45、35を介して制御部39に送信され、記憶部33に記憶される。この時、各可視画像及び各近赤外画像は撮像部2の位置と関連付けて記憶部33に記憶される。撮像工程の後に、NDVI画像形成工程に移行する。 FIG. 5 shows a side view of the imaging process. In FIG. 5, the illustration of the flying object 4 is omitted, and the arrow FC indicates the flight direction of the flying object 4 (moving direction of the imaging unit 2). In the imaging step, assuming that the angle of view α of the visible imaging unit 20 and the near infrared imaging unit 21 is 45 °, the imaging range D is a region of about 24.85 m × about 33.13 m. Then, when the imaging unit 2 captures one visible image and one near-infrared image per second, the same point SP on the field FD is imaged six times each. The visible image and the near-infrared image are transmitted to the control unit 39 via the connection units 45 and 35 and stored in the storage unit 33. At this time, each visible image and each near-infrared image are stored in the storage unit 33 in association with the position of the image pickup unit 2. After the imaging step, the process shifts to the NDVI image forming step.

NDVI画像形成工程では、生育指標導出部37により可視画像の画素及び近赤外画像の画素からNDVIが導出される。これにより、NDVI画像である撮像画像FIが形成される。NDVI画像ではNDVIに応じてR、G、Bで色分けされる。例えば、NDVI画像において、R、G、Bの順にNDVIが低くなる。NDVI画像形成工程の後に不具合検出工程に移行する。 In the NDVI image forming step, the NDVI is derived from the pixels of the visible image and the pixels of the near-infrared image by the growth index derivation unit 37. As a result, a captured image FI which is an NDVI image is formed. The NDVI image is color-coded by R, G, and B according to the NDVI. For example, in an NDVI image, the NDVI decreases in the order of R, G, and B. After the NDVI image forming step, the process shifts to the defect detection step.

図6は不具合検出工程時において、同一地点SPが撮像された複数(本実施形態では6枚)の撮像画像FIを示す図である。「A」~「F」の撮像画像FIには同一地点SPが撮像される。「A」~「F」の撮像画像FIの撮像タイミングはそれぞれ異なり、「A」~「F」の順で時系列に並んでいる。例えば圃場FDが水田の場合には、撮影工程時に水面に映った太陽が可視画像及び近赤外画像に写り込む場合がある。このため、撮像画像FI上に太陽の写り込みに起因する不具合を有した不具合領域DRが生じる場合がある。 FIG. 6 is a diagram showing a plurality of (six images in this embodiment) captured image FI in which the same point SP is captured during the defect detection step. The same point SP is imaged in the captured images FI of "A" to "F". The imaging timings of the captured images FI of "A" to "F" are different from each other, and they are arranged in chronological order in the order of "A" to "F". For example, when the field FD is a paddy field, the sun reflected on the water surface during the photographing process may be reflected in the visible image and the near infrared image. For this reason, a defective region DR may occur on the captured image FI, which has a defect due to the reflection of the sun.

また、撮像工程において、例えば撮像部2を収納した筐体25の向きが移動機構の誤作動等によって正面方向(圃場FD以外の方向)に一時的に変更される場合がある。この場合、撮像画像FI上で撮像部2の向きが変更された時の領域が不具合領域DRとなる。 Further, in the imaging process, for example, the orientation of the housing 25 accommodating the imaging unit 2 may be temporarily changed to the front direction (direction other than the field FD) due to a malfunction of the moving mechanism or the like. In this case, the region when the orientation of the image pickup unit 2 is changed on the captured image FI becomes the defective region DR.

また、撮像工程において、例えば風等により作物PLが倒伏した様子が可視画像及び近赤外画像に写り込む場合がある。この場合、撮像画像FI上で作物PLが倒伏した領域が不具合領域DRとなる。 Further, in the imaging process, for example, the appearance of the crop PL lying down due to wind or the like may be reflected in the visible image and the near infrared image. In this case, the region where the crop PL has fallen on the captured image FI is the defective region DR.

また、撮像画像FIの周辺部PhのNDVI(特性値)が中心部CPのNDVIよりも低下するシェーディング誤差が発生する場合がある。この場合、撮像画像FIの周辺部Phの領域が不具合領域DRとなる。 In addition, a shading error may occur in which the NDVI (characteristic value) of the peripheral portion Ph of the captured image FI is lower than that of the NDVI of the central portion CP. In this case, the region of the peripheral portion Ph of the captured image FI becomes the defective region DR.

また、前述のように可視撮像部20と近赤外撮像部21とは所定距離離れて配置されている。このため、可視撮像部20と近赤外撮像部21との視差に起因する可視画素と近赤外画素とのズレによる誤差が発生する場合がある。この場合、ズレ量が所定値よりも大きい領域が不具合領域DRとなる。 Further, as described above, the visible imaging unit 20 and the near infrared imaging unit 21 are arranged at a predetermined distance. Therefore, an error may occur due to the deviation between the visible pixel and the near-infrared pixel due to the parallax between the visible image pickup unit 20 and the near-infrared image pickup unit 21. In this case, the region where the deviation amount is larger than the predetermined value is the defective region DR.

上記例の不具合領域DRのNDVIは不具合のない他の領域(不具合領域DRではない領域)のNDVIよりも低い値を示す。このため、不具合領域DRのNDVIを用いて複数の地点画像PIを合成すると、合成画像CIの品質が低下する。そこで、不具合検出部36は、撮像画像FI上の不具合領域DRを検出し、合成部34は不具合検出部36により検出した不具合領域DRを除いて地点画像PIを形成する。本実施形態では、不具合検出部36は一の撮像画像FI内を区分した複数の領域のNDVIを相対比較して不具合領域DRを検出する。 The NDVI of the defective region DR in the above example shows a lower value than the NDVI of another region (region that is not the defective region DR) without defects. Therefore, if a plurality of point image PIs are combined using the NDVI of the defective region DR, the quality of the combined image CI deteriorates. Therefore, the defect detection unit 36 detects the defect region DR on the captured image FI, and the synthesis unit 34 forms the point image PI excluding the defect region DR detected by the defect detection unit 36. In the present embodiment, the defect detection unit 36 detects the defect region DR by relatively comparing the NDVIs of a plurality of regions divided within one captured image FI.

例えば、図6に示す同一地点SPを撮像した「A」~「F」の撮像画像FIにおいて、圃場FDの水面に映った太陽が写り込んだ場合、不具合検出部36は太陽が写り込んだ領域を不具合領域DRとして検出する。この時、「C」の撮像画像FI上の同一地点SPを含む所定領域の領域画像Prは不具合領域DRと重なっている。なお、領域画像Prの大きさ(範囲)は撮像画像FIの大きさ(範囲)よりも小さく、地点画像PIと同じ大きさである。 For example, when the sun reflected on the water surface of the field FD is reflected in the captured images FI of "A" to "F" obtained by imaging the same point SP shown in FIG. 6, the defect detection unit 36 is the region where the sun is reflected. Is detected as a defective area DR. At this time, the region image Pr of a predetermined region including the same point SP on the captured image FI of "C" overlaps with the defective region DR. The size (range) of the region image Pr is smaller than the size (range) of the captured image FI, and is the same size as the point image PI.

次に、合成部34は、同一地点SPを含む複数の領域画像Prについて、「C」の領域画像Prを使用せずに、残り5枚の領域画像Prを用いて同一地点SPを含む領域画像Pr内の各画素のNDVIの平均値を導出する。これにより、不具合領域DRが除去された同一地点SPの地点画像PI(図7参照)が形成される。その他の同一地点SPの領域画像Prについても同様に不具合領域DRが除去された地点画像PIが形成される。以上により、不具合領域DRが除去された複数の地点画像PIN(図7参照)が形成される。なお、「N」は複数の地点画像PIのそれぞれに割り当てられたシリアル番号であり、地点画像PIの総数がKである場合に1からKまでの整数である。 Next, the synthesis unit 34 uses the remaining five region image Prs for the plurality of region image Prs including the same spot SP without using the region image Pr of "C", and the region image including the same spot SP. The average value of NDVI of each pixel in Pr is derived. As a result, a point image PI (see FIG. 7) of the same point SP from which the defective region DR is removed is formed. Similarly, for the other area image Pr of the same point SP, the point image PI from which the defective area DR is removed is formed. As a result, a plurality of point image PINs (see FIG. 7) from which the defective region DR is removed are formed. Note that "N" is a serial number assigned to each of the plurality of point image PIs, and is an integer from 1 to K when the total number of point image PIs is K.

なお、本実施形態において同一地点SPを含む6枚の領域画像Prについて、不具合領域DRが検出されない場合には合成部34は6枚全ての領域画像Prを用いて同一地点SPを含む領域画像Pr内の各画素のNDVIの平均値を導出する。なお、領域画像Prの画像補正により、不具合領域DRのNDVIを補正できる場合には補正後の領域画像Prを用いてもよい。 In the present embodiment, when the defective region DR is not detected for the six region image Prs including the same spot SP, the synthesis unit 34 uses all the six region image Prs and the region image Pr including the same spot SP. The average value of the NDVI of each pixel in the is derived. If the NDVI of the defective region DR can be corrected by the image correction of the region image Pr, the corrected region image Pr may be used.

次に、複数の地点画像PIを合成して合成画像CIを形成する画像合成工程について説明する。合成部34は、不具合領域DRが除去された複数の地点画像PINの各々における緯度XN、経度YN、高度ZN及び方位θNに基づいて、アフィン変換を行う画像変換行列を導出する。複数の地点画像PINの各々は、地点画像PINを形成する際に用いられた可視画像および近赤外画像の各々の撮像時における可視撮像部20及び近赤外撮像部21の緯度XN、経度YN、高度ZN及び方位θNを備える。合成部34は、複数の地点画像PINの各々について、地点画像PINの画素位置を地点画像PINの備える緯度XN、経度YN、高度ZN及び方位θNに基づくアフィン変換を行う。これにより、地点画像PIの画素位置を合成画像CIにおける画素位置へ変換する。 Next, an image synthesizing step of synthesizing a plurality of point image PIs to form a composite image CI will be described. The synthesizing unit 34 derives an image transformation matrix for affine transformation based on the latitude X N , the longitude Y N , the altitude Z N , and the azimuth θ N in each of the plurality of point image PINs from which the defective region DR has been removed. .. Each of the plurality of point image PINs is the latitude X N of the visible image pickup unit 20 and the near infrared image pickup unit 21 at the time of imaging each of the visible image and the near infrared image used in forming the point image PIN . , Longitude Y N , altitude Z N , and azimuth θ N. The synthesizing unit 34 performs an affine transformation on each of the plurality of point image P INs based on the latitude X N , the longitude Y N , the altitude Z N , and the direction θ N of the point image P IN . .. As a result, the pixel position of the point image PI is converted into the pixel position in the composite image CI.

図7は画像合成工程を説明するための図を示している。図7の上段は複数の地点画像PINを示し、図7の下段は合成画像CIの座標系を示す。アフィン変換は、公知のように線形変換と平行移動(並進)とを組み合わせた変換であり、数式1により表される(例えば、「アフィン変換とは」、[online]、[2017年5月15日検索]、インターネット(URL:http//d.hatena.ne.jp/Zellij/20120523/p1))。 FIG. 7 shows a diagram for explaining the image composition process. The upper part of FIG. 7 shows a plurality of point image PINs , and the lower part of FIG. 7 shows the coordinate system of the composite image CI. As is known, an affine transformation is a transformation that combines a linear transformation and a translation (translation), and is expressed by Equation 1 (for example, "What is an affine transformation?", [Online], [May 15, 2017]. Day search], Internet (URL: http://d.hatena.ne.jp/Zellij/20120523/p1)).

Figure 0007069609000001
Figure 0007069609000001

数式1における右辺の列ベクトル(x,y)は図7の上段に示すように地点画像PIでの画素位置であり(N番目の地点画像PINではx=xN、y=yN)、列ベクトル(x´,y´)は図7の下段に示すように合成画像CIの座標系での画素位置を示す。数式1の右辺第1項における1行1列、1行2列、2行1列及び2行2列の各成分a、b、c、dから成る2行2列の行列は回転の変換行列R(θ)を表し、数式1の右辺第2項の列ベクトル(tx,ty)は並進(平行移動)の変換行列を表す。 The column vector (x, y) on the right side in Equation 1 is the pixel position in the point image PI as shown in the upper part of FIG. 7 (x = x N , y = y N in the Nth point image PIN). The column vector (x', y') indicates the pixel position in the coordinate system of the composite image CI as shown in the lower part of FIG. 7. The 2-by-2 matrix consisting of the components a, b, c, and d of 1-by-1 column, 1-by-2 column, 2-by-1 column, and 2-by-2 column in the first term on the right side of Equation 1 is a conversion matrix of rotation. It represents R (θ), and the column vector (t x , ty ) in the second term on the right side of Equation 1 represents a translation (parallel movement) transformation matrix.

回転の変換行列R(θ)における各成分a、b、c、dは、方位測定部47の値θから、数式2によって与えられる(N番目の地点画像PINではθ=θN)。なお、撮像工程時の撮像部2の実際の高度が基準高度(設定高度H、図5参照)と異なる場合には、回転行列R(θ)に撮像工程時の撮像部2の実際の高度が基準高度と同等になるように撮像工程時の実際の高度に応じたスケーリング係数が乗算される。例えば、成分aはcosθにスケーリング係数を乗算した値である。 Each component a, b, c, d in the transformation matrix R (θ) of rotation is given by the mathematical formula 2 from the value θ of the direction measuring unit 47 (θ = θ N in the Nth point image PIN). If the actual altitude of the imaging unit 2 during the imaging process is different from the reference altitude (set altitude H, see FIG. 5), the actual altitude of the imaging unit 2 during the imaging process is shown in the rotation matrix R (θ). The scaling factor according to the actual altitude at the time of the imaging process is multiplied so as to be equivalent to the reference altitude. For example, the component a is a value obtained by multiplying cos θ by a scaling coefficient.

Figure 0007069609000002
Figure 0007069609000002

そして、並進(平行移動)の変換行列における各成分tx、tyは数式3及び数式4で与えられる。数式3及び数式4では、合成画像CIの座標系における原点(0,0)からの距離d[m]と、水平方向(x軸)との角度φ[rad]を緯度X及び経度Yから導出して画素数に変換する。 Then, the components t x and ty in the translation (translation) transformation matrix are given by the formulas 3 and 4. In Equations 3 and 4, the angle φ [rad] between the distance d [m] from the origin (0,0) in the coordinate system of the composite image CI and the horizontal direction (x-axis) is derived from the latitude X and the longitude Y. And convert it to the number of pixels.

Figure 0007069609000003
Figure 0007069609000003

Figure 0007069609000004
Figure 0007069609000004

数式3及び数式4の係数kはメートルを画素数に変換する係数である。例えば、第1イメージセンサ及び第2イメージセンサの画素数が480画素の場合には係数k=24.85[m]/480[画素]≒0.052[m/画素]となる。また、距離d[m]及び角度φ[rad]の算出方法は公知であり、数式5及び数式6によって与えられる(例えば「2地点間の距離と方位角」、[online]、[2017年5月22日検索]、インターネット(URL:http//keisan.casio.jp/exec/system/1257670779))。 The coefficient k in the formulas 3 and 4 is a coefficient for converting a meter into the number of pixels. For example, when the number of pixels of the first image sensor and the second image sensor is 480 pixels, the coefficient k = 24.85 [m] / 480 [pixels] ≈0.052 [m / pixel]. Further, methods for calculating the distance d [m] and the angle φ [rad] are known and are given by the formulas 5 and 6 (for example, "distance and azimuth between two points", [online], [2017 5]. Search on 22nd of March], Internet (URL: http://keisan.casio.jp/exec/system/125767079).

なお、数式5及び数式6のX1及びY1はそれぞれA地点の緯度及び経度であり、数式5及び数式6のX2及びY2はそれぞれB地点の緯度及び経度である。数式5のrは地球を球体とみなした際の赤道半径(=6378.137km)である。ここでは、A地点またはB地点が合成画像CIの座標系における原点(0,0)となる。 Note that X1 and Y1 in Equations 5 and 6 are the latitude and longitude of point A, respectively, and X2 and Y2 in Equations 5 and 6 are the latitude and longitude of point B, respectively. R in Equation 5 is the equatorial radius (= 6378.137 km) when the earth is regarded as a sphere. Here, the point A or the point B is the origin (0,0) in the coordinate system of the composite image CI.

Figure 0007069609000005
Figure 0007069609000005

Figure 0007069609000006
Figure 0007069609000006

また、数式1の回転行列と並進(平行移動)の変換行列とを単一の行列M(3行3列の行列)にまとめて数式7のように表現することができる。 Further, the rotation matrix of Equation 1 and the transformation matrix of translation (translation) can be combined into a single matrix M (matrix of 3 rows and 3 columns) and expressed as Equation 7.

Figure 0007069609000007
Figure 0007069609000007

なお、変換後の位置(x´,y´)における画素のNDVIを実際に求める際には、まず行列Mの逆行列であるM-1を導出し、変換後の(x´,y´)の対応位置(x、y)を数式8により導出する。 When actually obtaining the NDVI of the pixel at the position (x', y') after conversion, first derive M -1 , which is the inverse matrix of the matrix M, and then (x', y') after conversion. Corresponding position (x, y) of is derived by the formula 8.

Figure 0007069609000008
Figure 0007069609000008

そして、数式8により得られる変換前の位置(x,y)における画素のNDVIまたは当該位置近傍に存在する複数の画素のNDVIによって補間(線形補間等)されるNDVIを変換後の位置(x´,y´)における画素のNDVIとして決定する。 Then, the NDVI that is interpolated (linear interpolation, etc.) by the NDVI of the pixel at the position (x, y) before conversion obtained by Equation 8 or the NDVI of a plurality of pixels existing in the vicinity of the position is converted to the position (x') after conversion. , Y') is determined as the NDVI of the pixel.

本実施形態の作物栽培支援装置1によると、作物PLを栽培する圃場FD(栽培領域)の上空を移動して圃場FDを撮像する撮像部2と、撮像部2の位置を検出する位置検出部48と、圃場FDの同一地点SPの地点画像PIを撮像部2で撮像した複数の撮像画像FIに基づいて形成するとともに複数の地点画像PIを合成する合成部34とを備える。また、撮像画像FI上の不具合を有した不具合領域DRを検出する不具合検出部36を設け、合成部34が不具合検出部36により検出した不具合領域DRを除いて地点画像PIを形成する。 According to the crop cultivation support device 1 of the present embodiment, the image pickup unit 2 that moves over the field FD (cultivation area) in which the crop PL is cultivated to image the field FD, and the position detection unit that detects the position of the image pickup unit 2. It includes 48 and a synthesis unit 34 that forms a point image PI of the same point SP of the field FD based on a plurality of captured image FIs imaged by the image pickup unit 2 and synthesizes a plurality of point image PIs. Further, a defect detection unit 36 for detecting a defect region DR having a defect on the captured image FI is provided, and a point image PI is formed by excluding the defect region DR detected by the defect detection unit 36 by the synthesis unit 34.

これにより、不具合領域DRが除かれた地点画像PIを形成し、複数の地点画像PIを合成する。したがって、圃場FD全体の合成画像の品質が向上し、作物PLの生育状態の判断に有用な画像を提供することができる。 As a result, a point image PI from which the defective region DR is removed is formed, and a plurality of point image PIs are combined. Therefore, the quality of the composite image of the entire field FD is improved, and it is possible to provide an image useful for determining the growth state of the crop PL.

また、不具合検出部36が一の撮像画像FI内を区分した複数の領域のNDVI(特性値)を相対比較して不具合領域DRを検出する。これにより、不具合検出部36は不具合領域DRを容易に検出することができる。 Further, the defect detection unit 36 detects the defect region DR by relatively comparing the NDVIs (characteristic values) of a plurality of regions divided within one captured image FI. As a result, the defect detection unit 36 can easily detect the defect region DR.

なお、不具合検出部36が複数の撮像画像FIの同一地点SPに対する複数の領域のNDVI(特性値)を相対比較して不具合領域DRを検出してもよい。この場合でも、不具合検出部36は不具合領域DRを容易に検出することができる。 The defect detection unit 36 may detect the defect region DR by relatively comparing the NDVIs (characteristic values) of the plurality of regions with respect to the same point SP of the plurality of captured image FIs. Even in this case, the defect detection unit 36 can easily detect the defect region DR.

また、不具合検出部36が一の撮像画像FI内を区分した複数の領域のNDVI(特性値)と所定の閾値とを比較して不具合領域DRを検出してもよい。この場合でも、不具合検出部36は不具合領域DRを容易に検出することができる。 Further, the defect detection unit 36 may detect the defect region DR by comparing the NDVI (characteristic value) of a plurality of regions divided in one captured image FI with a predetermined threshold value. Even in this case, the defect detection unit 36 can easily detect the defect region DR.

また、不具合検出部36が各撮像画像FIの周部Phを不具合領域DRと判定してもよい。これにより、撮像画像FIの周辺部PhのNDVIが中心部CPのNDVIよりも低下するシェーディング誤差による合成画像CIの品質低下を容易に防止することができる。 Further, the defect detection unit 36 may determine the peripheral portion Ph of each captured image FI as the defect region DR. As a result, it is possible to easily prevent the quality deterioration of the composite image CI due to the shading error in which the NDVI of the peripheral portion Ph of the captured image FI is lower than the NDVI of the central portion CP.

また、撮像部2が可視画像を撮像する可視撮像部20と、近赤外画像を撮像する近赤外撮像部21とを有し、不具合検出部36は、可視画像の画素と近赤外画像の画素とのずれ量が所定量よりも大きい領域を不具合領域DRと判定してもよい。これにより、可視撮像部20と近赤外撮像部21との視差による可視画素と近赤外画素とのズレによる誤差に起因する合成画像CIの品質低下を容易に防止することができる。 Further, the imaging unit 2 has a visible imaging unit 20 for capturing a visible image and a near-infrared imaging unit 21 for capturing a near-infrared image, and the defect detection unit 36 includes a pixel of the visible image and a near-infrared image. A region in which the amount of deviation from the pixel is larger than a predetermined amount may be determined as a defective region DR. As a result, it is possible to easily prevent the quality deterioration of the composite image CI due to the error due to the deviation between the visible pixel and the near-infrared pixel due to the parallax between the visible image pickup unit 20 and the near-infrared image pickup unit 21.

また、制御部39は撮像部2の位置、画角α及び画素数に基づいて地点画像PIの位置を導出する。これにより、地点画像PIの位置を容易に導出することができる。 Further, the control unit 39 derives the position of the point image PI based on the position of the image pickup unit 2, the angle of view α, and the number of pixels. As a result, the position of the point image PI can be easily derived.

なお、情報端末3がインターネット等の所定のネットワークに接続され、撮像画像FI、地点画像PI及び合成画像CIを記憶する記憶部がネットワーク上に設けられてもよい。これにより、記憶部33の容量を小さくすることができる。 The information terminal 3 may be connected to a predetermined network such as the Internet, and a storage unit for storing the captured image FI, the point image PI, and the composite image CI may be provided on the network. As a result, the capacity of the storage unit 33 can be reduced.

なお、本実施形態において、撮像画像FI、地点画像PI及び合成画像CIはNDVI画像になっているが、撮像画像FI、地点画像PI及び合成画像CIはNDVI画像に限定されない。例えば、撮像部2から近赤外撮像部21を省き、撮像画像FI、地点画像PI及び合成画像CIは可視撮像部20で撮像したRGB値のカラー画像でもよい。また、撮像画像FI、地点画像PI及び合成画像CIは植被率で表した画像でもよい。 In the present embodiment, the captured image FI, the point image PI, and the composite image CI are NDVI images, but the captured image FI, the point image PI, and the composite image CI are not limited to the NDVI image. For example, the near-infrared imaging unit 21 may be omitted from the imaging unit 2, and the captured image FI, the point image PI, and the composite image CI may be a color image of RGB values captured by the visible imaging unit 20. Further, the captured image FI, the point image PI and the composite image CI may be images represented by the vegetation coverage ratio.

本発明は、栽培領域を撮像する撮像部を備える作物栽培支援装置に利用することができる。 INDUSTRIAL APPLICABILITY The present invention can be used for a crop cultivation support device including an image pickup unit that captures an image of a cultivation area.

1 作物栽培支援装置
2 撮像部
3 情報端末
4 飛行体
20 可視撮像部
21 近赤外撮像部
25 筐体
31 表示部
32 操作部
33 記憶部
34 合成部
35 接続部
36 不具合検出部
37 生育指標導出部
43 記憶部
45 接続部
47 方位測定部
48 位置検出部
DR 不具合領域
FD 圃場
FI 撮像画像
PI 地点画像
PL 作物
Pr 領域画像
SP 同一地点
1 Crop cultivation support device 2 Imaging unit 3 Information terminal 4 Flying object 20 Visible imaging unit 21 Near infrared imaging unit 25 Housing 31 Display unit 32 Operation unit 33 Storage unit 34 Synthesis unit 35 Connection unit 36 Defect detection unit 37 Growth index derivation Part 43 Storage part 45 Connection part 47 Direction measurement part 48 Position detection part DR Defect area FD Field FI Captured image PI Point image PL Crop Pr Area image SP Same point

Claims (6)

作物を栽培する栽培領域の上空を移動して前記栽培領域を撮像する撮像部と、
前記撮像部の位置を検出する位置検出部と、
合成部とを備えた作物栽培支援装置において、
前記撮像部が撮像した撮像画像上の不具合を有した不具合領域を検出する不具合検出部を設け、
前記合成部は、前記栽培領域の同一地点が撮像されているともに撮像タイミングがそれぞれ異なる複数の前記撮像画像から、それぞれの前記撮像画像における前記同一地点を含む所定領域である複数の領域画像を生成し、複数の前記領域画像のうち、前記不具合検出部により検出した不具合領域を含む前記領域画像を除くとともに、前記不具合領域を含まない前記領域画像を用いて地点画像を生成し、互いに異なる複数の前記地点画像を、その位置に対応させて合成して合成画像を形成し、
前記撮像部が可視画像を撮像する可視撮像部と、近赤外画像を撮像する近赤外撮像部とを有し、
前記不具合検出部は、前記可視画像の画素と前記近赤外画像の画素とのずれ量が所定量よりも大きい領域を前記不具合領域として検出することを特徴とする作物栽培支援装置。
An imaging unit that moves over the cultivation area where crops are cultivated and images the cultivation area,
A position detection unit that detects the position of the image pickup unit and
In a crop cultivation support device equipped with a synthesis unit,
A defect detection unit is provided to detect a defect area having a defect on the captured image captured by the imaging unit.
The synthesis unit generates a plurality of region images which are predetermined regions including the same spot in each of the captured images from a plurality of captured images in which the same spot in the cultivated region is imaged and the imaging timings are different from each other. Then, among the plurality of the region images, the region image including the defect region detected by the defect detection unit is excluded, and a point image is generated using the region image not including the defect region, and a plurality of images different from each other are generated. The point image is combined corresponding to the position to form a composite image, and the composite image is formed .
The imaging unit has a visible imaging unit that captures a visible image and a near-infrared imaging unit that captures a near-infrared image.
The defect detection unit is a crop cultivation support device characterized in that a region in which the amount of deviation between the pixels of the visible image and the pixels of the near infrared image is larger than a predetermined amount is detected as the defect region .
作物を栽培する栽培領域の上空を移動して前記栽培領域を撮像する撮像部と、
前記撮像部の位置を検出する位置検出部と、
前記栽培領域の同一地点の地点画像を前記撮像部で撮像した複数の撮像画像に基づいて形成するとともに複数の前記地点画像を合成する合成部とを備えた作物栽培支援装置において、
前記撮像画像上の不具合を有した不具合領域を検出する不具合検出部を設け、
前記合成部が前記不具合検出部により検出した前記不具合領域を除いて前記地点画像を形成し、
前記撮像部が可視画像を撮像する可視撮像部と、近赤外画像を撮像する近赤外撮像部とを有し、
前記不具合検出部は、前記可視画像の画素と前記近赤外画像の画素とのずれ量が所定量よりも大きい領域を前記不具合領域として検出することを特徴とする作物栽培支援装置。
An imaging unit that moves over the cultivation area where crops are cultivated and images the cultivation area,
A position detection unit that detects the position of the image pickup unit and
In a crop cultivation support device provided with a compositing unit that forms a point image of the same point in the cultivation area based on a plurality of captured images captured by the imaging unit and synthesizes a plurality of the point images.
A defect detection unit for detecting a defect area having a defect on the captured image is provided.
The point image is formed by excluding the defect region detected by the defect detection unit by the synthesis unit.
The imaging unit has a visible imaging unit that captures a visible image and a near-infrared imaging unit that captures a near-infrared image.
The defect detection unit is a crop cultivation support device characterized in that a region in which the amount of deviation between the pixels of the visible image and the pixels of the near infrared image is larger than a predetermined amount is detected as the defect region.
前記撮像部の位置、画角及び画素数に基づいて前記地点画像の位置が導出されることを特徴とする請求項1または2に記載の作物栽培支援装置。 The crop cultivation support device according to claim 1 or 2 , wherein the position of the point image is derived based on the position, the angle of view, and the number of pixels of the image pickup unit. 複数の前記撮像画像及び複数の前記地点画像を記憶する記憶部が所定のネットワーク上に設けられることを特徴とする請求項1~請求項のいずれかに記載の作物栽培支援装置。 The crop cultivation support device according to any one of claims 1 to 3 , wherein a storage unit for storing a plurality of the captured images and a plurality of the point images is provided on a predetermined network. コンピューターに、
作物を栽培する栽培領域の上空を移動して前記栽培領域を撮像する撮像部により撮像された撮像画像を、前記撮像部の位置と関連付けて受け取るステップと、
前記撮像部が撮像した可視画像の画素と、前記撮像部が撮像した近赤外画像の画素とのずれ量が所定量よりも大きい領域を、前記撮像画像上の不具合を有した不具合領域として除いて、前記栽培領域の同一地点の地点画像を前記撮像部で撮像した複数の撮像画像に基づいて形成するステップと、
複数の前記地点画像を合成する合成部するステップと、
を実行させるプログラム。
On the computer
A step of moving over a cultivation area where crops are cultivated and receiving an image captured by an image pickup unit that images the cultivation area in association with the position of the image pickup unit.
A region where the amount of deviation between the pixels of the visible image captured by the imaging unit and the pixels of the near-infrared image captured by the imaging unit is larger than a predetermined amount is excluded as a defect region having a defect on the captured image. Then, a step of forming a point image of the same point in the cultivation area based on a plurality of captured images captured by the imaging unit, and
A step of synthesizing a plurality of the above-mentioned point images and a step of synthesizing them.
A program to execute.
前記不具合領域は太陽の写り込みに起因する不具合を有した領域であることを特徴とする請求項に記載のプログラム。 The program according to claim 5 , wherein the defective area is a region having a defect caused by the reflection of the sun.
JP2017168580A 2017-09-01 2017-09-01 Crop cultivation support device Active JP7069609B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2017168580A JP7069609B2 (en) 2017-09-01 2017-09-01 Crop cultivation support device
JP2022074326A JP7318768B2 (en) 2017-09-01 2022-04-28 Crop cultivation support device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017168580A JP7069609B2 (en) 2017-09-01 2017-09-01 Crop cultivation support device

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2022074326A Division JP7318768B2 (en) 2017-09-01 2022-04-28 Crop cultivation support device

Publications (2)

Publication Number Publication Date
JP2019046149A JP2019046149A (en) 2019-03-22
JP7069609B2 true JP7069609B2 (en) 2022-05-18

Family

ID=65814394

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017168580A Active JP7069609B2 (en) 2017-09-01 2017-09-01 Crop cultivation support device

Country Status (1)

Country Link
JP (1) JP7069609B2 (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110602462B (en) * 2019-09-27 2020-11-03 南京工程学院 Industrial image detection device and method based on AI
JP7399680B2 (en) * 2019-10-29 2023-12-18 ヤンマーパワーテクノロジー株式会社 Work support system
JP6880380B2 (en) * 2019-11-01 2021-06-02 エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd Image processing equipment, image processing methods, and programs
JP7359464B2 (en) * 2020-01-30 2023-10-11 株式会社ナイルワークス Crop growing system

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003339238A (en) 2002-05-28 2003-12-02 Satake Corp Method and apparatus for diagnosing crop growth
JP2005284635A (en) 2004-03-29 2005-10-13 Seiko Epson Corp Image forming apparatus, image forming method and image forming program
JP2010014491A (en) 2008-07-02 2010-01-21 National Institute Of Advanced Industrial & Technology Offshore monitoring system method
JP2014228881A (en) 2013-05-17 2014-12-08 株式会社日立製作所 Mosaic image generation device, generation method, and generation program
JP2016149006A (en) 2015-02-12 2016-08-18 アジア航測株式会社 Change detection system using aerial mobile acquisition information, change detection method using aerial mobile acquisition information, and program of the same
WO2016147870A1 (en) 2015-03-16 2016-09-22 コニカミノルタ株式会社 Plant health diagnosis apparatus, method, and program

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001120042A (en) * 1999-10-22 2001-05-08 Hokuriku Natl Agricultural Experiment Station Image mapping system

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003339238A (en) 2002-05-28 2003-12-02 Satake Corp Method and apparatus for diagnosing crop growth
JP2005284635A (en) 2004-03-29 2005-10-13 Seiko Epson Corp Image forming apparatus, image forming method and image forming program
JP2010014491A (en) 2008-07-02 2010-01-21 National Institute Of Advanced Industrial & Technology Offshore monitoring system method
JP2014228881A (en) 2013-05-17 2014-12-08 株式会社日立製作所 Mosaic image generation device, generation method, and generation program
JP2016149006A (en) 2015-02-12 2016-08-18 アジア航測株式会社 Change detection system using aerial mobile acquisition information, change detection method using aerial mobile acquisition information, and program of the same
WO2016147870A1 (en) 2015-03-16 2016-09-22 コニカミノルタ株式会社 Plant health diagnosis apparatus, method, and program

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
古瀬 達哉,UAVによる撮影画像の5D World Mapへのマッピングによる時空間・環境データベースの構築,第8回データ工学と情報マネジメントに関するフォーラム (第14回日本データベース学会年次大会) [online],日本,電子情報通信学会データ工学研究専門委員会 日本データベース学会 情報処理学会データベースシステム研究会,2016年03月02日

Also Published As

Publication number Publication date
JP2019046149A (en) 2019-03-22

Similar Documents

Publication Publication Date Title
JP7069609B2 (en) Crop cultivation support device
US20170277187A1 (en) Aerial Three-Dimensional Scanner
US10401872B2 (en) Method and system for collision avoidance
JP6996560B2 (en) Crop cultivation support device
US20150130936A1 (en) Crop monitoring system
JP6708790B2 (en) Image generation device, image generation system, image generation method, and image generation program
US10249024B2 (en) Systems and methods for enhancing object visibility for overhead imaging
EP3358480B1 (en) Drawing creation device and drawing creation method
US11689808B2 (en) Image synthesis system
KR101345554B1 (en) Method of resampling high resolution digital multi band imagery from line senser into frame type imagery to construct gis(uis), digital map and 3d spatial information using ground control point and gps/ins data
JP2018160228A (en) Route generation device, route control system, and route generation method
JP7074126B2 (en) Image processing equipment, growth survey image creation system and program
US20130271638A1 (en) Identifying pixels of image data
KR102313438B1 (en) Method for estimation of river bed change rate using hyperspectral image
US20220301303A1 (en) Multispectral imaging for navigation systems and methods
KR102313437B1 (en) Method for estimation of bathymetry using hyperspectral image
JP7318768B2 (en) Crop cultivation support device
Koirala et al. Real-time hyperspectral image processing for UAV applications, using HySpex Mjolnir-1024
Haavardsholm et al. Multimodal Multispectral Imaging System for Small UAVs
WO2020044628A1 (en) Cultivated land imaging system and cultivated land imaging method
JP6880380B2 (en) Image processing equipment, image processing methods, and programs
CN115861463A (en) Method for generating panoramic orthographic image of multispectral ground observation device and program product

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200318

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210427

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210525

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210721

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220104

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220303

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220405

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220418

R150 Certificate of patent or registration of utility model

Ref document number: 7069609

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150