JP6093226B2 - Plant position measuring apparatus and method - Google Patents

Plant position measuring apparatus and method Download PDF

Info

Publication number
JP6093226B2
JP6093226B2 JP2013078781A JP2013078781A JP6093226B2 JP 6093226 B2 JP6093226 B2 JP 6093226B2 JP 2013078781 A JP2013078781 A JP 2013078781A JP 2013078781 A JP2013078781 A JP 2013078781A JP 6093226 B2 JP6093226 B2 JP 6093226B2
Authority
JP
Japan
Prior art keywords
coordinate system
measurement
coordinate value
sensor
coordinate
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2013078781A
Other languages
Japanese (ja)
Other versions
JP2014202601A (en
Inventor
肇 坂野
肇 坂野
弘記 村上
弘記 村上
孝生 國弘
孝生 國弘
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
IHI Corp
IHI Aerospace Co Ltd
Original Assignee
IHI Corp
IHI Aerospace Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by IHI Corp, IHI Aerospace Co Ltd filed Critical IHI Corp
Priority to JP2013078781A priority Critical patent/JP6093226B2/en
Publication of JP2014202601A publication Critical patent/JP2014202601A/en
Application granted granted Critical
Publication of JP6093226B2 publication Critical patent/JP6093226B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Description

本発明は、地上に存在する植物の葉の位置を計測する植物位置計測装置と方法に関する。   The present invention relates to a plant position measuring apparatus and method for measuring the position of a plant leaf existing on the ground.

植物の葉の位置を計測することにより、葉の位置の分布を取得し、この分布を、次のように用いることが望まれている。
(1)未舗装の地上を自律移動する車両やロボットは、植物の葉が存在する位置の分布に基づいて、当該位置が通過可能かどうかを判断する。これにより、植物の葉を、直ちに、通過不能な障害物として判定してしまうことを回避できる。
(2)葉の位置の分布を示す地図を、森林資源や防災などに利用できる。例えば、植物の葉が位置している山地を、森林資源が存在している領域として記録し、植物の葉が存在していない山地を土砂崩れが起きやすい領域として記録できる。
(3)畑において葉の位置の分布を示す地図を作成する。この地図に基づいて、作物が植えられている範囲外において、植物の葉が存在する位置を雑草の位置と認識できる。このような雑草の位置に基づいて、自律移動する農作業機械は、雑草を取り除くことができる。
It is desired to acquire the distribution of the leaf position by measuring the position of the leaf of the plant and use this distribution as follows.
(1) A vehicle or robot that autonomously moves on an unpaved ground determines whether or not the position can pass based on the distribution of the positions where the leaves of the plants exist. Thereby, it can avoid determining the leaf of a plant as an obstruction which cannot pass immediately.
(2) A map showing the distribution of leaf positions can be used for forest resources and disaster prevention. For example, a mountain area where a plant leaf is located can be recorded as an area where forest resources exist, and a mountain area where a plant leaf does not exist can be recorded as an area where landslides are likely to occur.
(3) Create a map showing the distribution of leaf positions in the field. Based on this map, the position where the leaf of the plant exists outside the range where the crop is planted can be recognized as the position of the weed. Based on the position of the weeds, the agricultural machine that moves autonomously can remove the weeds.

植物の葉の検出に関する技術は、例えば、下記の特許文献1、2に記載されている。   The technique regarding the detection of the leaf of a plant is described in the following patent documents 1 and 2, for example.

特許文献1では、植物の葉から反射された太陽光を分光して受光し、分光された各光の受光強度に基づいて、植物の育成度を求めている。   In Patent Document 1, sunlight reflected from the leaves of a plant is dispersed and received, and the degree of plant growth is determined based on the received light intensity of each of the dispersed light.

特許文献2では、植物の葉で吸収されない第1波長域の光のみを透過させる光学フィルタを介して撮像した画像と、植物の葉で吸収される第2波長域の光のみを透過させる光学フィルタを介して撮像した画像とに基づいて、観測対象物が植物であるかを判別している。   In Patent Document 2, an image captured through an optical filter that transmits only light in the first wavelength range that is not absorbed by the leaves of the plant and an optical filter that transmits only light in the second wavelength range that is absorbed by the leaves of the plant Whether or not the observation object is a plant is determined based on the image picked up via the.

特開2006−314215号公報JP 2006-314215 A 特開2010−44623号公報JP 2010-44623 A

しかし、特許文献1のように検出した受光強度、または、特許文献2のように取得した画像データに基づいては、植物の位置を高精度に求めることができない。特許文献1では、植物の育成度を検出しているが、植物の葉の位置を厳密に検出していない。特許文献2のように、画像データに基づく葉の位置の検出では、位置検出の精度に限界がある。   However, based on the received light intensity detected as in Patent Document 1 or the image data acquired as in Patent Document 2, the position of the plant cannot be obtained with high accuracy. In Patent Literature 1, the degree of plant growth is detected, but the position of the leaf of the plant is not strictly detected. As in Patent Document 2, in the detection of the leaf position based on the image data, the accuracy of the position detection is limited.

そこで、本発明の目的は、地上に存在している葉の位置を高精度に特定できる植物位置計測装置と方法を提供することにある。   Therefore, an object of the present invention is to provide a plant position measuring apparatus and method capable of specifying the position of a leaf existing on the ground with high accuracy.

上述の目的を達成するため、本発明によると、地上において植物の葉が存在している位置を計測する植物位置計測装置であって、
移動体に設定された基点から各計測方向にレーザ光を発することにより、各計測方向に存在する植物または他の物体上の各被計測点までの距離を計測する距離センサと、
前記各被計測点を含む領域を撮像する撮像装置と、を備え、
距離センサと撮像装置は、地上を移動する移動体に設けられており、
移動体の移動中に、距離センサにより、複数の計測時刻で距離計測を行い、
さらに、撮像時刻と各計測時刻との間における、移動体の向きと位置の変化量を求める動作量計測装置と、
距離センサにより計測した距離および計測方向と、撮像装置により得た画像と、動作量計測装置により得た前記変化量に基づいて、葉の位置を求めるデータ処理装置と、を備え、
データ処理装置は、各計測時刻について、
(A)当該計測時刻で距離センサが計測した被計測点までの距離および計測方向に基づいて、被計測点の位置を、距離センサに固定されたセンサ座標系の座標値で表し、
(B)撮像時刻と当該計測時刻との間における前記変化量に基づいて、センサ座標系の前記座標値を、撮像時刻における撮像装置に固定されたカメラ座標系の座標値に変換し、
(C)変換した座標値が、撮像装置により得た画像において葉を示す画素に対応するかを判断し、
前記(C)で葉を示す画素に対応すると判断された前記座標値を、地上に固定された静止座標系の座標値に変換し、当該変換した座標値を葉の位置として記録する、ことを特徴とする植物位置計測装置が提供される。
In order to achieve the above-mentioned object, according to the present invention, a plant position measuring device for measuring a position where a leaf of a plant exists on the ground,
A distance sensor that measures the distance to each measurement point on a plant or other object that exists in each measurement direction by emitting laser light in each measurement direction from a base point set on the moving body;
An imaging device that images an area including each of the measurement points;
The distance sensor and the imaging device are provided on a moving body that moves on the ground.
While moving the moving body, the distance sensor measures the distance at multiple measurement times,
Furthermore, an operation amount measuring device for determining the amount of change in the direction and position of the moving body between the imaging time and each measurement time;
A data processing device for determining a leaf position based on a distance and a measurement direction measured by a distance sensor, an image obtained by an imaging device, and the amount of change obtained by an operation amount measuring device;
The data processing device
(A) Based on the distance to the measurement point measured by the distance sensor at the measurement time and the measurement direction, the position of the measurement point is represented by a coordinate value of a sensor coordinate system fixed to the distance sensor,
(B) Based on the amount of change between the imaging time and the measurement time, the coordinate value of the sensor coordinate system is converted into a coordinate value of a camera coordinate system fixed to the imaging device at the imaging time,
(C) determining whether the converted coordinate value corresponds to a pixel indicating a leaf in an image obtained by the imaging device;
Converting the coordinate value determined to correspond to a pixel indicating a leaf in (C) to a coordinate value of a stationary coordinate system fixed on the ground, and recording the converted coordinate value as a leaf position; A characteristic plant position measuring apparatus is provided.

本発明の好ましい実施形態によると、複数の計測時刻の間で、移動体の本体に対するセンサ座標系の姿勢が異なるように、移動体の本体に対して距離センサの姿勢が変更され、
データ処理装置は、前記(B)において、各計測時刻について、
距離センサが基準姿勢にある時のセンサ座標系を基準センサ座標系とし、当該計測時刻のセンサ座標系が基準センサ座標系に一致していない場合には、当該センサ座標系の前記座標値を、距離センサの当該計測時刻の移動体の本体に固定された本体座標系の座標値に変換し、
当該本体座標系の座標値を、撮像装置の撮像時刻の移動体の本体に固定された本体座標系の座標値に変換し、
当該本体座標系の座標値を、撮像時刻の撮像装置に固定されたカメラ座標系の座標値に変換する。
According to a preferred embodiment of the present invention, the posture of the distance sensor with respect to the main body of the moving body is changed so that the posture of the sensor coordinate system with respect to the main body of the moving body is different between a plurality of measurement times.
In (B) above, the data processing device
When the sensor coordinate system when the distance sensor is in the reference posture is a reference sensor coordinate system, and the sensor coordinate system at the measurement time does not match the reference sensor coordinate system, the coordinate value of the sensor coordinate system is Convert to the coordinate value of the main body coordinate system fixed to the main body of the moving body at the measurement time of the distance sensor,
The coordinate value of the main body coordinate system is converted into the coordinate value of the main body coordinate system fixed to the main body of the moving body at the imaging time of the imaging device,
The coordinate value of the main body coordinate system is converted into the coordinate value of the camera coordinate system fixed to the imaging device at the imaging time.

また、データ処理装置は、前記(B)において、各計測時刻について、
センサ座標系の前記座標値を、当該計測時刻の移動体の本体に固定された本体座標系の座標値に変換し、
当該本体座標系の座標値を、撮像時刻の移動体の本体に固定された本体座標系の座標値に変換し、
当該本体座標系の座標値を、撮像時刻の撮像装置に固定されたカメラ座標系の座標値に変換してもよい。
In addition, the data processing device, in (B), for each measurement time,
The coordinate value of the sensor coordinate system is converted into the coordinate value of the main body coordinate system fixed to the main body of the moving body at the measurement time,
Convert the coordinate value of the main body coordinate system to the coordinate value of the main body coordinate system fixed to the main body of the moving body at the imaging time,
The coordinate value of the main body coordinate system may be converted into the coordinate value of the camera coordinate system fixed to the imaging device at the imaging time.

また、本発明によると、地上において植物の葉が存在している位置を計測する植物位置計測方法であって、
移動体に設定された基点から各計測方向にレーザ光を発することにより、各計測方向に存在する植物または他の物体上の各被計測点までの距離を計測する距離センサと、
前記各被計測点を含む領域を撮像する撮像装置と、を地上を移動する移動体に設け、
移動体の移動中に、距離センサにより、複数の計測時刻で距離計測を行うとともに、撮像装置により撮像を行い、
撮像時刻と各計測時刻との間における、移動体の向きと位置の変化量を求め、
各計測時刻について、
(A)当該計測時刻で距離センサが計測した被計測点までの距離および計測方向に基づいて、被計測点の位置を、距離センサに固定されたセンサ座標系の座標値で表し、
(B)撮像時刻と当該計測時刻との間における前記変化量に基づいて、センサ座標系の前記座標値を、撮像時刻における撮像装置に固定されたカメラ座標系の座標値に変換し、
(C)変換した座標値が、撮像装置により得た画像において葉を示す画素に対応するかを判断し、
前記(C)で葉を示す画素に対応すると判断された前記座標値を、地上に固定された静止座標系の座標値に変換し、当該変換した座標値を葉の位置として記録する、ことを特徴とする植物位置計測方法が提供される。
Moreover, according to the present invention, there is a plant position measuring method for measuring a position where a plant leaf exists on the ground,
A distance sensor that measures the distance to each measurement point on a plant or other object that exists in each measurement direction by emitting laser light in each measurement direction from a base point set on the moving body;
An imaging device that images the area including each of the measurement points, and a moving body that moves on the ground,
While moving the moving body, the distance sensor performs distance measurement at a plurality of measurement times, and the imaging device performs imaging.
Find the amount of change in the direction and position of the moving body between the imaging time and each measurement time,
For each measurement time,
(A) Based on the distance to the measurement point measured by the distance sensor at the measurement time and the measurement direction, the position of the measurement point is represented by a coordinate value of a sensor coordinate system fixed to the distance sensor,
(B) Based on the amount of change between the imaging time and the measurement time, the coordinate value of the sensor coordinate system is converted into a coordinate value of a camera coordinate system fixed to the imaging device at the imaging time,
(C) determining whether the converted coordinate value corresponds to a pixel indicating a leaf in an image obtained by the imaging device;
Converting the coordinate value determined to correspond to a pixel indicating a leaf in (C) to a coordinate value of a stationary coordinate system fixed on the ground, and recording the converted coordinate value as a leaf position; A featured plant location measurement method is provided.

上述した本発明によると、距離センサと撮像装置との両方を用いるので、葉の位置を高精度に特定できる。すなわち、距離センサが計測した各被計測点までの距離に基づいて、各被計測点の位置を、距離センサに固定されたセンサ座標系の座標値で表し、センサ座標系で表わした被計測点の各座標値を、カメラ座標系の各座標値に変換し、変換した各座標値のうち、撮像装置により得た画像において葉を示す画素に対応する座標値を特定することにより、地上に存在している葉の位置を高精度に特定できる。
また、計測時刻毎に、計測時刻と撮像時刻との間における移動体の向きと位置の変化量に基づいて、センサ座標系の前記座標値を、撮像時刻における撮像装置に固定されたカメラ座標系の座標値に変換するので、地上に存在している葉の位置をより高精度に特定できる。
According to the above-described present invention, since both the distance sensor and the imaging device are used, the position of the leaf can be specified with high accuracy. That is, based on the distance to each measured point measured by the distance sensor, the position of each measured point is represented by the coordinate value of the sensor coordinate system fixed to the distance sensor, and the measured point represented by the sensor coordinate system Each coordinate value is converted into each coordinate value of the camera coordinate system, and among the converted coordinate values, the coordinate value corresponding to the pixel indicating the leaf in the image obtained by the imaging device is specified, thereby existing on the ground It is possible to specify the position of the leaf in high accuracy.
Further, for each measurement time, the coordinate value of the sensor coordinate system is fixed to the imaging device at the imaging time based on the amount of change in the direction and position of the moving body between the measurement time and the imaging time. Therefore, the position of the leaf existing on the ground can be specified with higher accuracy.

本発明の実施形態による植物位置計測装置を示す。1 shows a plant position measuring apparatus according to an embodiment of the present invention. 撮像装置の構成例を示す。2 shows an example of the configuration of an imaging apparatus. 本発明の実施形態による植物位置計測方法を示すフローチャートである。It is a flowchart which shows the plant position measuring method by embodiment of this invention. 座標変換の説明図である。It is explanatory drawing of coordinate transformation. 本発明の実施形態による効果の説明図である。It is explanatory drawing of the effect by embodiment of this invention.

本発明の好ましい実施形態を図面に基づいて説明する。なお、各図において共通する部分には同一の符号を付し、重複した説明を省略する。   A preferred embodiment of the present invention will be described with reference to the drawings. In addition, the same code | symbol is attached | subjected to the common part in each figure, and the overlapping description is abbreviate | omitted.

図1は、本発明の実施形態による植物位置計測装置10を示す。   FIG. 1 shows a plant position measuring apparatus 10 according to an embodiment of the present invention.

植物位置計測装置10は、距離センサ3と、撮像装置5と、動作量計測装置7と、データ処理装置9とを備える。   The plant position measuring device 10 includes a distance sensor 3, an imaging device 5, an operation amount measuring device 7, and a data processing device 9.

距離センサ3と撮像装置5と動作量計測装置7とは、移動体11に設置される。データ処理装置9は、好ましくは、移動体11に設置される。データ処理装置9を移動体11に設置しない場合には、例えば、データ処理装置9は、距離センサ3と撮像装置5と動作量計測装置7とから無線によりデータを受ける。なお、移動体11は、図1の例では、地上に接触して回転駆動される車輪により地上を移動する車両であるが、歩行する脚を有するロボットや、クローラにより地上を走行する走行体などの他の移動体であってもよい。   The distance sensor 3, the imaging device 5, and the operation amount measuring device 7 are installed on the moving body 11. The data processing device 9 is preferably installed on the moving body 11. When the data processing device 9 is not installed on the moving body 11, for example, the data processing device 9 receives data from the distance sensor 3, the imaging device 5, and the operation amount measuring device 7 by radio. In the example of FIG. 1, the moving body 11 is a vehicle that moves on the ground by wheels that are rotated and driven in contact with the ground. However, a robot having legs that walk, a traveling body that travels on the ground by a crawler, and the like. Other moving bodies may be used.

距離センサ3は、基点Paを含む平面を走査面として、レーザ光を、基点Paから、走査面内に含まれる各計測方向に発することにより、各計測方向に存在する植物または他の物体上の各被計測点までの距離を計測する。   The distance sensor 3 uses a plane including the base point Pa as a scanning plane, and emits laser light from the base point Pa in each measurement direction included in the scan plane, thereby causing a plant or other object existing in each measurement direction to Measure the distance to each measurement point.

距離センサ3は、複数の計測時刻で距離計測を行う。複数の計測時刻の間で、移動体11の本体11aに対する距離センサ3の姿勢(すなわち、本体11aに固定された基準線に対する、距離センサ3に固定された基準線の向き)が基準姿勢から変更されることにより、前記走査面の向きを変更してよい。例えば、図1に示すように、図1の紙面と垂直で、基点Paを通る回転軸回りに、本体11aに対して、距離センサ3を揺動させることにより、本体11aに対する距離センサ3の姿勢を変更する。このようにして、各計測時刻の間で、レーザ光が進行する走査面が異なるようにする。例えば、これらの走査面は、図1において、それぞれ、破線X1、X2、X3、X4で表わされており、これらの走査面X1、X2、X3、X4は、図1の紙面に直交する。
距離センサ3による計測方向は、好ましくは、移動体11の進行方向側を向く。この場合、移動体11の進行方向に対する左右方向に関して、距離センサ3による計測範囲(視野角)は、撮像装置5による撮像範囲(視野角)よりも広くなるように設定されている。
The distance sensor 3 performs distance measurement at a plurality of measurement times. Between a plurality of measurement times, the posture of the distance sensor 3 with respect to the main body 11a of the moving body 11 (that is, the direction of the reference line fixed to the distance sensor 3 with respect to the reference line fixed to the main body 11a) is changed from the reference posture. By doing so, the direction of the scanning plane may be changed. For example, as shown in FIG. 1, the posture of the distance sensor 3 with respect to the main body 11a is made by swinging the distance sensor 3 with respect to the main body 11a around the rotation axis that is perpendicular to the paper surface of FIG. To change. In this way, the scanning plane on which the laser light travels is different between the measurement times. For example, these scanning planes are represented by broken lines X1, X2, X3, and X4 in FIG. 1, respectively, and these scanning planes X1, X2, X3, and X4 are orthogonal to the paper plane of FIG.
The measurement direction by the distance sensor 3 is preferably directed to the traveling direction side of the moving body 11. In this case, the measurement range (viewing angle) by the distance sensor 3 is set to be wider than the imaging range (viewing angle) by the imaging device 5 in the left-right direction with respect to the traveling direction of the moving body 11.

撮像装置5は、距離センサ3が計測した各被計測点を含む領域を撮像する。撮像装置5による撮像方向は、移動体11の進行方向側を向き、かつ、水平方向から下方に傾く方向である。撮像装置5による撮像範囲(視野角)は、例えば、左右に60度である。なお、撮像装置5による撮像範囲に、距離センサ3により距離が計測される複数の被計測点の少なくとも一部が含まれる。   The imaging device 5 captures an area including each measurement point measured by the distance sensor 3. The imaging direction by the imaging device 5 is a direction in which the moving body 11 faces the traveling direction side and is inclined downward from the horizontal direction. The imaging range (viewing angle) by the imaging device 5 is, for example, 60 degrees to the left and right. Note that the imaging range of the imaging device 5 includes at least some of the plurality of measurement points whose distances are measured by the distance sensor 3.

撮像装置5は、図2に示すように、第1フィルタ13を介して、前記領域を撮像することにより第1画像を生成する第1撮像部5aと、第2フィルタ15を介して、前記領域を撮像することにより第2画像を生成する第2撮像部5bと、を有する。
第1フィルタ13は、第1波長域に含まれる波長範囲の光を透過させる。好ましくは、第1フィルタ13は、第1波長域に含まれる波長範囲の光のみを透過させる。ここで、第1波長域は、植物の葉(すなわち、クロロフィル)で反射される光の波長域である。具体的には、第1波長域は、800nm〜1200nmの波長域であり、800nmと1200nmを含む。また、第1波長域に含まれる前記波長範囲は、好ましくは、100nm以上の幅を有する。
第2フィルタ15は、第2波長域に含まれる波長範囲の光を透過させる。好ましくは、第2フィルタ15は、第2波長域に含まれる波長範囲の光のみを透過させる。ここで、第2波長域は、植物の葉(すなわち、クロロフィル)で吸収される光の波長域である。具体的には、第2波長域は、600nm〜680nmの波長域であり、600nmと680nmを含む。この場合、第2波長域に含まれる前記波長範囲は、最大で80nmの幅を有する。好ましくは、第1フィルタ13は、30nm以上、100nm以下の幅を有する前記波長範囲の光を透過させるものであってよい。
As illustrated in FIG. 2, the imaging device 5 includes a first imaging unit 5 a that generates a first image by imaging the region via the first filter 13, and the region via the second filter 15. And a second imaging unit 5b that generates a second image by imaging.
The first filter 13 transmits light in a wavelength range included in the first wavelength range. Preferably, the first filter 13 transmits only light in the wavelength range included in the first wavelength range. Here, the first wavelength range is a wavelength range of light reflected by the leaves of the plant (that is, chlorophyll). Specifically, the first wavelength range is a wavelength range of 800 nm to 1200 nm, and includes 800 nm and 1200 nm. The wavelength range included in the first wavelength region preferably has a width of 100 nm or more.
The second filter 15 transmits light in a wavelength range included in the second wavelength range. Preferably, the second filter 15 transmits only light in a wavelength range included in the second wavelength range. Here, the second wavelength range is a wavelength range of light absorbed by the leaves of the plant (that is, chlorophyll). Specifically, the second wavelength range is a wavelength range of 600 nm to 680 nm, and includes 600 nm and 680 nm. In this case, the wavelength range included in the second wavelength region has a maximum width of 80 nm. Preferably, the first filter 13 may transmit light in the wavelength range having a width of 30 nm or more and 100 nm or less.

第1撮像部5aは、前記領域からの光を第1フィルタ13を介して受ける撮像面17を有する。この撮像面17には、多数のCCD受光素子が2次元状に配列されている。第1撮像部5aは、受けた光に応じた第1画像(この例では、2次元画像)を生成する。第2撮像部5bは、前記領域からの光を第2フィルタ15を介して受ける撮像面19を有する。この撮像面19には、多数のCCD受光素子が2次元状に配列されている。第2撮像部5bは、受けた光に応じた第2画像(この例では、2次元画像)を生成する。   The first imaging unit 5 a has an imaging surface 17 that receives light from the region via the first filter 13. A large number of CCD light receiving elements are two-dimensionally arranged on the imaging surface 17. The first imaging unit 5a generates a first image (in this example, a two-dimensional image) corresponding to the received light. The second imaging unit 5 b has an imaging surface 19 that receives light from the region via the second filter 15. A large number of CCD light receiving elements are two-dimensionally arranged on the imaging surface 19. The second imaging unit 5b generates a second image (in this example, a two-dimensional image) corresponding to the received light.

動作量計測装置7は、距離センサ3の各計測時刻と撮像装置5の撮像時刻との間における移動体11の向きと位置の変化量を求める。
詳しくは、動作量計測装置7は、距離センサ3による計測時刻の移動体11の向きに対する、撮像装置5による撮像時刻の移動体11の相対的な向きと、距離計測時の移動体11の位置に対する撮像時刻の移動体11の相対的な位置と、を前記変化量として求める。なお、移動体11の向きとは、例えば、移動体11の中心点から見た、移動体11の前方部に設定された基準点の方向である。
The motion amount measurement device 7 obtains the amount of change in the direction and position of the moving body 11 between each measurement time of the distance sensor 3 and the imaging time of the imaging device 5.
Specifically, the motion amount measuring device 7 is configured such that the relative direction of the moving body 11 at the imaging time by the imaging device 5 with respect to the orientation of the moving body 11 at the time measured by the distance sensor 3 and the position of the moving body 11 at the time of distance measurement. The relative position of the moving body 11 at the imaging time with respect to is determined as the amount of change. The direction of the moving body 11 is, for example, the direction of the reference point set at the front portion of the moving body 11 as viewed from the center point of the moving body 11.

動作量計測装置7は、計測部7aと演算部7bとを有する。   The operation amount measuring device 7 includes a measurement unit 7a and a calculation unit 7b.

計測部7aは、距離計測時刻と撮像時刻との間の期間に含まれる各時刻(例えば、距離計測時刻と撮像時刻との中間の時刻を含む各時刻)、および、距離計測時刻と撮像時刻において、移動体11の向きと移動体11の移動速度を計測する。計測部7aは、例えば、移動体11が、地上を転動することにより移動する車輪を有する場合には、動作量計測装置7は、この車輪の回転速度を計測し、この回転速度から移動体11の移動速度を演算する。また、計測部7aは、移動体11に設置されたジャイロセンサを用いて、移動体11の向き(進行方向)を検出する。   The measurement unit 7a includes each time included in a period between the distance measurement time and the imaging time (for example, each time including an intermediate time between the distance measurement time and the imaging time), and the distance measurement time and the imaging time. The direction of the moving body 11 and the moving speed of the moving body 11 are measured. For example, when the moving body 11 has a wheel that moves by rolling on the ground, the measuring unit 7a measures the rotational speed of the wheel, and the moving body 11 determines the moving body from the rotational speed. 11 movement speed is calculated. The measurement unit 7 a detects the direction (traveling direction) of the moving body 11 using a gyro sensor installed on the moving body 11.

演算部7bは、計測部7aにより計測した各時刻における移動体11の向きと移動速度とに基づいて、距離計測時の移動体11の向きに対する、撮像時刻の移動体11の相対的な向きと、距離計測時の移動体11の位置に対する撮像時刻の移動体11の相対的な位置と、を求める。   Based on the direction and moving speed of the moving body 11 at each time measured by the measuring unit 7a, the calculation unit 7b determines the relative direction of the moving body 11 at the imaging time with respect to the direction of the moving body 11 at the time of distance measurement. Then, the relative position of the moving body 11 at the imaging time with respect to the position of the moving body 11 at the time of distance measurement is obtained.

データ処理装置9は、好ましくは移動体11に設置される。データ処理装置9は、距離センサ3が計測した距離と撮像装置5が撮像した画像とに基づいて、葉の位置を求める。   The data processing device 9 is preferably installed on the moving body 11. The data processing device 9 obtains the leaf position based on the distance measured by the distance sensor 3 and the image captured by the imaging device 5.

データ処理装置9は、各計測時刻について、次の処理(A)〜(C)を行う。
(A)当該計測時刻で距離センサ3が計測した計測方向と、該計測方向に存在する被計測点までの距離とに基づいて、被計測点の位置を、距離センサ3に固定されたセンサ座標系の座標値で表す。
(B)撮像時刻と当該計測時刻との間における、動作量計測装置7が計測した前記変化量に基づいて、センサ座標系の前記座標値を、撮像時刻における撮像装置5に固定されたカメラ座標系の座標値に変換する。
(C)変換した座標値が、撮像装置5が撮像により得た画像データにおいて葉を示す画素に対応するかを判断する。
The data processing device 9 performs the following processes (A) to (C) for each measurement time.
(A) Based on the measurement direction measured by the distance sensor 3 at the measurement time and the distance to the measurement point existing in the measurement direction, the position of the measurement point is a sensor coordinate fixed to the distance sensor 3. Expressed in the coordinate value of the system.
(B) Based on the change amount measured by the motion amount measuring device 7 between the imaging time and the measurement time, the coordinate values of the sensor coordinate system are fixed to the imaging device 5 at the imaging time. Convert to coordinate value of system.
(C) It is determined whether the converted coordinate value corresponds to a pixel indicating a leaf in the image data obtained by the imaging device 5 by imaging.

データ処理装置9は、さらに、前記各計測時刻について前記(C)で葉を示す画素に対応すると判断した座標値を、地上に固定された静止座標系の座標値に変換し、当該変換した座標値を葉の位置として記録する。   The data processing device 9 further converts the coordinate value determined to correspond to the pixel indicating the leaf in (C) for each measurement time into a coordinate value of a stationary coordinate system fixed on the ground, and the converted coordinate Record the value as the leaf position.

図3は、本発明の実施形態による植物位置計測方法を示すフローチャートである。   FIG. 3 is a flowchart showing a plant position measuring method according to an embodiment of the present invention.

この方法は、植物位置計測装置10により行われる。また、この方法は、ステップS1〜S8を有する。ステップS1〜S8の間、移動体11は、地上を移動し続けていてよい。   This method is performed by the plant position measuring apparatus 10. The method also includes steps S1 to S8. During steps S1 to S8, the moving body 11 may continue to move on the ground.

ステップS1において、距離センサ3により、基点Paから、走査面内に含まれる各計測方向にレーザ光を発することにより、各計測方向に存在する植物または他の物体上の各被計測点までの距離を計測する。
各計測方向において計測した距離と、当該計測方向とは、互いに対応づけられた状態で、計測データとして、データ処理装置9の記憶部に蓄積される。
In step S1, the distance sensor 3 emits a laser beam from the base point Pa in each measurement direction included in the scanning plane, so that the distance from each measurement point on the plant or other object that exists in each measurement direction. Measure.
The distance measured in each measurement direction and the measurement direction are stored in the storage unit of the data processing device 9 as measurement data in a state of being associated with each other.

ステップS2において、動作量計測装置7の計測部7aにより、ステップS1を行った時の移動体11の位置と向きを計測する。これについて、計測される移動体11の位置と向きは、地上に固定された静止座標系で表されたものである。   In step S2, the position and orientation of the moving body 11 when step S1 is performed are measured by the measuring unit 7a of the motion amount measuring apparatus 7. In this regard, the position and orientation of the moving body 11 to be measured are expressed in a stationary coordinate system fixed on the ground.

一方、ステップS3において、後述するように複数回行われたステップS1で計測された(後述の変更例1では、これから行われる複数回のステップS1で計測される)各被計測点を含む領域を撮像する。   On the other hand, in step S3, an area including each measurement point measured in step S1 performed a plurality of times as will be described later (in a modified example 1 described later, measured in a plurality of steps S1 performed in the future). Take an image.

次いで、ステップS4において、動作量計測装置7により、ステップS3を行った時の移動体11の位置と向きを計測する。これについて、計測される移動体11の位置と向きは、静止座標系で表されたものである。   Next, in step S4, the movement amount measuring device 7 measures the position and orientation of the moving body 11 when step S3 is performed. In this regard, the position and orientation of the moving body 11 to be measured are expressed in a stationary coordinate system.

ステップS3の撮像は、時間の間隔をおいて行われる。ステップ3を行ってから次のステップS3を行うまでに、複数回のステップS1が行われる。なお、各ステップS3において、第1撮像部5aにより第1画像を取得し、第2撮像部5bにより第2画像を取得する。すなわち、各ステップS3により、第1画像と第2画像とからなる画像データを得る。   The imaging in step S3 is performed at time intervals. Step S1 is performed a plurality of times from step 3 to the next step S3. In each step S3, the first image is acquired by the first imaging unit 5a, and the second image is acquired by the second imaging unit 5b. That is, each step S3 obtains image data composed of the first image and the second image.

上述したステップS2の次に、ステップS5を行う。ステップS5において、ステップS3の撮像が行われたかを判断する。ステップS5の判断が、「いいえ」の場合には、ステップS1に戻る。   Following step S2 described above, step S5 is performed. In step S5, it is determined whether the imaging in step S3 has been performed. If the determination in step S5 is “No”, the process returns to step S1.

ステップS1に戻ったら、このステップS1は、前回のステップS1の場合から、移動体11の本体11aに対する前記走査面の向きを異ならせた状態で行われる。これにより、距離センサ3でより広い範囲を計測することができる。   When returning to step S1, this step S1 is performed in a state where the direction of the scanning surface with respect to the main body 11a of the movable body 11 is different from that in the previous step S1. Thereby, a wider range can be measured by the distance sensor 3.

ステップS5の判断が、「はい」となった場合には、ステップS1を繰り返すことにより計測した各計測方向における被計測点までの距離および当該計測方向からなる計測データと、直前のステップS3で撮像装置5により得た画像データに対して、ステップS6〜S8の処理を行う。
その一方で、ステップS5の判断が、「はい」となったら、再び、ステップS1に戻って、上述と同様に、ステップS1、S2、S5を繰り返すとともに、次のステップS3が、上述のように前回のステップS3から時間の間隔をおいて行われる。これにより、再び、ステップS5の判断が「はい」となった時には、新たな前記計測データと前記画像データが得られる。この新たな計測データと画像データに対して、ステップS6〜S8の処理を再び行う。
以降も、同様に、新たな前記計測データと前記画像データを取得し、この新たな計測データと画像データに対して、ステップS6〜S8の処理を再び行う。
If the determination in step S5 is “yes”, the distance to the point to be measured in each measurement direction measured by repeating step S1 and the measurement data including the measurement direction, and imaging in the immediately preceding step S3. The processing of steps S6 to S8 is performed on the image data obtained by the apparatus 5.
On the other hand, if the determination in step S5 is “Yes”, the process returns to step S1 again, and steps S1, S2, and S5 are repeated as described above, and the next step S3 is performed as described above. This is performed at a time interval from the previous step S3. Thus, when the determination in step S5 is “Yes” again, new measurement data and image data are obtained. The process of steps S6 to S8 is performed again on the new measurement data and image data.
Thereafter, similarly, the new measurement data and the image data are acquired, and the processes of steps S6 to S8 are performed again on the new measurement data and the image data.

ステップS6において、データ処理装置9により、前記画像データにおいて葉を示す画素を特定する。ステップS6は、次のようなステップS61、S62を有する(ステップS6の詳細は、例えば特許文献2を参照)。   In step S <b> 6, the data processing device 9 specifies a pixel indicating a leaf in the image data. Step S6 includes the following steps S61 and S62 (for details of step S6, see, for example, Patent Document 2).

ステップS61において、第1画像の各画素について、該画素の輝度をAとし、前記領域において該画素と同じ位置に相当する第2画像の画素の輝度をBとし、データ処理装置9により、輝度Aに対する輝度Bの比率B/Aを求める。   In step S61, for each pixel of the first image, the luminance of the pixel is set to A, and the luminance of the pixel of the second image corresponding to the same position as the pixel in the region is set to B. The ratio B / A of the luminance B with respect to is obtained.

ステップS62において、データ処理装置9により、第1画像または第2画像において、前記比率B/Aに基づいて、第1画像または第2画像における植物の葉の位置を特定する。ここでは、第1画像または第2画像において、比率B/Aがしきい値以上となる画素の位置を、第1画像または第2画像における植物の葉を示す位置として特定する。   In step S62, the position of the leaf of the plant in the first image or the second image is specified by the data processing device 9 based on the ratio B / A in the first image or the second image. Here, in the first image or the second image, the position of the pixel where the ratio B / A is equal to or greater than the threshold is specified as the position indicating the leaf of the plant in the first image or the second image.

計測データのうち、各計測時刻で得たデータ毎に、ステップS7が行われる。
すなわち、計測データが、n個の計測時刻で得たデータである場合には、1番目の計測時刻で得た計測方向における被計測点までの距離と当該計測方向とのデータに対してステップS7が行われ、2番目の計測時刻で得た計測方向における被計測点までの距離と当該計測方向とのデータに対してステップS7が行われ、このように続けて、最後に、n番目の計測時刻で得た計測方向における被計測点までの距離と当該計測方向とのデータに対してステップS7が行われる。
Of the measurement data, step S7 is performed for each data obtained at each measurement time.
That is, when the measurement data is data obtained at n measurement times, step S7 is performed on the data about the distance to the measurement point in the measurement direction obtained at the first measurement time and the measurement direction. Step S7 is performed on the data of the distance to the measurement point in the measurement direction obtained at the second measurement time and the data in the measurement direction, and in this way, finally, the nth measurement is performed. Step S7 is performed on the data of the distance to the measurement point in the measurement direction obtained at the time and the measurement direction.

ステップS7は、ステップS71〜S74を有する。   Step S7 includes steps S71 to S74.

ステップS71において、動作量計測装置7の演算部7bにより、対象の計測時刻と撮像時刻との間における移動体11の位置と向きの変化量を演算する。
この演算は、ステップS2で計測した対象の計測時刻における移動体11の位置および向きと、ステップS4で計測した対象の撮像時刻における移動体11の位置および向きとに基づいて行われる。
In step S <b> 71, the amount of change in the position and orientation of the moving body 11 between the target measurement time and the imaging time is calculated by the calculation unit 7 b of the motion amount measurement device 7.
This calculation is performed based on the position and orientation of the moving body 11 at the target measurement time measured in step S2 and the position and orientation of the moving body 11 at the target imaging time measured in step S4.

ステップS72において、データ処理装置9により、対象の計測時刻で距離センサ3が計測した計測方向と、該計測方向における被計測点までの距離とに基づいて、被計測点の位置を、対象の計測時刻における距離センサ3に固定されたセンサ座標系の座標値で表す。
このセンサ座標系は、移動体11の移動により静止座標系(すなわち、地上)に対して移動する。ステップS72で用いられるセンサ座標系は、対象の計測時刻における座標系であり、この計測時刻で、静止座標系のある点にその原点が位置している。
In step S72, based on the measurement direction measured by the distance sensor 3 at the target measurement time and the distance to the measurement point in the measurement direction by the data processing device 9, the position of the measurement point is measured. This is represented by the coordinate value of the sensor coordinate system fixed to the distance sensor 3 at the time.
This sensor coordinate system moves with respect to the stationary coordinate system (that is, the ground) by the movement of the moving body 11. The sensor coordinate system used in step S72 is a coordinate system at the target measurement time, and the origin is located at a certain point in the stationary coordinate system at this measurement time.

ステップS73において、データ処理装置9により、ステップS71で求めた前記変化量に基づいて、ステップS72で得たセンサ座標系の前記座標値を、撮像時刻における撮像装置5に固定されたカメラ座標系の座標値に変換する。
このカメラ座標系は、移動体11の移動により静止座標系(すなわち、地上)に対して移動する。ステップS73で用いられるカメラ座標系は、対象の撮像時刻における座標系であり、この撮像時刻で、静止座標系のある点にその原点が位置している。
In step S73, based on the change amount obtained in step S71 by the data processing device 9, the coordinate value of the sensor coordinate system obtained in step S72 is obtained from the camera coordinate system fixed to the imaging device 5 at the imaging time. Convert to coordinate values.
The camera coordinate system moves with respect to the stationary coordinate system (that is, the ground) by the movement of the moving body 11. The camera coordinate system used in step S73 is a coordinate system at the imaging time of the target, and the origin is located at a certain point in the stationary coordinate system at this imaging time.

ステップS74において、データ処理装置9により、ステップS73で変換した座標値が、ステップS6により、葉の位置として特定した、前記画像データ(第1画像または第2画像)の画素に対応するかを判断する。   In step S74, the data processing device 9 determines whether the coordinate value converted in step S73 corresponds to the pixel of the image data (first image or second image) specified as the leaf position in step S6. To do.

計測データに含まれるすべての計測時刻で得たデータに対して、ステップS7が行われる。これにより、ステップS74において、データ処理装置9により、ステップS73で変換した座標値のうち、ステップS6により、葉の位置として特定した、前記画像データ(第1画像または第2画像)の画素に対応する座標値を特定する。その後、ステップS8へ進む。   Step S7 is performed on the data obtained at all measurement times included in the measurement data. Accordingly, in step S74, the data processing device 9 corresponds to the pixel of the image data (first image or second image) identified as the leaf position in step S6 among the coordinate values converted in step S73. The coordinate value to be specified is specified. Thereafter, the process proceeds to step S8.

ステップS73を、図4に基づいて説明する。   Step S73 will be described with reference to FIG.

図4において、符号tは、撮像時刻を示し、符号(t+Δti)は、対象としている計測時刻を示す。ここで、Δtiの添え字iは、1つの撮像時刻t(すなわち、直前のステップS3を行った時刻)に対して互いに異なる複数の計測時刻を識別するためのものであり、1つの撮像時刻tに対してn個の計測時刻がある場合には、iは、1〜nのいずれかである。本実施形態では、Δtiは負の値であるのに対し、後述の変更例では、正の値であるか、または、正と負の両方の値を含む。各座標系SL0、SL1、S、Sは、地上に固定された静止座標系Sに対する移動体11の移動により、静止座標系Sに対して移動する。従って、添え字tが付された座標系は、撮像時刻tにおける座標系であり、この撮像時刻tで、静止座標系Sのある点にその原点が位置している。同様に、添え字(t+Δti)が付された座標系は、対象の計測時刻(t+Δti)における座標系であり、この計測時刻(t+Δti)で、静止座標系Sのある点にその原点が位置している。また、距離センサ3が基準姿勢にある時のセンサ座標系を基準センサ座標系SL0とし、計測時刻(t+Δti)のセンサ座標系をSL1で表わす。 In FIG. 4, a symbol t indicates an imaging time, and a symbol (t + Δti) indicates a target measurement time. Here, the suffix i of Δti is for identifying a plurality of measurement times different from each other with respect to one imaging time t (that is, the time when the immediately preceding step S3 was performed), and one imaging time t If there are n measurement times, i is one of 1 to n. In the present embodiment, Δti is a negative value, whereas in the following modification example, it is a positive value or includes both positive and negative values. Each coordinate system S L0 , S L1 , S C , S B moves with respect to the stationary coordinate system S S by the movement of the moving body 11 with respect to the stationary coordinate system S S fixed on the ground. Therefore, the coordinate system shape t is attached served, the coordinate system of the imaging time t, in the imaging time t, the origin point in the stationary coordinate system S S is positioned. Similarly, subscript (t +? Ti) is a coordinate system attached is a coordinate system in the target measurement time (t +? Ti), at the measurement time (t +? Ti), the origin point in the stationary coordinate system S S is located doing. Further, the sensor coordinate system when the distance sensor 3 is in the reference attitude and reference sensor coordinate system S L0, representing the sensor coordinate system of the measuring time (t +? Ti) in S L1.

ステップS73では、データ処理装置9により、下記のように、(1)〜(6)の座標変換を行う。   In step S73, the data processor 9 performs coordinate transformations (1) to (6) as follows.

(1)対象とする計測時刻(t+Δti)のセンサ座標系SL1,t+Δtiが基準センサ座標系SL0,t+Δtiに一致していない場合には、対象の計測時刻(t+Δti)におけるセンサ座標系SL1,t+Δtiの前記座標値を、それぞれ、基準センサ座標系SL0,t+Δtiの座標値へ座標変換する。この座標変換は、後述する行列TLRF−LRF(θ)により行われる。
ここで、センサ座標系SL1,t+Δtiは、距離センサ3に固定された座標系であって、本体11aから見た座標系である。したがって、本体11aに対するセンサ座標系SL1,t+Δtiの姿勢は、本体11aに対する距離センサ3の姿勢(すなわち、本体11aに固定された基準線に対する、距離センサ3に固定された基準線の向き)を意味する。
(1) If the sensor coordinate system S L1, t + Δti at the target measurement time (t + Δti) does not match the reference sensor coordinate system S L0, t + Δti , the sensor coordinate system S L1 at the target measurement time (t + Δti) , T + Δti are converted into coordinate values of the reference sensor coordinate system S L0, t + Δti , respectively. This coordinate conversion is performed by a matrix T LRF−LRF (θ) described later.
Here, the sensor coordinate system S L1, t + Δti is a coordinate system fixed to the distance sensor 3 and is a coordinate system viewed from the main body 11a. Therefore, the posture of the sensor coordinate system SL1, t + Δti with respect to the main body 11a is the posture of the distance sensor 3 with respect to the main body 11a (that is, the direction of the reference line fixed to the distance sensor 3 with respect to the reference line fixed to the main body 11a). means.

(2)この基準センサ座標系SL0,t+Δtiの前記座標値を、それぞれ、対象とする計測時刻(t+Δti)におけるカメラ座標系SC,t+Δtiの座標値へ座標変換する。この座標変換は、後述する行列TCAM−LRFにより行われる。 (2) The coordinate values of the reference sensor coordinate system S L0, t + Δti are converted into coordinate values of the camera coordinate system SC, t + Δti at the target measurement time (t + Δti), respectively. This coordinate conversion is performed by a matrix T CAM-LRF described later.

(3)このカメラ座標系SC,t+Δtiの前記座標値を、それぞれ、対象とする計測時刻(t+Δti)における移動体11の本体11aに固定された本体座標系SB,t+Δtiの座標値へ座標変換する。この座標変換は、後述する行列TBODY−CAMにより行われる。 (3) The coordinate values of the camera coordinate system SC, t + Δti are respectively coordinated to the coordinate values of the main body coordinate system SB, t + Δti fixed to the main body 11a of the moving body 11 at the target measurement time (t + Δti). Convert. This coordinate conversion is performed by a matrix T BODY-CAM described later.

(4)この本体座標系SB,t+Δtiの前記座標値を、それぞれ、地上に固定された静止座標系Sの座標値へ座標変換する。この座標変換は、後述する行列TEARTH−BODY(t+Δti)により行われる。 (4) The body coordinate system S B, the coordinate values of the t +? Ti, respectively, to coordinate conversion into coordinate values of the stationary coordinate system S S fixed on the ground. This coordinate conversion is performed by a matrix T EARTH-BODY (t + Δti) described later.

(5)この静止座標系Sの前記座標値を、撮像時刻tにおける移動体11の本体11aに固定された本体座標系SB,tの座標値へ座標変換する。この座標変換は、後述する行列TBODY−EARTHにより行われる。 (5) the coordinates of the stationary coordinate system S S, the body coordinate system S B which is fixed to the body 11a of the movable body 11 in the imaging time t, a coordinate conversion into coordinate values of t. This coordinate conversion is performed by a matrix T BODY-EARTH described later.

(6)この本体座標系SB,tの座標値を、それぞれ、撮像時刻tにおける撮像装置5に固定されたカメラ座標系SC,tの座標値へ座標変換する。この座標変換は、後述する行列TCAM−BODYにより行われる。 (6) The coordinate values of the main body coordinate system SB , t are converted into the coordinate values of the camera coordinate system SC , t fixed to the imaging device 5 at the imaging time t, respectively. This coordinate conversion is performed by a matrix T CAM-BODY described later.

すなわち、ステップS73では、次の式による演算を行う。

CAM,t=TCAM−BODYBODY−EARTHEARTH−BODY(t+Δti)BODY−CAMCAM−LRFLRF−LRF(θ)LRF(θ,t+Δti)
That is, in step S73, the calculation according to the following equation is performed.

V CAM, t = T CAM-BODY T BODY-EARTH T EARTH-BODY (t + Δti) T BODY-CAM T CAM-LRF T LRF-LRF (θ) V LRF (θ, t + Δti)

この式における各記号は、次のように定義される。
LRF(θ,t+Δti):対象とする計測時刻(t+Δti)におけるセンサ座標系SL0,t+Δtiの前記座標値である。
LRF−LRF(θ):前記(1)の座標変換を表わす行列である。
CAM−LRF:前記(2)の座標変換を表わす行列である。
BODY−CAM:前記(3)の座標変換を表わす行列である。
EARTH−BODY(t+Δti):前記(4)の座標変換を表わす行列である。
BODY−EARTH:前記(5)の座標変換を表わす行列である。
CAM−BODY:前記(6)の座標変換を表わす行列である。
CAM,t:対象とする撮像時刻tにおけるカメラ座標系SC,tの前記座標値である。
Each symbol in this formula is defined as follows.
V LRF (θ, t + Δti) : The coordinate value of the sensor coordinate system S L0, t + Δti at the target measurement time (t + Δti).
T LRF−LRF (θ) : a matrix representing the coordinate transformation of (1).
TCAM-LRF : a matrix representing the coordinate transformation of (2).
T BODY-CAM : a matrix representing the coordinate transformation of (3) above.
T EARTH-BODY (t + Δti) : a matrix representing the coordinate transformation of (4).
T BODY-EARTH : a matrix representing the coordinate transformation of (5).
TCAM-BODY : a matrix representing the coordinate transformation of (6) above.
V CAM, t: which is the coordinate value of the camera coordinate system S C, t at imaging time t of interest.

各行列は、適宜の手段により求められる。例えば、各行列は、次のように求められる。TLRF−LRF(θ)は、計測時刻(t+Δti)における本体11aに対する距離センサ3の向きを適宜の手段で計測することにより求められる。TCAM−LRFは、基準姿勢にある距離センサ3と撮像装置5との位置および向きの関係に基づいて求められる。TBODY−CAMおよびTCAM−BODYは、撮像装置5と本体11aとの位置および向きの関係に基づいて求められる。なお、本体11aに対する撮像装置5の向きが変化する場合には、TBODY−CAMおよびTCAM−BODYは、さらに、それぞれ、計測時刻(t+Δti)および撮像時刻tにおける撮像装置5と本体11aとの向きの関係を適宜の手段で計測することにより求められる。TEARTH−BODY(t+Δti)は、静止座標系Sにおける、計測時刻(t+Δti)での本体11aの位置と向きに基づいて求められる。TBODY−EARTHは、静止座標系Sにおける、撮像時刻tでの本体11aの位置と向きに基づいて求められる。 Each matrix is obtained by an appropriate means. For example, each matrix is obtained as follows. T LRF−LRF (θ) is obtained by measuring the direction of the distance sensor 3 with respect to the main body 11a at the measurement time (t + Δti) by an appropriate means. T CAM-LRF is obtained based on the position and orientation relationship between the distance sensor 3 and the imaging device 5 in the reference posture. T BODY-CAM and T CAM-BODY are obtained based on the relationship between the position and orientation of the imaging device 5 and the main body 11a. When the orientation of the imaging device 5 with respect to the main body 11a changes, T BODY-CAM and T CAM-BODY are further measured between the imaging device 5 and the main body 11a at the measurement time (t + Δti) and the imaging time t, respectively. It is calculated | required by measuring the relationship of direction by an appropriate means. T EARTH-BODY (t + Δti ) is in the stationary coordinate system S S, it is determined based on the position and orientation of the body 11a at measurement time (t + Δti). T BODY-EARTH is in the still coordinate system S S, is determined based on the position and orientation of the body 11a in the imaging time t.

好ましくは、前記(4)および前記(5)の座標変換(TEARTH−BODY(t+Δti)およびTBODY−EARTH)は、地上(地面または水平面)に対する本体11aの向きを反映させて行う。この場合、地上(例えば水平面)に対する本体11aの向きを計測する適宜のセンサを本体11aに設けてよく、このセンサにより、地上に対する本体11aの向きの計測値を、TEARTH−BODY(t+Δti)およびTBODY−EARTHに反映させる。
これにより、地上に対する本体11aの位置と向きを考慮した前記(4)および前記(5)の座標変換を行うことができる。
Preferably, the coordinate transformations (T EARTH-BODY (t + Δti) and T BODY-EARTH ) of (4) and (5) are performed by reflecting the orientation of the main body 11a with respect to the ground (ground or horizontal plane). In this case, an appropriate sensor for measuring the orientation of the main body 11a with respect to the ground (for example, a horizontal plane) may be provided in the main body 11a, and the measured value of the orientation of the main body 11a with respect to the ground is calculated by T EARTH-BODY (t + Δti) and Reflected in T BODY-EARTH .
Thereby, the coordinate conversion of (4) and (5) can be performed in consideration of the position and orientation of the main body 11a with respect to the ground.

ステップS74をより詳しく説明する。   Step S74 will be described in more detail.

ステップS74において、画像データ(第1画像または第2画像)は、2次元座標系において配列された多数の画素により構成される。この例では、この2次元座標系の座標軸は、互いに直交するu軸とv軸であり、この2次元座標系における各画素k(kは、画素の番号を示す)の位置を、u座標値u(k)とv座標値v(k)で表わす。また、この例では、カメラ座標系SC,tは、互いに直交するx軸とy軸とz軸を有する3次元座標系である。この3次元座標系において、画素kに対応する被計測位置は、x座標値x(k)とy座標値y(k)とz座標値z(k)で表わされる。 In step S74, the image data (first image or second image) is composed of a large number of pixels arranged in a two-dimensional coordinate system. In this example, the coordinate axes of this two-dimensional coordinate system are the u-axis and the v-axis that are orthogonal to each other, and the position of each pixel k (k indicates the number of the pixel) in this two-dimensional coordinate system is represented by the u-coordinate value. It is represented by u (k) and v coordinate value v (k). In this example, the camera coordinate system SC , t is a three-dimensional coordinate system having an x-axis, a y-axis, and a z-axis that are orthogonal to each other. In this three-dimensional coordinate system, the measurement position corresponding to the pixel k is represented by an x coordinate value x (k), a y coordinate value y (k), and a z coordinate value z (k).

この場合、前記2次元座標系に配列された各画素の位置を示す座標値u(k)、v(k)と、カメラ座標系の座標値x(k)、y(k)、z(k)とは、次の式により対応づけられる。

u(k)=−fy(k)/x(k)+C

v(k)=−fz(k)/x(k)+C

ここで、fとfは、撮像装置5の焦点距離に関するパラメータであり、C、Cは、撮像装置5の光軸に関するパラメータである。
In this case, the coordinate values u (k), v (k) indicating the positions of the pixels arranged in the two-dimensional coordinate system, and the coordinate values x (k), y (k), z (k) of the camera coordinate system. ) Is associated with the following equation.

u (k) = − f u y (k) / x (k) + C u

v (k) = − f v z (k) / x (k) + C v

Here, f u and f v are parameters related to the focal length of the imaging device 5, and C u and C v are parameters related to the optical axis of the imaging device 5.

ステップS8において、データ処理装置9により、前記各計測時刻についてステップS74で、葉の位置として特定した座標値を、地上に固定された静止座標系の座標値に変換し、当該変換した座標値を葉の位置として記録する。ここで、地上に固定された静止座標系が、水平方向を向いて互いに直交するx軸とy軸と、鉛直方向を向くz軸とを有する直交座標系であり、さらに、この直交座標系を鳥瞰図による2次元座標系に変換する場合には、当該直交座標系において、葉の位置として特定されている位置のx座標値とy座標値により、当該2次元座標系において葉の位置を示す。   In step S8, the data processing device 9 converts the coordinate value specified as the leaf position in step S74 for each measurement time into a coordinate value of a stationary coordinate system fixed on the ground, and the converted coordinate value is converted into the coordinate value. Record as leaf position. Here, the stationary coordinate system fixed on the ground is an orthogonal coordinate system having an x-axis and a y-axis that are orthogonal to each other in the horizontal direction, and a z-axis that is in the vertical direction. When converting to a two-dimensional coordinate system based on a bird's eye view, the position of the leaf in the two-dimensional coordinate system is indicated by the x coordinate value and the y coordinate value of the position specified as the leaf position in the orthogonal coordinate system.

以下、本発明の実施形態による効果を説明する。   Hereinafter, the effect by embodiment of this invention is demonstrated.

図5は、本発明の実施形態による効果の説明図である。
図5(A)のように、カメラを地表面より上方に配置して、斜め下方を向く方向に、植物の葉を撮像する場合を想定する。この場合、撮像により得た画像に基づいて、葉の位置の分布を示す鳥瞰図を作成すると、図5(B)の斜線で示す植物の分布が得られる。この分布の水平方向の長さは、Laとなり、実際の長さLbより大きくなってしまう。
これに対し、本発明の実施形態では、計測方向と撮像方向は、図5(A)のカメラと同じであるが、精度よく、葉の位置の分布の水平方向における長さを得ることができる。本実施形態では、図5(A)のカメラのように、斜め下方を向く方向に、距離センサ3による計測と撮像装置5による撮像を行う。ところが、本実施形態では、距離センサ3により、3次元的な位置を計測できるので、図5(C)の斜線で示す植物の分布が得られる。この分布の水平方向の長さは、実際の長さLbに精度よく一致する。
例えば、撮像装置5(カメラ)が地上から2.2mの高さに位置し、植物の高さが地上から0.2mであり、撮像装置5から植物までの水平距離が10mである場合には、次のようになる。図5(B)においては、誤差La−Lbは、1mになる。これに対し、本発明の実施形態の図5(C)においては、誤差La−Lbは発生せず、誤差が発生するとしても、その誤差は、距離センサ3による小さい距離計測誤差(例えば数cm程度)になる。
FIG. 5 is an explanatory diagram of effects according to the embodiment of the present invention.
As shown in FIG. 5A, it is assumed that the camera is placed above the ground surface and the leaves of the plant are imaged obliquely downward. In this case, when a bird's-eye view showing the distribution of leaf positions is created based on an image obtained by imaging, a plant distribution indicated by diagonal lines in FIG. 5B is obtained. The horizontal length of this distribution is La, which is larger than the actual length Lb.
On the other hand, in the embodiment of the present invention, the measurement direction and the imaging direction are the same as those of the camera of FIG. 5A, but the length of the leaf position distribution in the horizontal direction can be obtained with high accuracy. . In the present embodiment, measurement by the distance sensor 3 and imaging by the imaging device 5 are performed in a direction facing obliquely downward as in the camera of FIG. However, in this embodiment, since the three-dimensional position can be measured by the distance sensor 3, the plant distribution indicated by the oblique lines in FIG. 5C is obtained. The horizontal length of this distribution matches the actual length Lb with high accuracy.
For example, when the imaging device 5 (camera) is located at a height of 2.2 m from the ground, the height of the plant is 0.2 m from the ground, and the horizontal distance from the imaging device 5 to the plant is 10 m. It becomes as follows. In FIG. 5B, the error La-Lb is 1 m. On the other hand, in FIG. 5C of the embodiment of the present invention, the error La−Lb does not occur, and even if an error occurs, the error is a small distance measurement error (for example, several cm) by the distance sensor 3. Degree).

しかも、計測時刻毎に、計測時刻と撮像時刻との間における移動体の向きと位置の変化量に基づいてセンサ座標系SL0,t+Δtiの前記座標値を、撮像時刻における撮像装置5に固定されたカメラ座標系SC,tの座標値に変換するので、地上に存在している葉の位置を高精度に特定できる。よって、地上に存在している葉の分布を高精度に求めることができる。 Moreover, for each measurement time, the coordinate values of the sensor coordinate system S L0, t + Δti are fixed to the imaging device 5 at the imaging time based on the amount of change in the direction and position of the moving body between the measurement time and the imaging time. Since the camera coordinate system SC , t is converted into the coordinate value, the position of the leaf existing on the ground can be specified with high accuracy. Therefore, the distribution of leaves existing on the ground can be obtained with high accuracy.

また、地上(地面または水平面)に対する移動体11の位置と向きの変化による誤差を以下のように回避して、高精度に葉の分布を求めることができる。
例えば、距離センサ3が、100Hzで計測(すなわち、1秒で100個の被計測点までの距離を計測)し、撮像装置5が10Hzで撮像(すなわち、1秒で10個の画像を取得する)場合、距離センサ3による計測時刻と、撮像装置5による撮像時刻との時間差が90ミリ秒になりえる。
この場合、上述の時間差の間に、移動体11が、50km/秒の速度で移動していた場合には、移動体11の移動距離1.25mが誤差になる。これに対し、上述の実施形態では、この誤差を、前記(1)〜(6)の座標変換により回避できる。
また、上述の時間差の間に、本体11aの向きが、10度/秒の速度で地面または水平面に対して変化していた場合には、距離センサ3と撮像装置5の向きの変化量0.9度が誤差になる。これに対し、上述の実施形態では、この誤差を、前記(1)〜(6)の座標変換により回避できる。
Further, it is possible to obtain the leaf distribution with high accuracy by avoiding errors due to changes in the position and orientation of the moving body 11 with respect to the ground (the ground surface or the horizontal surface) as follows.
For example, the distance sensor 3 measures at 100 Hz (that is, measures the distance to 100 measurement points in 1 second), and the imaging device 5 captures images at 10 Hz (that is, acquires 10 images in 1 second). ), The time difference between the measurement time by the distance sensor 3 and the imaging time by the imaging device 5 can be 90 milliseconds.
In this case, when the moving body 11 is moving at a speed of 50 km / sec during the above-described time difference, the moving distance 1.25 m of the moving body 11 becomes an error. On the other hand, in the above-described embodiment, this error can be avoided by the coordinate transformations (1) to (6).
In addition, when the orientation of the main body 11a changes with respect to the ground or the horizontal plane at a speed of 10 degrees / second during the above-described time difference, the amount of change in orientation between the distance sensor 3 and the imaging device 5 is 0. Nine degrees is an error. On the other hand, in the above-described embodiment, this error can be avoided by the coordinate transformations (1) to (6).

本発明は上述した実施の形態に限定されず、本発明の要旨を逸脱しない範囲で種々変更を加え得ることは勿論である。例えば、以下の変更例1〜4のいずれかを単独で採用してもよいし、変更例1〜4を適宜に組み合わせて採用してもよい。この場合、以下で説明しない点は、上述と同じである。   The present invention is not limited to the above-described embodiment, and various changes can be made without departing from the scope of the present invention. For example, any one of the following modification examples 1 to 4 may be employed alone, or modification examples 1 to 4 may be combined in an appropriate manner. In this case, the points not described below are the same as described above.

(変更例1)
図3の方法の開始において、ステップS3を開始した後に、ステップS1を開始してもよい。この場合、ステップS3を行うことによりステップS5の判断が、「はい」となったら、当該ステップS3で得た画像データと、当該ステップS3の後、次のステップS3が行われるまでの間に複数回行われたステップS1で得た計測データとに対して、ステップS6〜S8が行われてもよい。
代わりに、図3の方法の開始において、ステップS3を開始した後に、ステップS1を開始する場合に、ステップS3を行うことによりステップS5の判断が、「はい」となったら、当該ステップS3で得た画像データと、計測データとに対して、ステップS6〜S8が行われてもよい。この計測データは、当該画像データを得たステップS3と、当該ステップS3の直前に行われたステップS3との中間時刻(中間時点)から、当該画像データを得たステップS3の次のステップS3との中間時刻(中間時点)までの間に複数回行われたステップS1で得たデータであってよい。
(Modification 1)
At the start of the method of FIG. 3, step S1 may be started after step S3 is started. In this case, if the determination in step S5 is “Yes” by performing step S3, a plurality of image data obtained in step S3 and the next step S3 after step S3 are performed. Steps S6 to S8 may be performed on the measurement data obtained in step S1 that has been performed once.
Instead, when starting step S3 after starting step S3 at the start of the method of FIG. 3, if the determination in step S5 is “yes” by performing step S3, the result obtained in step S3 is obtained. Steps S6 to S8 may be performed on the image data and the measurement data. This measurement data is obtained from an intermediate time (intermediate time point) between step S3 where the image data is obtained and step S3 performed immediately before step S3, and step S3 next to step S3 where the image data is obtained. The data obtained in step S1 performed a plurality of times until the intermediate time (intermediate time).

(変更例2)
上述では、距離センサ3は、基点Paを含む平面を走査面として、レーザ光を、基点Paから、走査面内に含まれる各計測方向に発することにより、各計測方向に存在する植物または他の物体上の各被計測点までの距離を計測したが、本発明は、これに限定されない。すなわち、本発明によると、距離センサ3による距離計測の方法は、上述の方法(走査面内の複数方向にレーザ光を射出するライン走査)に限定されず、距離センサ3は、各計測方向に存在する植物または他の物体上の各被計測点までの距離を計測できればよい。なお、上述のステップS1において、複数の計測方向ではなく1つの計測方向へレーザ光を発して、ステップS2へ進んでもよい。
(Modification 2)
In the above description, the distance sensor 3 uses a plane including the base point Pa as a scanning plane, and emits laser light from the base point Pa in each measurement direction included in the scan plane, thereby causing a plant or other object present in each measurement direction. Although the distance to each measurement point on the object was measured, the present invention is not limited to this. In other words, according to the present invention, the distance measuring method by the distance sensor 3 is not limited to the above-described method (line scanning in which laser light is emitted in a plurality of directions within the scanning plane), and the distance sensor 3 is used in each measuring direction. It is only necessary to measure the distance to each measurement point on the existing plant or other object. In step S1, the laser beam may be emitted in one measurement direction instead of a plurality of measurement directions, and the process may proceed to step S2.

(変更例3)
上述では、移動体11の移動中に、複数の計測時刻の間で(例えば、複数のステップS1の間で)、移動体11の本体11aに対する前記走査面の向きが異なるようにして、距離センサ3により、距離計測を行ったが、本発明はこれに限定されない。すなわち、本発明によると、複数の計測時刻の間で(例えば、複数のステップS1の間で)、移動体11の本体11aに対する前記走査面の向きが同じであってもよい。この場合、センサ座標系は、基準センサ座標系SL0,t+Δtiに維持され、前記(1)の座標変換が省略される。
(Modification 3)
In the above description, the distance sensor is configured so that the direction of the scanning surface with respect to the main body 11a of the moving body 11 is different between a plurality of measurement times (for example, between a plurality of steps S1) while the moving body 11 is moving. However, the present invention is not limited to this. That is, according to the present invention, the direction of the scanning surface with respect to the main body 11a of the moving body 11 may be the same between a plurality of measurement times (for example, between a plurality of steps S1). In this case, the sensor coordinate system is maintained at the reference sensor coordinate system S L0, t + Δti, and the coordinate conversion of (1) is omitted.

(変更例4)
上述では、図4の座標変換において、前記(1)〜(6)の座標変換を行ったが、前記(2)および(3)の座標変換を省略してもよい。この場合、前記(1)の座標変換で得られた基準センサ座標系SL0,t+Δtiの前記座標値を、対象とする計測時刻(t+Δti)における移動体11の本体11aに固定された本体座標系SB,t+Δtiの座標値へ、直接、座標変換し、前記(4)〜(6)の座標変換を行う。
また、上述では、図4の座標変換において、前記(1)〜(6)の座標変換を行ったが、前記(2)〜(5)の座標変換を省略してもよい。この場合、前記(1)の座標変換で得られた基準センサ座標系SL0,t+Δtiの前記座標値を、対象とする計測時刻(t+Δti)における移動体11の本体11aに固定された本体座標系SB,t+Δtiの座標値へ、直接、座標変換し、当該本体座標系SB,t+Δtiの座標値を、撮像時刻tにおける移動体11の本体11aに固定された本体座標系SB,tの座標値へ、直接、座標変換し、前記(6)の座標変換を行う。
また、上述では、図4の座標変換において、前記(1)〜(6)の座標変換を行ったが、前記(1)〜(3)の座標変換を省略してもよい。この場合、対象とする計測時刻(t+Δti)のセンサ座標系SL1,t+Δtiが基準センサ座標系SL0,t+Δtiに一致していない場合に、対象の計測時刻(t+Δti)におけるセンサ座標系SL1,t+Δtiの前記座標値を、対象とする計測時刻(t+Δti)における移動体11の本体11aに固定された本体座標系SB,t+Δtiの座標値へ、直接、座標変換し、前記(4)〜(6)の座標変換を行う。一方、対象とする計測時刻(t+Δti)のセンサ座標系SL1,t+Δtiが基準センサ座標系SL0,t+Δtiに一致している場合には、対象の計測時刻(t+Δti)における基準センサ座標系SL0,t+Δtiの前記座標値を、対象とする計測時刻(t+Δti)における移動体11の本体11aに固定された本体座標系SB,t+Δtiの座標値へ、直接、座標変換し、前記(4)〜(6)の座標変換を行う。
また、上述では、図4の座標変換において、前記(1)〜(6)の座標変換を行ったが、前記(1)〜(5)の座標変換を省略してもよい。この場合、対象とする計測時刻(t+Δti)のセンサ座標系SL1,t+Δtiが基準センサ座標系SL0,t+Δtiに一致していない場合に、対象の計測時刻(t+Δti)におけるセンサ座標系SL1,t+Δtiの前記座標値を、対象とする計測時刻(t+Δti)における移動体11の本体11aに固定された本体座標系SB,t+Δtiの座標値へ、直接、座標変換し、当該本体座標系SB,t+Δtiの座標値を、撮像時刻tにおける移動体11の本体11aに固定された本体座標系SB,tの座標値へ、直接、座標変換し、前記(6)の座標変換を行う。一方、対象とする計測時刻(t+Δti)のセンサ座標系SL1,t+Δtiが基準センサ座標系SL0,t+Δtiに一致している場合には、対象の計測時刻(t+Δti)における基準センサ座標系SL0,t+Δtiの前記座標値を、対象とする計測時刻(t+Δti)における移動体11の本体11aに固定された本体座標系SB,t+Δtiの座標値へ、直接、座標変換し、当該本体座標系SB,t+Δtiの座標値を、撮像時刻tにおける移動体11の本体11aに固定された本体座標系SB,tの座標値へ、直接、座標変換し、前記(6)の座標変換を行う。
(Modification 4)
In the above description, the coordinate transformations (1) to (6) are performed in the coordinate transformation of FIG. 4, but the coordinate transformations (2) and (3) may be omitted. In this case, the coordinate value of the reference sensor coordinate system S L0, t + Δti obtained by the coordinate transformation of (1) is fixed to the main body coordinate system 11a of the moving body 11 at the target measurement time (t + Δti). The coordinates are directly converted to the coordinate values of SB, t + Δti , and the coordinates conversion of (4) to (6) is performed.
In the above description, the coordinate transformations (1) to (6) are performed in the coordinate transformation of FIG. 4, but the coordinate transformations (2) to (5) may be omitted. In this case, the coordinate value of the reference sensor coordinate system S L0, t + Δti obtained by the coordinate transformation of (1) is fixed to the main body coordinate system 11a of the moving body 11 at the target measurement time (t + Δti). S B, to the coordinate values of the t +? ti, direct and coordinate transformation, the body coordinate system S B, the coordinate values of t +? ti, the body coordinate system S B which is fixed to the body 11a of the movable body 11 in the imaging time t, the t The coordinate conversion is directly performed on the coordinate value, and the coordinate conversion of (6) is performed.
In the above description, the coordinate transformations (1) to (6) are performed in the coordinate transformation of FIG. 4, but the coordinate transformations (1) to (3) may be omitted. In this case, when the sensor coordinate system S L1, t + Δti at the target measurement time (t + Δti) does not match the reference sensor coordinate system S L0, t + Δti , the sensor coordinate system S L1, at the target measurement time (t + Δti) . The coordinate value of t + Δti is directly transformed into the coordinate value of the main body coordinate system SB, t + Δti fixed to the main body 11a of the moving body 11 at the target measurement time (t + Δti), and the above (4) to (4) 6) Coordinate conversion is performed. On the other hand, if the sensor coordinate system S L1, t +? Ti of the measurement time of interest (t +? Ti) coincides with the reference sensor coordinate system S L0, t +? Ti, the reference sensor coordinate system S L0 in the subject of measurement time (t +? Ti) , T + Δti , and the coordinate value is directly converted into the coordinate values of the main body coordinate system SB, t + Δti fixed to the main body 11a of the moving body 11 at the target measurement time (t + Δti), The coordinate conversion of (6) is performed.
In the above description, the coordinate transformations (1) to (6) are performed in the coordinate transformation of FIG. 4, but the coordinate transformations (1) to (5) may be omitted. In this case, when the sensor coordinate system S L1, t + Δti at the target measurement time (t + Δti) does not match the reference sensor coordinate system S L0, t + Δti , the sensor coordinate system S L1, at the target measurement time (t + Δti) . the coordinate values of the t +? ti, measurement time of interest (t +? ti) body coordinate system fixed to the body 11a of the movable body 11 in the S B, to the coordinate values of the t +? ti, direct and coordinate transformation, the body coordinate system S B , the coordinate values of t +? ti, the body coordinate system S B which is fixed to the body 11a of the movable body 11 in the imaging time t, the coordinate values of t, direct and coordinate transformation, performs the coordinate transformation of the (6). On the other hand, if the sensor coordinate system S L1, t +? Ti of the measurement time of interest (t +? Ti) coincides with the reference sensor coordinate system S L0, t +? Ti, the reference sensor coordinate system S L0 in the subject of measurement time (t +? Ti) , T + Δti , the coordinate value is directly converted into the coordinate value of the main body coordinate system SB, t + Δti fixed to the main body 11a of the moving body 11 at the target measurement time (t + Δti), and the main body coordinate system S The coordinate value of B, t + Δti is directly converted into the coordinate value of the main body coordinate system S B, t fixed to the main body 11a of the moving body 11 at the imaging time t, and the coordinate conversion of (6) is performed.

3 距離センサ、5 撮像装置、5a 第1撮像部、5b 第2撮像部、7 動作量計測装置、7a 計測部、7b 演算部、9 データ処理装置、10 植物位置計測装置、11 移動体、11a 移動体の本体、13 第1フィルタ、15 第2フィルタ、17,19 撮像面 3 distance sensor, 5 imaging device, 5a first imaging unit, 5b second imaging unit, 7 motion amount measuring device, 7a measuring unit, 7b computing unit, 9 data processing device, 10 plant position measuring device, 11 moving object, 11a Main body of moving body, 13 1st filter, 15 2nd filter, 17, 19

Claims (4)

地上において植物の葉が存在している位置を計測する植物位置計測装置であって、
移動体に設定された基点から各計測方向にレーザ光を発することにより、各計測方向に存在する植物または他の物体上の各被計測点までの距離を計測する距離センサと、
前記各被計測点を含む領域を撮像する撮像装置と、を備え、
距離センサと撮像装置は、地上を移動する移動体に設けられており、
移動体の移動中に、距離センサにより、複数の計測時刻で距離計測を行い、
さらに、撮像時刻と各計測時刻との間における、移動体の向きと位置の変化量を求める動作量計測装置と、
距離センサにより計測した距離および計測方向と、撮像装置により得た画像と、動作量計測装置により得た前記変化量に基づいて、葉の位置を求めるデータ処理装置と、を備え、
データ処理装置は、各計測時刻について、
(A)当該計測時刻で距離センサが計測した被計測点までの距離および計測方向に基づいて、被計測点の位置を、距離センサに固定されたセンサ座標系の座標値で表し、
(B)撮像時刻と当該計測時刻との間における前記変化量に基づいて、センサ座標系の前記座標値を、撮像時刻における撮像装置に固定されたカメラ座標系の座標値に変換し、
(C)変換した座標値が、撮像装置により得た画像において葉を示す画素に対応するかを判断し、
前記(C)で葉を示す画素に対応すると判断された前記座標値を、地上に固定された静止座標系の座標値に変換し、当該変換した座標値を葉の位置として記録する、ことを特徴とする植物位置計測装置。
A plant position measuring device that measures the position of a plant leaf on the ground,
A distance sensor that measures the distance to each measurement point on a plant or other object that exists in each measurement direction by emitting laser light in each measurement direction from a base point set on the moving body;
An imaging device that images an area including each of the measurement points;
The distance sensor and the imaging device are provided on a moving body that moves on the ground.
While moving the moving body, the distance sensor measures the distance at multiple measurement times,
Furthermore, an operation amount measuring device for determining the amount of change in the direction and position of the moving body between the imaging time and each measurement time;
A data processing device for determining a leaf position based on a distance and a measurement direction measured by a distance sensor, an image obtained by an imaging device, and the amount of change obtained by an operation amount measuring device;
The data processing device
(A) Based on the distance to the measurement point measured by the distance sensor at the measurement time and the measurement direction, the position of the measurement point is represented by a coordinate value of a sensor coordinate system fixed to the distance sensor,
(B) Based on the amount of change between the imaging time and the measurement time, the coordinate value of the sensor coordinate system is converted into a coordinate value of a camera coordinate system fixed to the imaging device at the imaging time,
(C) determining whether the converted coordinate value corresponds to a pixel indicating a leaf in an image obtained by the imaging device;
Converting the coordinate value determined to correspond to a pixel indicating a leaf in (C) to a coordinate value of a stationary coordinate system fixed on the ground, and recording the converted coordinate value as a leaf position; A plant position measuring device.
複数の計測時刻の間で、移動体の本体に対するセンサ座標系の姿勢が異なるように、移動体の本体に対して距離センサの姿勢が変更され、
データ処理装置は、前記(B)において、各計測時刻について、
距離センサが基準姿勢にある時のセンサ座標系を基準センサ座標系とし、当該計測時刻のセンサ座標系が基準センサ座標系に一致していない場合に、当該センサ座標系の前記座標値を、距離センサの当該計測時刻の移動体の本体に固定された本体座標系の座標値に変換し、
当該本体座標系の座標値を、撮像装置の撮像時刻の移動体の本体に固定された本体座標系の座標値に変換し、
当該本体座標系の座標値を、撮像時刻の撮像装置に固定されたカメラ座標系の座標値に変換する、ことを特徴とする請求項1に記載の植物位置計測装置。
The posture of the distance sensor with respect to the main body of the moving body is changed so that the posture of the sensor coordinate system with respect to the main body of the moving body is different between a plurality of measurement times.
In (B) above, the data processing device
If the sensor coordinate system when the distance sensor is in the reference posture is the reference sensor coordinate system, and the sensor coordinate system at the measurement time does not match the reference sensor coordinate system, the coordinate value of the sensor coordinate system is calculated as the distance. Convert to the coordinate value of the body coordinate system fixed to the body of the moving body at the measurement time of the sensor,
The coordinate value of the main body coordinate system is converted into the coordinate value of the main body coordinate system fixed to the main body of the moving body at the imaging time of the imaging device,
The plant position measuring device according to claim 1, wherein the coordinate value of the main body coordinate system is converted into a coordinate value of a camera coordinate system fixed to the imaging device at the imaging time.
データ処理装置は、前記(B)において、各計測時刻について、
センサ座標系の前記座標値を、当該計測時刻の移動体の本体に固定された本体座標系の座標値に変換し、
当該本体座標系の座標値を、撮像時刻の移動体の本体に固定された本体座標系の座標値に変換し、
当該本体座標系の座標値を、撮像時刻の撮像装置に固定されたカメラ座標系の座標値に変換する、ことを特徴とする請求項1に記載の植物位置計測装置。
In (B) above, the data processing device
The coordinate value of the sensor coordinate system is converted into the coordinate value of the main body coordinate system fixed to the main body of the moving body at the measurement time,
Convert the coordinate value of the main body coordinate system to the coordinate value of the main body coordinate system fixed to the main body of the moving body at the imaging time,
The plant position measuring device according to claim 1, wherein the coordinate value of the main body coordinate system is converted into a coordinate value of a camera coordinate system fixed to the imaging device at the imaging time.
地上において植物の葉が存在している位置を計測する植物位置計測方法であって、
移動体に設定された基点から各計測方向にレーザ光を発することにより、各計測方向に存在する植物または他の物体上の各被計測点までの距離を計測する距離センサと、
前記各被計測点を含む領域を撮像する撮像装置と、を地上を移動する移動体に設け、
移動体の移動中に、距離センサにより、複数の計測時刻で距離計測を行うとともに、撮像装置により撮像を行い、
撮像時刻と各計測時刻との間における、移動体の向きと位置の変化量を求め、
各計測時刻について、
(A)当該計測時刻で距離センサが計測した被計測点までの距離および計測方向に基づいて、被計測点の位置を、距離センサに固定されたセンサ座標系の座標値で表し、
(B)撮像時刻と当該計測時刻との間における前記変化量に基づいて、センサ座標系の前記座標値を、撮像時刻における撮像装置に固定されたカメラ座標系の座標値に変換し、
(C)変換した座標値が、撮像装置により得た画像において葉を示す画素に対応するかを判断し、
前記(C)で葉を示す画素に対応すると判断された前記座標値を、地上に固定された静止座標系の座標値に変換し、当該変換した座標値を葉の位置として記録する、ことを特徴とする植物位置計測方法。
A plant position measurement method for measuring the position of a plant leaf on the ground,
A distance sensor that measures the distance to each measurement point on a plant or other object that exists in each measurement direction by emitting laser light in each measurement direction from a base point set on the moving body;
An imaging device that images the area including each of the measurement points, and a moving body that moves on the ground,
While moving the moving body, the distance sensor performs distance measurement at a plurality of measurement times, and the imaging device performs imaging.
Find the amount of change in the direction and position of the moving body between the imaging time and each measurement time,
For each measurement time,
(A) Based on the distance to the measurement point measured by the distance sensor at the measurement time and the measurement direction, the position of the measurement point is represented by a coordinate value of a sensor coordinate system fixed to the distance sensor,
(B) Based on the amount of change between the imaging time and the measurement time, the coordinate value of the sensor coordinate system is converted into a coordinate value of a camera coordinate system fixed to the imaging device at the imaging time,
(C) determining whether the converted coordinate value corresponds to a pixel indicating a leaf in an image obtained by the imaging device;
Converting the coordinate value determined to correspond to a pixel indicating a leaf in (C) to a coordinate value of a stationary coordinate system fixed on the ground, and recording the converted coordinate value as a leaf position; A plant position measuring method as a feature.
JP2013078781A 2013-04-04 2013-04-04 Plant position measuring apparatus and method Active JP6093226B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013078781A JP6093226B2 (en) 2013-04-04 2013-04-04 Plant position measuring apparatus and method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013078781A JP6093226B2 (en) 2013-04-04 2013-04-04 Plant position measuring apparatus and method

Publications (2)

Publication Number Publication Date
JP2014202601A JP2014202601A (en) 2014-10-27
JP6093226B2 true JP6093226B2 (en) 2017-03-08

Family

ID=52353157

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013078781A Active JP6093226B2 (en) 2013-04-04 2013-04-04 Plant position measuring apparatus and method

Country Status (1)

Country Link
JP (1) JP6093226B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016157428A1 (en) * 2015-03-31 2016-10-06 パイオニア株式会社 Measurement device, measurement method, and program

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06313715A (en) * 1993-04-30 1994-11-08 Chubu Electric Power Co Inc Method and apparatus for measuring profile and separation of section on ground
WO2010032495A1 (en) * 2008-09-16 2010-03-25 株式会社アドイン研究所 Tree information measuring method, tree information measuring device, and program
JP2011013803A (en) * 2009-06-30 2011-01-20 Ihi Corp Peripheral shape detection device, autonomous mobile device, operation auxiliary device for mobile body, peripheral shape detection method, control method for the autonomous mobile device and operation auxiliary method for the mobile body

Also Published As

Publication number Publication date
JP2014202601A (en) 2014-10-27

Similar Documents

Publication Publication Date Title
JP6484729B2 (en) Unmanned aircraft depth image acquisition method, acquisition device, and unmanned aircraft
CN109470158B (en) Image processing device and distance measuring device
JP7082545B2 (en) Information processing methods, information processing equipment and programs
EP3086283B1 (en) Providing a point cloud using a surveying instrument and a camera device
WO2020258721A1 (en) Intelligent navigation method and system for cruiser motorcycle
JP7182895B2 (en) Information processing device, program, and information processing method
JP4181800B2 (en) Topographic measurement system, storage medium, and program using stereo image
KR100901311B1 (en) Autonomous mobile platform
AU2015234395A1 (en) Real-time range map generation
JP6574845B2 (en) Drawing creating apparatus and drawing creating method
KR102313438B1 (en) Method for estimation of river bed change rate using hyperspectral image
US20210385381A1 (en) Image synthesis system
JP2006258486A (en) Device and method for measuring coordinate
US10893190B2 (en) Tracking image collection for digital capture of environments, and associated systems and methods
US11120260B2 (en) Multiscopic whitetail scoring game camera systems and methods
JP6333396B2 (en) Method and apparatus for measuring displacement of mobile platform
KR20200084972A (en) Method for acquisition of hyperspectral image using an unmanned aerial vehicle
KR102313437B1 (en) Method for estimation of bathymetry using hyperspectral image
JP5874252B2 (en) Method and apparatus for measuring relative position with object
CN111288891B (en) Non-contact three-dimensional measurement positioning system, method and storage medium
CN113013781A (en) Laser emission and dynamic calibration device, method, equipment and medium based on image processing
CN106443697A (en) Self-propelled device and environment distance measuring device thereof
JP6093226B2 (en) Plant position measuring apparatus and method
KR101409802B1 (en) System for analysis space information using three dimensions 3d scanner
JP2010044623A (en) Vegetation detection device and method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160325

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170125

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170125

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170210

R150 Certificate of patent or registration of utility model

Ref document number: 6093226

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250